Deepfake. Broń masowego rażenia w erze dezinformacji
W erze szybkiego dostępu do informacji jedno pytanie staje się coraz bardziej kluczowe: Czy to, co widzę, jest prawdą? Technologia deepfake – choć sama w sobie neutralna – zadaje nam to pytanie coraz częściej i coraz boleśniej.
Deepfake to nie tylko zgrabna sztuczka algorytmu. To narzędzie, które pozwala tworzyć hiperrealistyczne filmy, zdjęcia i nagrania audio, które nigdy nie miały miejsca. Ktoś mówi coś, czego nigdy nie powiedział. Robi coś, czego nigdy nie zrobił. Uśmiecha się, choć w rzeczywistości nie było mu do śmiechu.
Nie trzeba być ekspertem od cyberbezpieczeństwa, żeby zrozumieć, jak duży jest potencjał manipulacji. Zwłaszcza dziś – gdy zaufanie do instytucji, mediów i polityków bywa kruche, a społeczeństwo podzielone i zmęczone informacyjnym chaosem.
W 2024 roku Parlament Europejski debatował nad koniecznością uregulowania wykorzystania sztucznej inteligencji, w tym deepfake’ów. Komisja Europejska ostrzegała, że dezinformacja oparta na AI to nie science fiction, ale realne zagrożenie dla demokracji.
W Polsce temat nabiera tempa. W styczniu 2025 roku Fundacja Panoptykon opublikowała raport o dezinformacji politycznej w sieci. Wskazano w nim, że już ponad 60% użytkowników mediów społecznościowych zetknęło się z materiałem, który mógł być zmanipulowany. W ponad połowie przypadków odbiorcy nie byli w stanie rozpoznać, że mają do czynienia z falsyfikatem.
Dr Katarzyna Szymielewicz, ekspertka od ochrony danych, komentowała wówczas:
„Deepfake to nie tylko zagrożenie technologiczne, ale cywilizacyjne. Jeśli nie możemy ufać swoim oczom i uszom, to na czym mamy budować debatę publiczną?”
Ale problem nie dotyczy tylko polityków i celebrytów. Wystarczy spojrzeć na dane.
– Według danych CERT Polska, tylko w 2023 roku zgłoszono ponad 700 przypadków wykorzystania deepfake’ów do oszustw finansowych i szantażu.
– Najczęściej ofiarami są kobiety — deepfake wykorzystywany jest m.in. do generowania fałszywych zdjęć intymnych, co prowadzi do szantażu, utraty pracy, a czasem nawet prób samobójczych.
W 2024 roku Prokuratura Okręgowa w Katowicach wszczęła śledztwo w sprawie kampanii hejtu z użyciem deepfake wobec lokalnej działaczki społecznej. Film, który trafił do sieci, był profesjonalnie wygenerowany, zawierał zmanipulowane słowa kobiety rzekomo mówiącej o „nienawiści wobec mężczyzn”. Nigdy tego nie powiedziała.
Takie przypadki mają realne konsekwencje. Nie chodzi tylko o reputację – chodzi o zdrowie psychiczne, bezpieczeństwo, zaufanie społeczne. A przede wszystkim – o prawo do bycia sobą w przestrzeni publicznej.
Technologia deepfake zyskuje na sile także przez to, że jest… dostępna.
Nie trzeba być hakerem ani programistą. Wystarczy smartfon, kilka aplikacji i pomysł – wystarczająco złośliwy, by zniszczyć komuś życie.
To, co kiedyś było domeną laboratoriów badawczych, dziś można pobrać z internetu. Platformy takie jak TikTok czy Instagram mają już wbudowane opcje „face swap”, a algorytmy AI stają się coraz szybsze i bardziej intuicyjne.
Problem polega na tym, że prawo za tym nie nadąża.
W Polsce nie mamy jeszcze przepisów, które jasno regulowałyby, czym jest deepfake i jakie niesie konsekwencje jego rozpowszechnianie. Choć Kodeks karny przewiduje odpowiedzialność za zniesławienie czy naruszenie wizerunku, to nie uwzględnia wprost manipulacji cyfrowej jako przestępstwa.
Jak możemy się bronić?
Na świecie rozwija się rynek narzędzi do wykrywania deepfake’ów. Uniwersytety, firmy technologiczne, agencje rządowe – wszyscy pracują nad tym, by „nauczyć maszyny rozpoznawać inne maszyny”.
– Narzędzie Deepware Scanner analizuje ruchy twarzy, dźwięk, tło.
– Amber Video działa jak tarcza ochronna dla dziennikarzy.
– YouTube testuje systemy, które automatycznie oznaczają treści podejrzane o manipulację.
Ale to tylko technologia. Największą ochroną jesteśmy… my sami. Nasze podejście. Nasz sceptycyzm. Nasza umiejętność zadania prostego pytania: Czy to, co widzę, słyszę ma sens?
Aby się bronić, potrzebujemy więcej niż aplikacji. Potrzebujemy edukacji medialnej.
Potrzebujemy szkół, które uczą dzieci i młodzież krytycznego myślenia.
Potrzebujemy kampanii społecznych, które pokazują, że obraz to nie zawsze dowód.
I wreszcie – potrzebujemy systemowego wsparcia: psychologicznego, prawnego, informacyjnego.
Dlatego tak ważne są inicjatywy obywatelskie i stowarzyszenia, które pomagają zrozumieć nowe technologie – i chronić się przed ich nadużyciami.
W świecie, w którym „prawda” może być wygenerowana jednym kliknięciem, nasze obywatelskie kompetencje stają się najważniejszym orężem.
Deepfake to nie science fiction. To tu i teraz.
To zadanie dla prawników, dziennikarzy, nauczycieli, polityków. Ale przede wszystkim – dla każdego z nas.
Bo w czasach, gdy rzeczywistość może być fikcją, prawda staje się wyborem.
I tylko my możemy go dokonać.
