Dezinformacja w internecie przestała być zjawiskiem marginalnym — dziś wpływa na decyzje zdrowotne, społeczne i polityczne milionów ludzi. Szczególnie narażone są osoby starsze, które coraz aktywniej korzystają z sieci, ale często poruszają się w niej bez narzędzi pozwalających odróżnić wiarygodne źródła od manipulacji. O mechanizmach współczesnej dezinformacji, roli sztucznej inteligencji oraz o tym, jak skutecznie chronić seniorów przed fałszywymi treściami, rozmawiamy z Urszulą Szeląg, ekspertką Stowarzyszenia Demagog.
Piotr Czubowicz: Fałszywe treści w internecie to coraz częściej zaplanowane działania, które mają wpływać na nasze emocje, decyzje i relacje społeczne. Jak najprościej wyjaśnić, czym jest dezinformacja? Czym różni się od zwykłej pomyłki czy niesprawdzonej plotki w sieci?
Dezinformacja to nie jest zwykły błąd. To nie jest sytuacja, w której ktoś się pomylił, źle coś zrozumiał albo udostępnił informację, która wydawała mu się wiarygodna. Dezinformacja to fałszywa treść, która została stworzona albo rozpowszechniona celowo — z określoną intencją. I ta intencja jest tu kluczowa, bo fałszywych informacji w internecie jest bardzo dużo, natomiast nie każda z nich jest dezinformacją.
Dezinformacja to działanie zaplanowane. To oznacza, że ktoś tworzy lub rozpowszechnia nieprawdziwą treść celowo i chce tym działaniem osiągnąć konkretny efekt: zarobić pieniądze, zdobyć zasięgi, wpłynąć na poglądy ludzi, wywołać strach, gniew, podziały społeczne albo osiągnąć cel polityczny. To odróżnia dezinformację od zwykłej pomyłki czy plotki. W dezinformacji nie ma przypadku — jest cel.
Czyli samo to, że informacja jest fałszywa, jeszcze nie oznacza, że mamy do czynienia z dezinformacją?
Dokładnie. Edukując o fałszywych informacjach używamy trochę bardziej precyzyjnych pojęć. W języku potocznym wszystko nazywa się „fake newsem”, ale to jest bardzo szerokie i często nadużywane określenie. My mówimy o trzech kategoriach. Pierwsza to misinformacja, czyli fałszywa informacja rozpowszechniana bez złej intencji, bez świadomości, że jest to fałszywa informacja. Ktoś podaje coś dalej, bo się martwi o siebie, bliskich, przyjaciół, chce kogoś ostrzec, ufa źródłu, które o czymś informuje. Na przykład udostępnia post o zaginionym dziecku, nie wiedząc, że zdjęcie jest wygenerowane przez sztuczną inteligencję, a cała historia zmyślona.
Druga grupa to właśnie dezinformacja — fałszywa treść tworzona lub rozpowszechniana z premedytacją, żeby wywołać określony skutek. Tu ktoś wie, że manipuluje, albo przynajmniej zakłada, że informacja jest nieprawdziwa, ale i tak ją publikuje. To jest najbardziej aktywna i najbardziej niebezpieczna forma. Mamy tu połączenie fałszu, złych intencji i dużej skali oddziaływania, bo w mediach społecznościowych ta skala jest ogromna — jedna treść może w kilka godzin dotrzeć do setek tysięcy osób. Co więcej, dezinformacja niemal zawsze gra na emocjach. To nie są chłodne, neutralne komunikaty. To są treści, które mają wstrząsnąć, oburzyć, przestraszyć, wzbudzić gniew albo dać poczucie, że „wiemy coś, czego inni nie wiedzą”. Silne emocje wyłączają nam część krytycznego myślenia — i to jest dokładnie ten moment, na którym opiera się skuteczność dezinformacji.
Trzecia kategoria to malinformacja. To jest z kolei informacja prawdziwa, ale użyta w szkodliwym kontekście. Tu przykładem jest wyciągnięcie faktów z kontekstu albo publikowanie czyichś prywatnych danych tylko po to, żeby kogoś zdyskredytować czy podsycić nienawiść.
Czy charakter dezinformacji zmienił się w ostatnich latach?
Zdecydowanie tak. Dezinformacja była z nami zawsze, ale dziś jest szybsza, tańsza w produkcji i bardziej zorganizowana. Media społecznościowe sprawiają, że treści rozchodzą się błyskawicznie, a nowe technologie — w tym sztuczna inteligencja — obniżają próg wejścia. Dużo łatwiej stworzyć dziś fałszywe zdjęcie, nagranie czy wiarygodnie wyglądającą stronę.
Widzimy też coraz więcej działań, które mają charakter systemowy i są powiązane z polityką czy geopolityką. Od początku pełnoskalowej wojny Rosji przeciwko Ukrainie bardzo wyraźnie widać, że informacja stała się jednym z frontów.
No właśnie, od czasu pełnoskalowej inwazji Rosji na Ukrainę dużo mówi się o wojnie informacyjnej i działaniach rosyjskich farm trolli wymierzonych w Polskę. Z Państwa perspektywy — jak takie działania wyglądają w praktyce?
Z naszej perspektywy widać bardzo wyraźnie, że nie mamy do czynienia z pojedynczymi wpisami czy spontanicznymi opiniami użytkowników, lecz z działaniami o charakterze systemowym i skoordynowanym. Rozpoznajemy je przede wszystkim po powtarzalności narracji i schematów językowych. Te same tezy, często sformułowane niemal identycznie, pojawiają się równolegle w różnych miejscach internetu — w postach, komentarzach, grafikach, memach czy krótkich filmach.
Charakterystyczne jest też to, że są to treści o wyraźnym zabarwieniu emocjonalnym i najczęściej mają wspólny mianownik: są „anty”. Antyukraińskie, antyunijne, antyamerykańskie, antynatowskie, antysystemowe. Ich celem wcale nie musi być przekonanie odbiorców do Rosji. Dużo częściej chodzi o podsycanie napięć społecznych, wzmacnianie podziałów i osłabianie zaufania — do państwa, instytucji, mediów, ale też do innych ludzi.
W Polsce szczególnie widoczne było to w kontekście uchodźców z Ukrainy. Pojawiały się przekazy o rzekomym uprzywilejowaniu Ukraińców, o zagrożeniu dla Polaków, o kosztach ich obecności czy odwołania do bolesnych wątków historycznych. To są treści zaprojektowane tak, by wywoływać silne emocje — złość, lęk, poczucie niesprawiedliwości. I właśnie ta powtarzalność, zsynchronizowanie i wyraźny cel społeczny pokazują, że to element szerszej operacji informacyjnej, a nie przypadek.
Skoro mówimy o zorganizowanych działaniach, to kto właściwie dziś stoi za taką dezinformacją w internecie? Czy to wciąż głównie ludzie, czy coraz większą rolę odgrywają zautomatyzowane konta i boty, które sztucznie wzmacniają zasięgi i sprawiają wrażenie masowego poparcia dla określonych narracji?
W praktyce mamy do czynienia z połączeniem obu tych elementów. Istnieją tzw. farmy trolli, czyli grupy ludzi, których zadaniem jest tworzenie i rozpowszechnianie treści dezinformujących. To nie są przypadkowi użytkownicy, lecz osoby działające według określonych wytycznych, często w ramach większych struktur. Ich rola polega na inicjowaniu narracji, tworzeniu treści, dopasowywaniu przekazu do bieżących wydarzeń.
Jednocześnie ogromne znaczenie mają konta automatyczne lub półautomatyczne, czyli boty. To one pomagają nadawać tym treściom skalę. Udostępniają, komentują, „lajkują”, wchodzą w dyskusje. Dzięki temu zwykły użytkownik ma wrażenie, że dana opinia jest powszechna, że „wszyscy o tym mówią”. Tworzy się iluzja masowego poparcia, co zwiększa wiarygodność przekazu i ułatwia jego dalsze rozprzestrzenianie.
Często wygląda to tak, że treść powstaje w sposób bardziej „ludzki”, a później jest wzmacniana technicznie przez sieć kont, które mają ją wynieść do większych zasięgów. To właśnie połączenie pracy ludzi i automatyzacji sprawia, że współczesna dezinformacja jest tak skuteczna i trudna do wychwycenia.
W tym kontekście pojawia się jeszcze jeden ważny element — sztuczna inteligencja. Jak AI zmienia dziś krajobraz dezinformacji?
Sztuczna inteligencja wprowadza dezinformację na kolejny poziom. Po pierwsze, umożliwia tworzenie bardzo realistycznych materiałów — zdjęć osób, które nie istnieją, nagrań audio i wideo, w których ktoś mówi coś, czego nigdy nie powiedział. Takie treści są coraz trudniejsze do odróżnienia od prawdziwych, nawet dla osób obeznanych z mediami.
Ale AI to już nie tylko obraz czy dźwięk. Coraz częściej jest wykorzystywana do symulowania ludzkiej obecności w sieci. Można wygenerować wiarygodnie wyglądający profil — np. starszej osoby — ze zdjęciem stworzonym przez AI, historią aktywności, komentarzami. Do takiego konta można „podpiąć” system oparty na sztucznej inteligencji, który będzie prowadził rozmowy, odpowiadał na komentarze, wchodził w interakcje z innymi użytkownikami.
W takiej sytuacji to już nie człowiek bezpośrednio rozmawia z odbiorcą, lecz algorytm. Dla użytkownika jest to jednak nie do odróżnienia od kontaktu z realną osobą. To sprawia, że manipulacja staje się bardziej subtelna, długofalowa i trudniejsza do wykrycia. AI sprawia więc, że dezinformacja jest tańsza w produkcji, łatwiejsza do skalowania i bardziej przekonująca, a przez to jeszcze groźniejsza.
Wspomnieliśmy o dezinformacji, ale w przypadku seniorów bardzo często pojawia się też wątek zwykłych oszustw internetowych. Phishing, podszywanie się pod banki, znajomych… Na czym to dziś najczęściej polega?
To się bardzo mocno zazębia z dezinformacją, bo w obu przypadkach chodzi o manipulację i wykorzystanie emocji. Phishing to ogólna nazwa dla sytuacji, w której ktoś podszywa się pod zaufaną instytucję albo osobę, żeby wyłudzić od nas dane — loginy, hasła, numery kart, kody BLIK, dane osobowe.
Senior może dostać SMS „z banku”, że ktoś próbował włamać się na konto i trzeba pilnie kliknąć w link. Albo wiadomość od „kuriera”, że jest niedopłata kilku złotych. Albo telefon od rzekomego pracownika banku czy policji, który mówi, że pieniądze są zagrożone i trzeba je „zabezpieczyć”. To są klasyczne scenariusze oparte na presji czasu i strachu.
Do tego dochodzi podszywanie się pod bliskich. Przychodzi wiadomość na komunikatorze: „Babciu, zgubiłem telefon, to mój nowy numer, potrzebuję pilnie przelewu”. I jeśli ktoś działa pod wpływem emocji, nie weryfikuje tego, to niestety bardzo łatwo paść ofiarą.
Czyli tu też kluczowe są emocje?
Zawsze. Strach, pośpiech, poczucie zagrożenia albo z kolei współczucie i chęć pomocy. Oszuści bardzo dobrze rozumieją psychologię. Seniorzy często są bardziej ufni, wychowani w świecie, w którym słowo miało większą wagę, a jednocześnie mniej swobodnie poruszają się po technologii. To połączenie sprawia, że są częstym celem.
Do tego dochodzi tzw. socjotechnika — czyli manipulowanie rozmową tak, żeby ofiara sama, krok po kroku, zrobiła to, czego chce oszust. On nie mówi wprost „proszę podać hasło”, tylko buduje historię, autorytet, presję.
Jakie więc nawyki powinien mieć senior korzystający z internetu i mediów społecznościowych? Gdyby mieli Państwo wskazać kilka najważniejszych zasad na co dzień.
Pierwsza rzecz to zatrzymać się. Nie reagować od razu. Jeśli jakaś wiadomość — post, SMS, mail, telefon — wywołuje silne emocje, to jest sygnał ostrzegawczy. Dezinformacja i oszustwa prawie zawsze bazują na emocjach. Warto sobie zadać pytanie: dlaczego to mnie tak porusza i kto na tym skorzysta, jeśli kliknę, udostępnię lub podam dane?
Druga sprawa to sprawdzanie źródła i linków. Jeśli przychodzi link — nawet od znajomego — trzeba bardzo dokładnie przeczytać adres strony. Oszuści tworzą adresy łudząco podobne do prawdziwych, z jedną literą zmienioną, dodatkowym znakiem. Najlepiej w ogóle nie wchodzić w takie linki z wiadomości, tylko samodzielnie wpisać w przeglądarce nazwę banku czy instytucji.
Warto też sprawdzać nadawcę. Adres maila, numer telefonu można wkleić w wyszukiwarkę i zobaczyć, czy inni nie ostrzegają, że to oszustwo. A jeśli wiadomość jest niby od bliskiej osoby, najlepiej zadzwonić do niej na znany numer i potwierdzić.
Trzecia rzecz to zabezpieczenie kont. Silne, długie hasła, różne do różnych serwisów. Włączona weryfikacja dwuetapowa, czyli oprócz hasła dodatkowy kod. I absolutnie nigdy nie podawanie haseł, PIN-ów, kodów BLIK przez telefon czy w wiadomościach. Bank czy policja nigdy o to nie proszą.
Tylko że wielu seniorów mówi: „ja tego nie ogarniam”, „nie wiem, jak to włączyć”, „co to jest ta weryfikacja dwuetapowa”…
I tu ogromna rola rodziny. To nie jest tylko problem seniorów, to jest odpowiedzialność całego otoczenia. Warto usiąść razem, spokojnie pokazać, pomóc ustawić zabezpieczenia, zapisać ważne rzeczy. I przede wszystkim powiedzieć seniorowi, że ma prawo nie wiedzieć i że zawsze może zapytać.
Bardzo pomaga też prosta zasada: lepiej zapytać pięć razy i wyjść na ostrożnego, niż raz zaufać i stracić oszczędności życia. Oszuści liczą na wstyd i na to, że ktoś nie będzie chciał nikomu „zawracać głowy”. A bezpieczeństwo w sieci to dziś po prostu element codziennego życia — tak samo jak zamykanie drzwi na klucz.
Dziękuję za rozmowę.
Rozmawiał Piotr Czubowicz
Urszula Szeląg – w Stowarzyszeniu Demagog jest koordynatorką wolontariuszek i wolontariuszy, dba o profesjonalizację wolontariatu. Jako mentorka Akademii Fact-checkingu prowadzi warsztaty z dezinformacji i weryfikowania informacji dla różnych grup wiekowych. Specjalizuje się w pracy z seniorami, których wprowadza w świat fałszywych informacji i narzędzi do ich weryfikacji. W projekcie „Seniorzy w sieci”, we współpracy z Towarzystwem Inicjatyw Twórczych „ę”, prowadziła wiele warsztatów stacjonarnych i zdalnych, m.in. cykl warsztatów „Seniorzy weryfikują wybory samorządowe”.



