INFOOPS (część 2/3): Dezinformacja jako taka, a jak nie taka to jaka

Rafał Kasprzyk

Rafał Kasprzyk

, Publikacje

Kultura Web3.0 i jej konsekwencje

Współcześnie użytkownicy cyberprzestrzeni to blisko 60% ludzkości (ponad 4.3 mld osób). Większość użytkowników Internetu (ponad 3.4 mld) to aktywni użytkownicy mediów społecznościowych wykorzystujący jako interfejs głównie urządzenia mobilne (ponad 3.2 mld). Standardem obecnie stały się inteligentne platformy Internetowe, a więc Internet osiągnął poziom „kultury” Web3.0, do której wielu jej użytkowników jest niemal na „stałe podłączonych”. Bycie on-line stało się kluczową potrzebą, w szczególności tzw. „cyfrowych tubylców” (ang. digital native) – pokolenia ludzi, którzy nie znają świata bez Internetu. Potrzeba bycia on-line staje się jednak również coraz bardziej powszechna wśród pokoleń starszych, starających się sprostać wymaganiom otaczającego ich świata, tzw. „cyfrowych imigrantów” (ang. digital immigrant).

Media społecznościowe, w których jak to zostało wspomniane „spotykają się ludzie”, są zasadniczym elementem środowiska informacyjnego współczesnego człowieka. Dla wielu są niemalże jedynym źródłem informacji o otaczającym ich świecie. Rola mediów społecznościowych jest obecnie nie do przecenienia, jeśli chodzi o kształtowanie opinii na niemalże każdy temat, jak również możliwość wpływania na sposób postrzegania rzeczywistości i poglądy poszczególnych osób, grup społecznych czy niemalże całych społeczeństw. Problem ten staje się obecnie przedmiotem debaty publicznej, która wydaje się być nieco spóźniona (na co już nie mamy wpływu), bardzo często prowadzona jedynie przez i z perspektywy „cyfrowych imigrantów”, w końcu w większości przypadków z wykorzystaniem jedynie badań jakościowych.

Użytkownicy „kultury” Web3.0 generują olbrzymią ilość danych i potężny ruch w Internecie. Wyzwaniem staje się opanowanie potężnego szumu informacyjnego oraz szukanie „źródła prawdy” i „źródła fałszu”. Media społecznościowe wpływają jednak na to jak znaczna część społeczeństwa pozyskuje informacje, jak ją konsumuje i jak się tą informacją dzieli. Okazuje się, że proces ten jest bardzo szybki i w większości przypadków bezkrytyczny, wręcz niemalże bezmyślny. Nie ma wówczas mowy o weryfikacji informacji i jej źródeł. Media społecznościowe (ang. Social Media) przerodziły komunikację w Internecie w interaktywny dialog, którego uczestnicy odczuwają potrzebę wyrażenia siebie i wyartykułowania „swoich” przekonań i poglądów, szukając aprobaty czy wręcz aplauzu. Trudno więc o jakikolwiek merytoryczny dyskurs. Komunikacja w mediach społecznościowych to przede wszystkim emocje, które potęgują naturalne odruchy jak, np.:

  • efekt potwierdzenia (ang. confirmation bias) – preferowanie treści, które potwierdzają dotychczasowe przekonania i poglądy;

  • efekt przyciągania podobieństwa (ang. similarity attraction effect) –nawiązywanie kontaktów z osobami o podobnych przekonaniach i poglądach.

Powyższe skutkuje pojawianiem się w mediach społecznościowych zjawiska tzw. „baniek społecznych” (ang. social bubbles), czyli społeczności zwykle o antagonistycznych przekonaniach i stąd zwykle minimalizujących wzajemne interakcje związane z realną komunikacją. Co więcej „kultura” Web3.0 wykorzystująca inteligentne platformy internetowe, tworzy tzw. „bańki filtrujące” (ang. filter bubbles) dla swych użytkowników, co potęguje wspomniane zjawisko „baniek społecznych”.

Wolne od uprzedzeń (jak może się wydawać) i nieskrępowane cenzurą interaktywne dialogi w mediach społecznych, nieoczekiwanie prowadzą do niespotykanej polaryzacji społecznej. Reasumując powyższe, kultura Web3.0 okazuje się być wyjątkowo podatnym gruntem dla wszelkiego rodzaju manipulacji informacją, a w konsekwencji jej użytkownikami. „Paliwem” do manipulacji są tzw. zaburzenia (patologie) informacji (ang. information disorder), które są rozprzestrzeniane w mediach społecznościowych.

Dezinformacja – ujęcie statyczne (klasyfikacja zaburzeń informacji)

Klasyfikacją zaburzeń (patologii) informacji zajmuje się obecnie wiele ośrodków naukowych, instytucji publicznych i prywatnych. Jedna z ogólnych taksonomii, wyróżnia wśród zaburzeń informacyjnych:

  • informację nieprawdziwą, wprowadzającą w błąd (ang. mis-information);

  • informację wyrządzającą szkodę/ból (ang. mal-information);

  • informację celowo wprowadzającą w błąd, mogącą wyrządzić szkodę/ból (ang. dis-information).

Przedmiotem dalszego zainteresowania jest właśnie tzw. dezinformacja (ang. dis-information). W ujęciu jakościowym dezinformacja rozumiana jest jako informacja mająca zdolność kreowania zmanipulowanego obrazu rzeczywistości w określonym celu. W zależności od intencji wprowadzenia odbiorcy w błąd (ang. intent to deceive), dezinformację mogą stanowić: satyra/parodia (ang. satire/parody) fałszywe/pokrętne połączenia (ang. false connection) np. nagłówki artykułów „pokrętnie” odpowiadające jego treści wprowadzająca w błąd treść (ang. misleading content) fałszywy kontekst dla prawdziwej informacji (ang. false context) informacja o pozornie niesterowanych zdarzeniach (ang. imposter content) zmanipulowana treść (ang. manipulated content) w pełni sfabrykowana treść (ang. fabricated content). W ujęciu ilościowym dezinformację można natomiast zdefiniować jako ustalona ilość informacji (również prawdziwej) mającej kreować obraz rzeczywistości na określony temat, w tym całkowity brak informacji na ten temat, szum informacyjny lub natłok informacji prowadzący do swego rodzaju przeciążenia informacyjnego u jej odbiorcy.

Zaburzenia informacyjne są więc różnie klasyfikowane i występują pod różnymi postaciami, np. tekst, grafika, nagrania dźwiękowe, wideo. W powszechnym obiegu tego rodzaju zaburzenia informacyjne określane są mianem fake’ów lub fake news’ów jeśli dotyczą spraw bieżących. Bardzo często fake’i, wyglądają na informacje prawdziwe, dopiero po ich analizie i weryfikacji źródła okazują się zaburzeniami informacyjnymi. Zupełną nowością i potężnym zagrożeniem są od niedawna deepfake’i. O ile fake’i są tworzone w całości przez ludzi, oczywiście z wykorzystaniem narzędzi takich jak edytory tekstu czy edytory graficzne, to deepfake’i są tworzone w sposób zautomatyzowany z wykorzystaniem narzędzi i algorytmów szeroko rozumianej tzw. sztucznej inteligencji, w szczególności uczenia maszynowego (ang. machine learning), a precyzyjniej głębokich sieci neuronowych (ang. deep neural networks), rozpoznawania obrazu i syntezy mowy. Wyjątkowo niepokojącym jest fakt dostępności w Internecie gotowych narzędzi, które umożliwiają nawet laikowi przygotowanie deepfake’a. Oczywiście, powstają również narzędzia do automatyzacji identyfikacji deepfake’ów.

Niestety jak zostało już to wspomniane „kultura” Web3.0 bardzo „zniechęca” jej użytkowników do krytycznego myślenia. Stąd potrzeba systemowego podejścia do walki z fake’ami, czego jednym z przejawów jest pojawienie się na różnych poziomach (rzetelnego dziennikarstwa, pojedynczych państw, organizacji międzynarodowych, również samych mediów społecznościowych) osób lub całych instytucji zajmujących się kontrolą faktów tzw. „pogromców mitów” (ang. fact checkers).

Dezinformacja – ujęcie dynamiczne

W poprzednim punkcie dezinformacja została zdefiniowana w ujęciu statycznym jako zaburzenie informacyjne. Dezinformacja w ujęciu dynamicznym to proces manipulacji, świadomego wprowadzania w błąd, zasianie wątpliwości odbiorcy co do faktycznego stanu rzeczy, z wykorzystaniem różnego rodzaju zaburzeń informacyjnych. Dezinformacja jako proces jest więc ofensywną operacją informacyjną, czyli ingerowaniem w proces osiągania świadomości sytuacyjnej, której celem jest wywołanie u odbiorcy określonego obrazu rzeczywistości, a w konsekwencji decyzji (ewentualnie jej braku), w zgodzie z założeniami ośrodka planującego operację informacyjną. Dezinformacja jest w swojej istocie ingerencją w proces podejmowania decyzji odbiorcy (obiektu lub grupy obiektów), również poprzez maskowanie pewnych wydarzeń i informacji o tych wydarzeniach lub generowanie szumu informacyjnego celem zdezorientowania odbiorcy. Tym samym w procesie dezinformacji wykorzystywana jest informacja, która nie zawsze jest informacją nieprawdziwą, a cały wachlarz zaburzeń informacyjnych zdefiniowanych wcześniej. W tym miejscu warto zwrócić uwagę na olbrzymie podobieństwo procesu dezinformacji do działań marketingowych, w tym reklamowych.

Zaawansowane operacje informacyjne opierają się na wcześniejszym rozpoznaniu odbiorcy (obiektu lub grupy obiektów), do których są kierowane. Efektem rozpoznania są profile, czyli de facto sparametryzowane modele subiektywizmu odbiorcy w oparciu, o które kształtuje swój obraz rzeczywistości. Budowa modeli subiektywizmu jest złożonym procesem, który może polegać na „profilowaniu poprzez aktywną komunikację” w czasie poprzedzającym proces dezinformacji. W oparciu o zbudowane profile, atakujący kształtuje środowisko informacyjne obiektu atakowanego w celu wykreowania obrazu rzeczywistości (w pewnym sensie narzuconego przez atakującego) zbieżnego z celami strony atakującej. Tym samym atakujący zyskuje swego rodzaju przewagę informacyjną, która umożliwia rozpoczęcie wpływu na procesy decyzyjne obiektu atakowanego. Warto przypomnieć, że dokładnie według tego schematu odbywa się personalizowanie treści w „kulturze” Web3.0 na inteligentnych platform internetowych, poprzez profilowanie użytkowników. W tym ujęciu bardzo wyraźnie widać istotę procesu dezinformacji, którą niekoniecznie jest rozprzestrzenianie nieprawdziwych informacji.

Intuicyjnym jest spostrzeżenie, że skuteczność operacji informacyjnej jest tym większa im dłużej realizowana jest skrycie, a więc obiekt atakowany nie jest tego świadomy. Ciekawostką jest jednak to, że z chwilą uzyskania przez obiekt atakowany nawet pełnego przekonania o tym, że był przedmiotem operacji informacyjnej, nie oznacza „nabycia odporności” na określoną narrację. Zbudowany obraz rzeczywistości przez długi czas może determinować decyzje obiektu atakowanego ze względu na zjawisko dysonansu poznawczego (ang. cognitive dissonance) i wspomniany już efekt potwierdzenia (ang. confirmation bias) lub prowadzić do trudności z podjęciem jakiejkolwiek decyzji. Co więcej, zdemaskowanie operacji informacyjnej, nawet jeśli pierwotnie niezamierzone przez atakującego, może być dla niego paradoksalnie stanem korzystnym, w szczególności możliwym do wykorzystaniem w kolejnej operacji informacyjnej.

Proces dezinformacji należy rozpatrywać w krótkim i długim horyzoncie czasowym. W kontekście długoterminowym, kluczowym jest próba identyfikacji celu przeciwnika, co zwykle jest bardzo trudne. W przypadku rozpatrywania dezinformacji w długim horyzoncie czasowym istotne jest również zwrócenie uwagi na możliwości wykorzystywania nawet zdemaskowanych produktów dezinformacji jako tło informacyjne do budowy zmanipulowanego „spójnego” obrazu rzeczywistości w przyszłości.

W tym miejscu warto zwrócić uwagę na potrzebę opracowywania metod identyfikacji i rozpoznania operacji informacyjnych (dezinformacji jako procesu) które to metody, aby być skuteczne nie mogą zostać oparte wyłącznie na identyfikacji i rozpoznaniu informacjach nieprawdziwych. Tak więc przeciwdziałanie dezinformacji w ujęciu dynamicznym, czyli przeciwdziałanie procesowi manipulacji, wymaga mechanizmów dużo bardziej zaawansowanych niż wspomniani wcześniej tzw. „pogromcy mitów”.

Share Button