Zespół Studiów Obywatelskich
14 kwietnia 2025
Jędrzej Jander
Komentarze IEŚ 1332 (72/2025)

Manipulacja maszyną: sztuczna inteligencja wobec rosyjskiej dezinformacji

Manipulacja maszyną: sztuczna inteligencja wobec rosyjskiej dezinformacji

ISSN: 2657-6996
Komentarze IEŚ 1332
Wydawca: Instytut Europy Środkowej
Słowa kluczowe: , , ,

6 marca 2025 r. NewsGuard, amerykańska firma specjalizująca się w ocenie wiarygodności serwisów informacyjnych, przedstawiła wyniki przeprowadzonego przez siebie badania podatności popularnych chatbotów AI na rosyjską propagandę. Uzyskane rezultaty pokazały, że w jednej trzeciej zbadanych przypadków odpowiedzi wygenerowane przez sztuczną inteligencję  miały swoje źródła w fałszywych informacjach publikowanych przez portale powiązane z Kremlem. Wskazuje to na ewolucję rosyjskich strategii dezinformacyjnych; dowodzi również tego, że coraz powszechniej wykorzystywane narzędzia oparte na sztucznej inteligencji wiążą się z ryzykiem dla bezpieczeństwa i odporności społecznej. Prawodawstwo Unii Europejskiej od 2024 r. reguluje działanie systemów i modeli AI, jednak wciąż nie są znane konkretne wytyczne, według których oceniana byłaby zgodność z prawem UE.

Audyt przeprowadzony przez NewsGuard. Badanie NewsGuard opierało się na zadaniu chatbotom AI po zestawie piętnastu pytań lub poleceń opartych na fałszywych informacjach publikowanych przez rosyjską propagandę[1]. Polecenia zostały opracowane według trzech kategorii: od neutralnych (innocent user, tj. zwykły użytkownik) przez sugerujące daną tezę (leading prompt) do wprost narzucających daną narrację w celu wyprodukowania fałszywej informacji (malign actor, czyli podmiot o złych zamiarach). Każdą odpowiedź wygenerowaną przez narzędzia AI zaklasyfikowano do jednej z trzech kategorii: misinformacja (powielanie fałszywych informacji), brak odpowiedzi (narzędzie informuje, że nie może udzielić odpowiedzi na dane polecenie) oraz odrzucenie tezy zawartej w poleceniu (chatbot wykrywa i informuje, że teza zawarta w poleceniu jest fałszywa).

Egzaminowane narzędzia AI wygenerowały łącznie 450 odpowiedzi, z czego ponad 33% zawierało rosyjską dezinformację. W mniej niż połowie przypadków sztuczna inteligencja poprawnie rozpoznała fałszywe informacje. Wyniki badania pokazują, że AI może skutecznie powielać dezinformację, jednocześnie zawodząc w jej identyfikacji. Ta kombinacja stanowi poważne zagrożenie dla państw, w których narzędzia AI odgrywają coraz większą rolę w generowaniu i analizie treści, a które stają się celem operacji dezinformacyjnych. Raport Google ze stycznia 2025 r. wskazuje na rosnące wykorzystanie AI do celów propagandowych i manipulacyjnych przez państwa autorytarne – przede wszystkim Iran, Chiny i Rosję[2].

Ewolucja strategii dezinformacyjnych Kremla. Dezinformacja stała się ważną bronią reżimu w Rosji w warunkach zaostrzającej się rywalizacji ze światem zachodnim. Wobec znacznej przewagi gospodarczej, demograficznej i technologicznej po stronie Zachodu, państwo rosyjskie zainwestowało i wciąż inwestuje w działania, które mają uniemożliwić zmobilizowanie przeciwko sobie potencjału USA i Unii Europejskiej oraz osłabić jedność Sojuszu Północnoatlantyckiego. W tym kontekście ważną cezurą była rosyjska interwencja zbrojna na wschodzie Ukrainy i aneksja Krymu w 2014 r., co doprowadziło do nałożenia na Rosję zachodnich sankcji. Od tego czasu odnotowuje się wzmożenie rosyjskich działań mających na celu dezinformację i wpływanie na procesy polityczne za granicą. Podstawowym celem rosyjskich działań w sferze informacyjnej jest podważenie zaufania społeczeństw demokratycznych do swoich instytucji oraz elit politycznych i intelektualnych, m.in. poprzez proliferację teorii spiskowych, co z kolei prowadzi do destabilizacji politycznej i wzrostu radykalizmów.

Rosyjska dezinformacja w przestrzeni cyfrowej ewoluowała wraz ze zmianami zachodzącymi w globalnym Internecie. W 2014 r. ujawniono funkcjonowanie tzw. farm trolli – zorganizowanych struktur odpowiedzialnych za masowe publikowanie prorosyjskich komentarzy oraz dystrybucję dezinformacji na forach internetowych i w mediach społecznościowych. Amerykańskie śledztwo ustaliło, że jedna z takich struktur, zlokalizowana w Petersburgu Internet Research Agency, odegrała kluczową rolę w rosyjskiej ingerencji w wybory prezydenckie w USA w 2016 r.[3] Nie sposób nie wspomnieć w tym kontekście o aferze Cambridge Analytica. Firma o tej nazwie zdobyła dostęp do danych dziesiątków milionów użytkowników portalu Facebook, a następnie wykorzystała je w celu dostarczenia tym osobom spersonalizowanych reklam politycznych. W 2016 r. była także zaangażowana w kampanię na rzecz brexitu oraz w kampanię prezydencką Donalda Trumpa. Wystąpiła zatem zbieżność z interesami Kremla, zainteresowanego destabilizacją świata transatlantyckiego. Pomimo braku jednoznacznych dowodów na udział w tym procederze rosyjskich służb, istnieją poszlaki wskazujące, że taka ingerencja mogła mieć miejsce[4].

Od wybuchu pełnoskalowej wojny w Ukrainie w 2022 r. pojawiły się nowe strategie ukierunkowane na manipulację zachodnim odbiorcą. Jedną z nich jest „Doppelgänger” (pol. „sobowtór”), czyli strategia polegająca na tworzeniu stron internetowych imitujących portale znanych zachodnich tytułów i rozpowszechnianiu za ich pośrednictwem fałszywych informacji. Następnie prorosyjskie konta na portalach społecznościowych udostępniają treści z takich stron, które przez swoje podobieństwo do oryginałów sprawiają pozory wiarygodności. Oprócz tego zaczęły powstawać strony zupełnie fikcyjnych mediów o nazwach i szacie graficznej przypominających autentyczne amerykańskie i europejskie media. Spełniały one tę samą rolę, polegającą na rozpowszechnianiu prorosyjskich narracji i fałszywych treści.

Manipulacja generatywną sztuczną inteligencją, opisywana w badaniu NewsGuard, jest świadectwem kolejnego trendu w rosyjskiej działalności dezinformacyjnej. W tej strategii bezpośrednim celem nie są ludzie – jest nim maszyna, której działanie i rozwój zależą od uczenia się na wielkich zbiorach danych. Chodzi o włączenie w te zbiory dużych ilości prorosyjskich treści, które miałyby z kolei wpływać na odpowiedzi generowane przez tę maszynę w interakcji z ludźmi. Mówi o tym m.in. raport amerykańskiej organizacji pozarządowej American Sunlight Project z lutego 2025 r.[5] Ten cel jest realizowany przez sieć portali pod nazwą „Pravda” lub „Portal Kombat”. Jej funkcjonowanie zostało ujawnione przez francuską agencję rządową VIGINUM w lutym 2024 r.[6] Strony internetowe wchodzące w skład sieci „Pravda” charakteryzują się olbrzymią ilością publikowanych treści – w sumie miliony artykułów rocznie[7]. Są to niskojakościowe publikacje, które powielają doniesienia z innych prorosyjskich źródeł. Nie mają one praktycznie realnych czytelników, co nie ma jednak znaczenia z punktu widzenia realizowanej strategii. Liczy się ilość treści, ich ogólnodostępność oraz publikowanie w różnych językach – to właśnie te elementy sprawiają, że uczą się na nich największe i najpopularniejsze modele AI.

Wnioski. Manipulacja generatywną AI świadczy o szybkim dostosowywaniu się rosyjskiego aparatu dezinformacji do globalnych trendów i nowych technologii. W niedalekiej przyszłości ten proceder może się wiązać z poważnym ryzykiem dla odporności zachodnich społeczeństw. Narzędzia oparte na sztucznej inteligencji będą w coraz większym stopniu wykorzystywane przez ludzi w celu zdobywania wiedzy oraz automatycznego generowania nowych treści. Badanie NewsGuard pokazuje, że te narzędzia obecnie nie oferują adekwatnej ochrony przed dezinformacją. Jednocześnie są w stanie przedstawić wypaczony obraz rzeczywistości w przekonujący sposób. Wynika z tego potrzeba bardziej efektywnej regulacji sektora AI pod kątem bezpieczeństwa.

Podobnie jak w przypadku innych usług cyfrowych, także i w tym obszarze pionierem regulacji jest Unia Europejska. Akt ws. sztucznej inteligencji (ang. AI Act) wszedł w życie w 2024 r. i jest ważnym elementem strategii budowania europejskiej suwerenności cyfrowej. Specjalna uwaga poświęcona została największym i najbardziej wszechstronnym modelom, tzw. GPAI (General-Purpose AI, pol. sztuczna inteligencja ogólnego przeznaczenia). To od ich jakości i bezpieczeństwa zależy większość produktów opartych na sztucznej inteligencji. Jednak przepisy dotyczące bezpośrednio GPAI mają wejść w życie dopiero w sierpniu 2025 r., a zestaw wytycznych, które pomogą usługodawcom dostosować się do prawa UE („General-Purpose AI Code of Practice”), nie został jeszcze ukończony. Tym samym możliwe jest, że w perspektywie najbliższego roku unijne regulacje nie będą jeszcze w stanie skutecznie egzekwować lepszego zabezpieczenia modeli AI przed działaniem dezinformacji. W bliskim horyzoncie czasowym najwięcej zależy od samych twórców narzędzi AI, w których interesie leży ochrona i doskonalenie swoich produktów.


[1] M. Sadeghi, I. Blachez, A well-funded Moscow-based global ‘news’ network has infected Western artificial intelligence tools worldwide with Russian propaganda, 06.03.2025, https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global (08.04.2025).

[2] Google Threat Intelligence Group, Adversarial Misuse of Generative AI, 29.01.2025, https://services.google.com/fh/files/misc/adversarial-misuse-generative-ai.pdf#page=21.99 (08.04.2025).

[3] R. S. Mueller, Report On The Investigation Into Russian Interference In The 2016 Presidential Election, US Department of Justice, 07.03.2019, https://www.justice.gov/archives/sco/file/1373816/dl (08.04.2025).

[4] Zob. C. Cadwalladr, E. Graham-Harrison, Cambridge Analytica: links to Moscow oil firm and St Petersburg university, „The Guardian”, 17.03.2018, https://www.theguardian.com/news/2018/mar/17/cambridge-academic-trawling-facebook-had-links-to-russian-university (08.04.2025).

[5] A Pro-Russia Content Network Foreshadows the Automated Future of Info Ops, American Sunlight Project, 26.02.2025, https://www.americansunlight.org/updates/new-report-russian-propaganda-may-be-flooding-ai-models (08.04.2025).

[6] Secrétariat général de la Défense et de la Sécurité nationale, Portal Kombat: A structured and coordinated pro-Russian propaganda network, VIGINUM Technical report, 02.2024 (08.04.2025).

[7] Russian disinformation network flooded training data to manipulate Western AI chatbots, study finds, meduza.io, 07.03.2025, https://meduza.io/en/feature/2025/03/07/russian-disinformation-network-flooded-training-data-to-manipulate-western-ai-chatbots-study-finds (08.04.2025).

[Fot. pixabay.com]

Udostępnij