Zespół Studiów Obywatelskich
11 lutego 2025
Jędrzej Jander
Komentarze IEŚ 1288 (28/2025)

Bezpieczeństwo wyborcze a media społecznościowe

Bezpieczeństwo wyborcze a media społecznościowe

ISSN: 2657-6996
Komentarze IEŚ 1288
Wydawca: Instytut Europy Środkowej

6 grudnia 2024 r. w Rumunii doszło do anulowania wyników I tury wyborów prezydenckich, które odbyły się 24 listopada 2024 r. Taką decyzję podjął rumuński Sąd Konstytucyjny w oparciu o odtajniony raport służb specjalnych, zawierający informację, że w ostatnich tygodniach przed głosowaniem na portalu społecznościowym TikTok miała miejsce skoordynowana kampania promująca jednego z kandydatów, Călina Georgescu. Kandydat ten, wyrażający poglądy prorosyjskie, sceptyczny wobec członkostwa Rumunii w NATO i wspierania Ukrainy, zwyciężył z niemal 23-procentowym poparciem. Dla porównania – jego średni sondażowy wynik przed wyborami oscylowało wokół 5 procent[1]. W akcję mieli być zaangażowani opłaceni influencerzy, a treści przychylne kandydatowi były też publikowane przez boty i rozpowszechniane przez fałszywe konta[2]. Według autorów raportu skala operacji wskazuje na to, że za jej koordynacją i finansowaniem mogło stać obce państwo, co jest powszechnie rozumiane jako wskazanie na Rosję. Decyzja Sądu Konstytucyjnego o unieważnieniu wyborów jest wydarzeniem bezprecedensowym zarówno w historii tego państwa, jak i Unii Europejskiej. Rumunia pogrążyła się w kryzysie politycznym, a z różnych stron padają oskarżenia o zamach stanu i pogwałcenie zasad demokracji. Datę powtórnego głosowania wyznaczono na 4 maja (I tura) i 18 maja 2025 r. (ewentualna II tura).

Media społecznościowe – słaby punkt obrony. Wydarzenia w Rumunii obnażyły słabość mechanizmów chroniących państwo przed zagraniczną ingerencją w wybory, szczególnie za pośrednictwem wielkich platform cyfrowych. Dowodzi tego przeprowadzona w krótkim czasie, na wielką skalę i finansowana z zagranicy kampania w mediach społecznościowych, której nie udało się powstrzymać, zanim doprowadziła do zamierzonych skutków. Słabość państwa w obliczu tej sytuacji wynika m.in. z konieczności polegania na działaniu samych portali, ich transparentności oraz egzekwowaniu własnego regulaminu. Warto zauważyć, że regulamin TikToka zabrania płatnej reklamy politycznej, a mimo to użytkownicy byli w stanie odpłatnie promować określonego kandydata, a akcja zyskiwała ogromne zasięgi. W ostatnich latach spada zaufanie do mediów tradycyjnych, a ludzie w coraz większym stopniu czerpią informacje z treści proponowanych im przez media społecznościowe na podstawie dotychczasowych preferencji[3]. Z tego powodu ingerencje w wybory za pośrednictwem tych platform mogą być coraz skuteczniejszym narzędziem do destabilizacji społeczeństw demokratycznych. Jest to sytuacja alarmująca, tym bardziej że w pierwszej połowie 2025 r. odbędą się wybory w kolejnych państwach Europy Środkowej. Na 23 lutego zaplanowane są wybory do Bundestagu w Niemczech, a na 18 maja – wybory prezydenckie w Polsce. Oba państwa, z racji swojego położenia geograficznego oraz roli odgrywanej w UE i koalicji wsparcia dla Ukrainy, muszą być przygotowane na próby ingerencji z zewnątrz, w tym z Rosji.

Jak Niemcy i Polska planują zadbać o bezpieczeństwo wyborów? W Niemczech w ochronę wyborów jest zaangażowanych kilka różnych instytucji. Federalny Urząd Ochrony Konstytucji, pełniący funkcję cywilnego kontrwywiadu, powołał w tym celu specjalną grupę zadaniową na czas wyborów[4]. W ramach resortu spraw wewnętrznych funkcjonuje również Centralne Biuro ds. Wykrywania Zagranicznej Manipulacji Informacją (ZEAM), którego zadaniem jest wczesne wykrywanie i reagowanie na kampanie dezinformacyjne inspirowane z zagranicy. 31 stycznia niemiecka Federalna Agencja Sieci przeprowadziła przedwyborczy test odporności we współpracy z wielkimi platformami cyfrowymi. Obecni byli przedstawiciele firm Google, LinkedIn, Microsoft, Meta, Snapchat, TikTok oraz X, a także instytucji państwowych i organizacji pozarządowych[5]. Celem tej symulacji było sprawdzenie gotowości i koordynacji wyżej wymienionych podmiotów w obliczu nasilonej dezinformacji. Według przedstawicieli Agencji test wykazał sprawność systemu ochrony[6].

Polski rząd zainicjował program „Parasol Wyborczy” w celu zabezpieczenia majowych wyborów prezydenckich. W odpowiedzi na zagrożenia, jakie wystąpiły w Rumunii, zadeklarowano m.in. stałą analizę platform pod kątem nielegalnych treści, monitoring ruchu reklamowego oraz wykrywanie sieci kont prowadzących dezinformację. Według przedstawicieli Ministerstwa Cyfryzacji oraz Państwowego Instytutu Badawczego NASK, serwisy społecznościowe zadeklarowały, że priorytetowo potraktują wszelkie zgłoszenia incydentów w okresie okołowyborczym[7]. Istotnym elementem strategii ma być zwiększanie społecznej świadomości zagrożenia oraz zachęcenie obywateli do zgłaszania nielegalnych treści przez desygnowany portal rządowy. Zarówno w przypadku Niemiec, jak i Polski nie pojawiły się rozwiązania jakościowo inne od dotychczas stosowanych, jednak widoczne jest zaangażowanie większych środków, a także większy nacisk na współpracę z serwisami społecznościowymi.

DSA – narzędzie prawne w rękach Komisji Europejskiej. Niedostateczna kontrola platform nad potencjalnie szkodliwym charakterem treści publikowanych przez użytkowników oraz wynikające z tego ryzyko stały się w ostatnich latach przedmiotem regulacji UE. Na mocy Digital Services Act (DSA), który wszedł w życie w lutym 2024 r., wielkie platformy cyfrowe są zobowiązane same zaproponować rozwiązania, które pozwolą zmniejszyć systemowe ryzyko wynikające z ich sposobu funkcjonowania. Muszą zadbać o bezpieczeństwo użytkowników, walczyć z nielegalnymi treściami, ale jednocześnie chronić wolność słowa. Metodą rozliczenia z tych działań są coroczne raporty składane Komisji Europejskiej. Główna idea tego aktu prawnego polega na skłonieniu wielkich platform do większej transparentności: do dzielenia się informacją na temat działania algorytmów, moderacji treści oraz sposobu egzekwowania swoich regulaminów.

W związku z wydarzeniami w Rumunii Komisja Europejska wszczęła postępowanie przeciwko TikTokowi z uwagi na podejrzewane naruszenie DSA, a konkretnie brak rozwiązań, które zmniejszyłyby ryzyko wykorzystania platformy do przeprowadzenia nielegalnej kampanii. Tego samego dnia, również powołując się na DSA, Komisja skierowała do serwisu X nakaz przekazania wewnętrznej dokumentacji dotyczącej wszelkich zmian w algorytmie, od którego zależy to, jakie treści wyświetlają się użytkownikom portalu[8]. Wiele wskazuje na to, że decyzja ta związana jest z aktywnym zaangażowaniem właściciela portalu, amerykańskiego miliardera Elona Muska, w kampanię wyborczą w Niemczech po stronie partii AfD. Już wcześniej pojawiły się badania sugerujące możliwość wykorzystywania przez Muska algorytmu serwisu, aby sztucznie zwiększać zasięg własnych treści, w tym także o charakterze politycznym[9].

Pociągnięcie wielkich platform społecznościowych do odpowiedzialności to proces trudny i czasochłonny. Sytuację komplikuje fakt, że wraz z początkiem funkcjonowania w USA administracji Donalda Trumpa największe media społecznościowe deklarują odchodzenie od moderacji treści i coraz głośniej występują przeciwko próbom regulowania swojej działalności. Ponadto, gdyby ingerencja wyborcza miała miejsce na którymś z portali amerykańskich, to ewentualne postępowanie KE przeciwko takiej firmie mogłoby grozić odwetem ze strony USA, dla których wielkie firmy technologiczne mają strategiczne znaczenie. We wrześniu 2024 r. obecny wiceprezydent USA, James David Vance, wypowiedział się o unijnych regulacjach portali takich jak X w tonie sugerującym, że USA mogą w odpowiedzi wycofać swoje gwarancje bezpieczeństwa w ramach NATO[10].

Podsumowanie. Rozwiązania takie jak unieważnienie wyborów mogą podważyć zaufanie społeczeństwa do instytucji demokratycznych i dla wielu staną się potwierdzeniem rosyjskiej narracji o hipokryzji i skorumpowaniu zachodnich elit. Dlatego neutralizowanie prób ingerencji, zanim doprowadzą one do zamierzonych przez siebie skutków, jest sprawą kluczową dla europejskich demokracji. Obowiązek jawnego finansowania kampanii, ograniczenia w wydatkach na kampanię, cisza wyborcza – te zasady stają się fikcją, jeśli państwo i jego instytucje nie prowadzą skutecznego nadzoru nad mediami społecznościowymi w kraju. Wielkie platformy cyfrowe, z racji swojego globalnego charakteru i ograniczonej liczby moderatorów, nie mają obecnie ani adekwatnych środków, ani – co kluczowe – woli, żeby wziąć na siebie ten obowiązek. Z drugiej strony globalny charakter i wpływy polityczne tych firm wymagają od państw Unii Europejskiej skoordynowanych działań, aby regulacje mogły być skuteczne.


[1] K. Całus, Rumunia: Sąd Konstytucyjny unieważnia wybory prezydenckie, osw.waw.pl, 09.12.2024, https://www.osw.waw.pl/pl/publikacje/analizy/2024-12-09/rumunia-sad-konstytucyjny-uniewaznia-wybory-prezydenckie (07.02.2025).

[2] V. Pop, P. Ivanova, M. Dunai, How Russia-backed influencers meddled in Romania’s vote, ft.com, 09.12.2024, https://www.ft.com/content/4b00e7ec-2c79-4313-b012-4f09f436f3ed (07.02.2025).

[3] H. Coster, Fewer people trust traditional media, more turn to TikTok for news, report says, Reuters, 14.06.2023, https://www.reuters.com/business/media-telecom/fewer-people-trust-traditional-media-more-turn-tiktok-news-report-says-2023-06-13/ (07.02.2025).

[4] Bundesministerium des Innern und für Heimat, Schutz der Bundestagswahl 2025 vor hybriden Bedrohungen und Desinformation, bmi.bund.de, https://www.bmi.bund.de/SharedDocs/schwerpunkte/EN/disinformation-election/disinformation-election-artikel.html#doc21255518bodyText3 (07.02.2025).

[5] Bundesnetzagentur, Bundesnetzagentur tests procedures and action for infringements of the Digital Services Act, bundesnetzagentur.de (31.01.2025), https://www.bundesnetzagentur.de/SharedDocs/Pressemitteilungen/EN/2025/20250131_DSC.html?nn=694186 (07.02.2025).

[6] Tamże.

[7] N. Bochyńska, Wyborcze prognozy. Co nas czeka?, CyberDefence24.pl, 07.02.2025, https://cyberdefence24.pl/cyberbezpieczenstwo/wyborcze-prognozy-co-nas-czeka (07.02.2025).

[8] Commission addresses additional investigatory measures to X in the ongoing proceedings under the Digital Services Act, European Commission Press Release, 17.01.2025, https://digital-strategy.ec.europa.eu/en/news/commission-addresses-additional-investigatory-measures-x-ongoing-proceedings-under-digital-services (07.02.2025).

[9] T. Graham, M. Andrejevic, A computational analysis of potential algorithmic bias on platform X during the 2024 US election, [Working Paper] (Unpublished), 2024, https://eprints.qut.edu.au/253211/ (07.02.2025).

[10] A. Applebaum, Europe’s Elon Musk Problem, theatlantic.com, 27.01.2025, https://www.theatlantic.com/magazine/archive/2025/03/musk-tech-oligarch-european-election-influence/681453/?gift=hVZeG3M9DnxL4CekrWGK34_jHWNsAU1mvPsKLSJcYGQ (07.02.2025).

[Zdjęcie ilustracyjne / pixabay.com]

Udostępnij