🚧 This site is currently under reconstruction and may experience technical issues. Thank you for your patience.
Scroll Top

Sztuczna inteligencja – jaką rolę odegrała w tej kampanii?

solen-feyissa-hWSNT_Pp4x4-unsplash.jpg

Author(s): Demagog.pl

Sztuczna inteligencja stała się narzędziem codziennego użytku dla wielu z nas. Nie jest żadnym zaskoczeniem, że w trakcie kampanii wyborczej używają jej w różnych celach także politycy i ich sympatycy. Podsumowujemy więc, jak wyglądało jej wykorzystanie w ostatnich tygodniach.

I tura wyborów prezydenckich miała miejsce 18 maja tego roku. Drugie głosowanie odbędzie się już 1 czerwca. Tymczasem minione miesiące kampanii wyborczej sprzyjały szerzeniu dezinformacji, która przybierała różne formy (np. 1, 2). 

Wśród nich można wyróżnić manipulację obrazem, m.in. poprzez jego fotomontaż czy zmianę kontekstu publikacji (np. 1, 2). W tym celu coraz częściej wykorzystuje się także sztuczną inteligencję (np. 1, 2). Podsumowujemy, jak posługiwano się nią w trakcie ostatnich tygodni.

Poparcie wyborców. Czy ci ludzie istnieją?

Często przed wyborami kandydaci na urząd prezydenta publikują w mediach społecznościowych zdjęcia swoich sympatyków (np. 1, 2, 3). Jednak Karola Nawrockiego, kandydata popieranego przez Prawo i Sprawiedliwość (PiS), wsparły w tej kampanii także postaci wygenerowane przez sztuczną inteligencję (SI). 

W marcu dwoje posłów PiS opublikowało grafikę (1, 2) przedstawiającą grupę kobiet z transparentem „Nawrocki 2025”. Zarówno Agnieszka Soin, jak i Jan Warzecha nie poinformowali jednak, gdzie to zdjęcie zostało wykonane. 

Skąd wiadomo, że zdjęcie zostało wygenerowane?

Chociaż zdjęcie jest nie najlepszej jakości, to można na nim zauważyć szczegóły, które wskazują na to, że zostało ono wygenerowane przez sztuczną inteligencję. Część parasolek nie posiada rączek i wygląda tak, jakby lewitowała. Dłonie kobiet są albo ukryte, albo przybierają nienaturalne kształty

Co więcej, zdjęcie udostępnione przez polityków przedstawia słoneczny dzień, a kobiety ubrane są w letnie sukienki, pomimo że grafikę opublikowano w marcu. Przypomnijmy, że Karol Nawrocki ogłosił swój start w listopadzie 2024 roku.

Narzędzia do weryfikowania, czy zdjęcie zostało wygenerowane przez SI, wskazują wysokie prawdopodobieństwo, że fotografia jest fałszywa. Z analizy Sightengine wynika, że powstała ona przy wykorzystaniu programu MidJourney.

Młodzi za Nawrockim. Czy aby na pewno?

Sztab kandydata Prawa i Sprawiedliwości zachęca jego sympatyków do wyrażania w internecie poparcia dla Nawrockiego za pomocą specjalnych nakładek na zdjęcia profilowe w mediach społecznościowych.

Dla młodych osób została przygotowana specjalna wersja nakładki z napisem „Młodzi za Nawrockim”. Także w tym przypadku w internecie zaczęły pojawiać się zdjęcia przedstawiające wizerunki młodych ludzi wygenerowanych przy użyciu sztucznej inteligencji, na które nałożono wspomniane nakładki (np. 1, 2, 3, 4).

Również tym razem na fakt, że grafiki zostały wytworzone przy użyciu SI, wskazują wyniki testów przeprowadzonych za pomocą narzędzia Sightengine. Po raz kolejny przy ocenie tego, czy zdjęcia są prawdziwe, pomocne jest przyjrzenie się szczegółom. Przykładowo: na jednym ze zdjęć są widoczne nietypowe gniazdka elektryczne, na innym przedstawiono napis składający się z przypadkowych liter. 

Polityczka Lewicy popiera Nawrockiego?

Tymczasem na TikToku do głosowania na Karola Nawrockiego zachęcały postacie łudząco przypominające polskich polityków – m.in. szefową klubu Lewicy Annę Marię Żukowską czy prezesa PiS Jarosława Kaczyńskiego. Filmy z ich udziałem udostępniono na profilach „Partia PiS Przeciwko Po” oraz „Tylko Karol Nawrocki”, które następnie zniknęły z platformy.

Nagrania powstały przy użyciu oprogramowania Humva, narzędzia tworzącego awatary przy wykorzystaniu SI. Szczegóły widoczne na opublikowanych filmach pozwalają na rozpoznanie, że materiały te zostały wygenerowane. Głosy postaci są do siebie podobne, ruchy ich ust nie zawsze odpowiadają wypowiadanym słowom, a rysy twarzy są wygładzone.

Wiele lat minęło jak jeden dzień

Opisywane wcześniej materiały nie były publikowane w oficjalnych kanałach komunikacji Karola Nawrockiego. Brak jest dowodów na to, że zostały one przygotowane przez jego sztab. 

Inaczej sytuacja wygląda w przypadku filmu, który przedstawia „dorastanie” kandydata popieranego przez PiS. 

Nagranie utworzone przy pomocy SI pokazuje kolejne etapy życia Karola Nawrockiego. Widoczny w filmie awatar przemienia się z młodego dziecka w nastolatka, a ostatecznie w dorosłego, który kandyduje na urząd prezydenta RP. Materiał został zapewne wygenerowany na podstawie zdjęć mężczyzny.

Spoty wyborcze z SI w roli głównej

Filmy wyprodukowane z użyciem sztucznej inteligencji (1, 2) pojawiły się również w bloku audycji komitetów wyborczych, które Telewizja Polska zgodnie z prawem musi emitować podczas kampanii (art. 117 par 1).

Jednym z takich filmów jest materiał komitetu wyborczego Macieja Maciaka, kontrowersyjnego i otwarcie proputinowskiego (1, 2) przedstawiciela Ruchu Dobrobytu i Pokoju (RDiP). Jego spot wyborczy został praktycznie w całości wygenerowany przez sztuczną inteligencję

Kilka wizerunków Maciaka

Kandydat RDiP, który przekonuje, że sprzeciwia się wojnie, w swoim spocie obiecywał, że „wyciągnie rękę do naszych sąsiadów”. Problem w tym, że niektóre postacie przedstawione na wygenerowanym nagraniu mają więcej niż dwie ręce

Kolejną nieścisłością, wskazującą na użycie SI do wytworzenia materiału, jest most budowany wzdłuż rzeki oraz wizerunek kandydata. Rysy twarzy Macieja Maciaka różnią się od siebie, w zależności od przedstawionej sceny (1, 2).

Tomasz Chuchała, pełnomocnik komitetu wyborczego Maciaka, potwierdził, że użyto sztuczną inteligencję do przygotowania spotu. „Z powodu ograniczonego budżetu treść została przygotowana przy pomocy AI” – poinformował we wpisie na TikToku. Jednak informacja o tym nie pojawiła się w trakcie emisji spotu w telewizji.

Wyborczy smok Krzysztofa Stanowskiego

Dziennikarz Krzysztof Stanowski nie ukrywał, że mimo zgłoszenia swojej kandydatury do PKW nie ma zamiaru zostać prezydentem. Twórca „Kanału Zero” twierdził, że jego kandydatura ma „uwypuklić wyborczą katastrofę”. 

Próbując osiągnąć ten cel, w kampanii dziennikarza także wykorzystano SI (1, 2, 3). W spocie kandydata, który wyemitowano na antenie TVP, widzimy wygenerowany awatar Krzysztofa Stanowskiego, który na smoku przemierza przestworza

Wiadomo, że kolejny z materiałów wyborczych dziennikarza został przygotowany przez pidak.ai, twórcę wykorzystującego do swoich prac SI. Wersja filmu opublikowana w serwisie YouTube została opatrzona informacją o tym, że nagranie powstało w wyniku syntetycznego generowania. Na próżno jednak szukać takiej wiadomości podczas emisji spotu w telewizji. 

Żarty czy dezinformacja?

W minionych tygodniach w mediach społecznościowych opublikowano również wiele prześmiewczych treści, które wytworzono z wykorzystaniem SI (np. 1, 2, 3). Prezentowały one np. Grzegorza Brauna całującego ukraińską flagę, laleczkę przedstawiającą Rafała Trzaskowskiego czy grafikę nawiązującą do konfliktu Roberta Biedronia z matką.

W podobnym tonie są utrzymane także niektóre z opublikowanych nagrań. Jedno z nich przedstawia Donalda Tuska, który zdejmuje z masztu polską flagę, a w jej miejscu zawiesza niemiecką. 

Na innym filmie widoczny jest wygłaszający przemówienie Szymon Hołownia. Z pomocą SI przedstawiono go jednak jako klauna. W internecie pojawił się także film, w którym marszałek Sejmu przewraca się w pociągu. „Hołownia nie umie nawet korzystać z pociągu” – głosi podpis. Także to nagranie zostało wygenerowane.

Cisza wyborcza w internecie

„Postęp technologiczny, rozwój nowych mediów, w tym portali społecznościowych, powoduje, że obecnie cisza wyborcza staje się fikcją” – wskazała Państwowa Komisja Wyborcza w marcu 2024 roku (s. 24). 

Również w trakcie tegorocznej tzw. ciszy wyborczej mieliśmy do czynienia z działaniami, poprzez które nie bezpośrednio, ale sugestywnie okazywano wsparcie dla kandydatów. Nowością były materiały stworzone z użyciem sztucznej inteligencji. 

Bonjour. Czas wyjść #NaWrotki 

Na dzień przed głosowaniem pojawiły się na portalach społecznościowych pierwsze wpisy zachęcające do wyjścia na wrotki. Jak nietrudno się domyślić, była to forma zachęty do głosowania na Karola Nawrockiego.

„Kto ze mną jedzie jutro 𝙣𝙖 𝙬𝙧𝙤𝙩𝙠𝙞 Nie po to, by kręcić się w kółko, ale by obrać kierunek na wartości, uczciwość i zdrowy rozsądek” – napisała Julia Kloc-Kondracka, radna Sejmiku Województwa Śląskiego. Do wpisu dołączyła zdjęcie, na którym widać ją jadącą na wrotkach. Jak się okazuje, w stworzeniu grafiki pomogła radnej sztuczna inteligencja.

Podobną grafikę, przedstawiającą młodą kobietę na wrotkach, opublikowała posłanka PiS Maria Kurowska. Także to zdjęcie zostało wygenerowane.

Również zwolennicy Rafała Trzaskowskiego udostępniali w dzień wyborów podobne posty. Jedna z użytkowniczek portalu X opublikowała wpis, do którego dołączyła grafikę wygenerowaną przez SI. Widoczna była na niej m.in. kawa z napisem „bonjour” czy batonik Prince Polo.

Z kolei profil Sok z Buraka udostępnił zdjęcie piramidy z czekoladek Rafaello na tle panoramy Warszawy. Także ono powstało przy użyciu SI. Inny z użytkowników opublikował w sobotę generatywną grafikę przedstawiającą bransoletkę z napisem „Trzask”. 

Co łączy te materiały?

Przedstawione treści łączy przede wszystkim to, że choć zostały one wygenerowane przez sztuczną inteligencję, najczęściej nie były w odpowiedni sposób oznaczone.

Ich wykorzystanie służyło przedstawieniu rzekomego poparcia, jakie mieli otrzymywać kandydaci, a także zachęcać do głosowania na nich (np. 1, 2). Pozwalało także na zmniejszenie kosztów produkcji oraz służyło jako ciekawe, odmienne narzędzie promocji kandydatów (np. 1, 2). 

Sztuczna inteligencja wykorzystywana jest także do tworzenia materiałów o charakterze humorystycznym (np. 1, 2). Należy jednak pamiętać, że także treści tego typu mogą wprowadzać w błąd odbiorców, którzy nie są świadomi sposobu ich wytworzenia.

Jak się bronić?

W korzystaniu z mediów społecznościowych bardzo ważne jest podejście z rozwagą do rozpowszechnianych tam informacji. Poprzez udostępnianie niesprawdzonych treści, w tym nagrań, które na pierwszy rzut oka wydają się prawdziwe, możemy nieświadomie przyczynić się do rozpowszechniania dezinformacji.

Sztuczna inteligencja bywa używana celowo do publikowania w sieci treści polaryzujących lub wprowadzających w błąd. Dlatego kluczowe jest wyraźne oznaczanie wygenerowanych przez nią treści. W 2026 roku wejdzie w życie europejski AI Act, który wprowadzi taki obowiązek (art. 50).

Pamiętajmy, że prawdziwość treści takich jak grafiki czy nagrania można zweryfikować samemu. Zachęcamy do odwiedzenia strony internetowej Stowarzyszenia Demagog, gdzie czeka na was więcej sprawdzonych informacji.

Fact Checker Logo
Pierwotnie opublikowane tutaj.
Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.