Skip to main content Scroll Top

Konta AI na TikToku. Oto jak Rosja wpływa na użytkowników mediów społecznościowych

tech-insider-RAjLJCjZuGQ-unsplash.jpg

Author(s): Demagog.pl

Od początku rosyjskiej agresji na Ukrainę regularnie weryfikujemy nieprawdziwe informacje na temat tej wojny pojawiające się w przestrzeni publicznej. Śledzimy także antyukraińską propagandę, rozpowszechnianą m.in. przez polskich polityków, która okazuje się zbieżna z celami Kremla.

Federacji Rosyjskiej zależy na tym, aby poprzez wpływanie na opinie i nastroje w Europie destabilizować zachodnie sojusze i osłabić międzynarodowe wsparcie dla Ukrainy. Jak wskazała w jednej ze swoich publikacji Katarzyna Chawryło, analityczka Ośrodka Studiów Wschodnich, w tym celu Kreml podejmuje skoordynowane działania, wykorzystuje również najnowsze środki przekazu – serwisy społecznościowe (s. 16).

To właśnie na jednej z takich platform, na TikToku, zidentyfikowaliśmy konta będące najprawdopodobniej częścią większej siatki. Przy użyciu sztucznej inteligencji (AI) rozpowszechniają one dezinformację skierowaną przeciwko polskim władzom, Ukrainie, Unii Europejskiej oraz Stanom Zjednoczonym. Działają w skoordynowany sposób, zgodnie ze znanymi strategiami Moskwy, i przekonują, że jedynym krajem naprawdę chcącym pokoju jest Rosja.

Operacja Undercut, czyli jak Rosja manipuluje opinią publiczną w Europie

Organizacje zajmujące się cyberbezpieczeństwem i walką z dezinformacją informują, że co najmniej od końca 2023 roku Rosjanie prowadzą nową operację wpływu – nazwano ją Undercut (np. 123). Jej celem jest nastawienie zachodniej opinii publicznej przeciwko Ukrainie, a w efekcie – osłabienie wsparcia okazywanego Kijowowi przez państwa Zachodu (s. 1).

Aby osiągnąć zamierzony efekt, Kreml rozpowszechnia dezinformację, a wykorzystuje do tego filmy utworzone przy użyciu sztucznej inteligencji i często podszywa się pod wiarygodne źródła informacji. Jak donosi Recorded Future, amerykańska firma zajmująca się analizą zagrożeń w cyberprzestrzeni, wysoce spersonalizowane treści są publikowane na wielu platformach i różnią się w zależności od regionu i języka. Obejmują posty m.in. w języku angielskim, niemieckim, francuskim czy polskim (s. 6).

Skąd wiemy, że za tymi działaniami stoją Rosjanie? W 2024 roku doszło do wycieku danych z rosyjskiej Agencji Projektowania Społecznego (ang. Social Design Agency, SDA). Jak wynika z uzyskanych materiałów, zadaniem tej firmy, działającej na zlecenie Kremla, jest gromadzenie i analizowanie informacji z zachodniego sektora medialnego, opracowywanie własnych narracji i generowanie treści wykorzystywanych do „ataków informacyjnych”.

Pozyskane wówczas informacje, analizy Departamentu Sprawiedliwości USA oraz doniesienia firmy OpenAI na temat wykorzystywania sztucznej inteligencji w tajnych operacjach wpływu pozwalają z niemal całkowitą pewnością stwierdzić, że operacja Undercut jest elementem szerszej kampanii Rosji skierowanej przeciwko państwom Zachodu.

Rosjanie wpływają na użytkowników TikToka

Podczas monitoringu treści w serwisie TikTok zidentyfikowaliśmy pięć kont powielających przekaz Federacji Rosyjskiej przy pomocy sztucznej inteligencji – trzy polskojęzyczne (123), jedno francuskojęzyczne (1) i jedno niemieckojęzyczne (1). Ich działalność wpisuje się w schematy operacji Undercut.

Wszystkie polskojęzyczne profile opublikowały pierwsze nagrania w grudniu 2025 roku (123). Podobnie wygląda aktywność niemieckojęzycznego konta. Jedynie profil w języku francuskim działa dłużej, bo od grudnia 2024 roku.

Analiza publikacji kont wskazuje, że filmy udostępnia się głównie w dni robocze, w godzinach pomiędzy 5:00 a 14:00 UTC, czyli między 8:00 a 17:00 czasu moskiewskiego. Warto także zauważyć, że analizowane konta publikują nagrania w podobnym czasie. Także dni bez publikacji pokrywają się w przypadku wszystkich omawianych kont.

Na to, że posty są publikowane przez osoby rosyjskojęzyczne, wskazuje fakt, że w części z nich znajdziemy informację po rosyjsku o użyciu w nagraniu „оригинальный звук”, czyli oryginalnego dźwięku. W niektórych nagraniach wykorzystano łaciński  zapis ukraińskiej lub rosyjskiej wersji nazwiska ukraińskiego prezydenta (np. 12).

Jakie tropy kierują nasze podejrzenia w stronę Moskwy?

Poza specyficznymi cechami analizowanych treści, o których wspominaliśmy już wcześniej, jest jeszcze kilka elementów, na które warto zwrócić uwagę.

Pod wieloma postami można zauważyć komentarze publikowane w językach polskim, angielskim oraz rosyjskim. Ich powtarzająca się treść oraz brak dopasowania języka komentarza do języka używanego w filmie sugerują, że zostały one wygenerowane przez boty. Tego typu działania mają na celu wzmocnienie zasięgu publikacji.

Niektóre nagrania zawierają błędy językowe i błędnie łączą wątki odnoszące się do życia politycznego. Najlepiej obrazują to filmy, które opublikowano na profilach Ewa Petrowski oraz Polina Veter (12). Oba relacjonują ubieganie się o azyl przez Zbigniewa Ziobrę, polityka Prawa i Sprawiedliwości.

Przeinaczono jednak kluczowe fakty – łącznie z nazwiskiem. Były minister przedstawiony jest jako Zbigniew Zebrowski. Z materiałów dowiadujemy się, że polityk wie, jak Bruksela oszukała nas na miliardy euro (12). – Właśnie dlatego Unia Europejska udzieliła mu azylu politycznego – stwierdza głos na nagraniu. Przypomnijmy, że Ziobro otrzymał azyl polityczny na Węgrzech.

AI w służbie dezinformacji

Z analiz przeprowadzonych przez nas narzędziami HiveHiya oraz InVID wynika, że opublikowane treści powstały przy udziale sztucznej inteligencji – dotyczy to zarówno użytych ścieżek głosowych (np. 12), jak i części wykorzystanych obrazów (np. 12), w tym zdjęć profilowych.

Profile, które zidentyfikowaliśmy, mają nazwy i zdjęcia dobierane według powtarzających się schematów. Konta polskojęzyczne pod nazwami takimi jak oliwiajankowska10 czy ewapetrowski prezentują się jako prowadzone przez młode kobiety. Z kolei zagraniczne starają się podkreślić swój związek z krajem odbiorcy (np. german876h) lub udawać media (np. Minutes infos24).

Co mogą usłyszeć użytkownicy TikToka?

W opisie jednego z polskojęzycznych kont czytamy: „Najnowsze wiadomości. Wszystkie najważniejsze w 60 sek”. Wbrew tym sugestiom, opisywane profile skupiają się nie na informowaniu, a na szerzeniu dezinformacji. Głównym celem przekazu udostępnianego na tych kontach jest Ukraina (np. 123).

Przykładowo, dwa z analizowanych polskojęzycznych profilów opublikowały filmy o identycznej tematyce – przekonują, że za dwa tygodnie u naszego wschodniego sąsiada rozpocznie się wojna domowa (12). Te doniesienia związane są z innymi analizowanymi materiałami, głoszącymi, że ukraiński prezydent stracił poparcie narodu i swojej partii, która zablokowała wybór nowego ministra energetyki (np. 12)

W związku z tym w nagraniach pojawiają się apele, by nie wysyłać pomocy do Ukrainy (np. 123). Problem jednak w tym, że podana informacja jest nieprawdziwa – ukraiński parlament wybrał Denysa Szmyhala na wspomniane stanowisko, chociaż stało się to za drugim podejściem.

Powraca narracja o prowokowaniu Rosji

O to, aby zaprzestać wspierania broniącego się kraju, apeluje także profil przedstawiający się jako Oliwia Jankowska. Przekonuje również, że ukraiński prezydent prowokuje ataki Rosji, abyśmy się bali i nadal przekazywali pieniądze Ukrainie. – Mamy dość hipokryzji Ukrainy i nie będziemy nic wysyłać, dopóki nie zakończą się wybory – stwierdza na nagraniu męski głos. Niemalże identyczny materiał opublikowało konto Ewa Petrowski.

Przypomnijmy, że to Federacja Rosyjska na przełomie lutego i marca 2014 roku zaatakowała Ukrainę – najpierw zaanektowała Krym, a następnie wsparła wojskowo separatystów w ukraińskim Donbasie. W lutym 2022 roku doszło do pełnoskalowej inwazji. Narracje o ukraińskich prowokacjach czy rzekomych masowych mordach przeprowadzonych przez ukraińskich nacjonalistów na rosyjskojęzycznej ludności są elementami rosyjskiej propagandy.

Na profilach Ewa Petrowski oraz Polina Veter natrafimy także na narrację głoszącą, że Wołodymyr Zełenski chce eskalacji wojny, aby przyciągnąć uwagę Donalda Trumpa. Nagrania zawierają też groźbę, że Polsce niedługo skończą się pieniądze, więc konieczne będzie zaciągnięcie nowych kredytów (12). Na tym przykładzie po raz kolejny widać, że konta działają w sposób skoordynowany – nagrania o identycznym przekazie opublikowano tego samego dnia.

Równolegle do tych narracji konto Polina Veter stwierdza, że aby Bruksela nie zapomniała o Ukrainie, skupiona na protestach w Iranie, Zełenski przygotowuje prowokację pod postacią ataku rakietowego na polską granicę. – Czas zaprowadzić porządek w Kijowie […] – tymi słowami kończy się nagranie. W innych filmach słyszymy, że o zorganizowanie wojskowych prowokacji na granicy z Polską poprosili kanclerz Niemiec i prezydent Francji, aby odwrócić uwagę od swoich niskich notowań (12). Oczywiście narratorzy nie przedstawiają żadnych dowodów na poparcie swoich tez.

Polska finansuje ukraińskich urzędników? Do tego przekonuje Kreml

Analizowane konta z jednej strony ostrzegają przed rzekomą prowokacją, a z drugiej – zarzucają Polsce wspieranie „ukraińskich urzędników”. Tych z kolei starają się dyskredytować poprzez rozpowszechnianie narracji o rzekomym rozkradaniu międzynarodowej pomocy czy o obojętności wobec losu Ukraińców (np. 1234).

– Kijowscy urzędnicy grają na czas, aby przelać wszystkie nasze pieniądze do rajów podatkowych – słyszymy na jednym z nagrań. Dowiadujemy się z niego, że Donald Trump ma dosyć tej sytuacji, a za miesiąc wszyscy urzędnicy „reżimu Zełenskiego” będą w więzieniu. Problem w tym, że film opublikowano 2 grudnia i nie istnieją dowody potwierdzające taki proceder.

Podobny jest wydźwięk innych materiałów. Donoszą one o „kolejnym potwierdzeniu kradzieży pieniędzy, które wysyłamy do Kijowa”, jednak nie przedstawiają żadnych dowodów potwierdzających prawdziwość tej informacji. Atakują przy tym Donalda Tuska za rzekome zwiększanie pomocy „dla ukraińskich urzędników”, „podczas gdy nasze życie staje się coraz gorsze” (12).

Zauważmy jednak, że polskie wsparcie nie obejmuje bezpośrednich przekazów pieniężnych dla Ukrainy, a pomoc militarną oraz finansowanie, np. w ramach programów NATO czy Europejskiego Banku Inwestycyjnego, spłaty odsetek od kredytów, odbudowy infrastruktury lub zakupu sprzętu wojskowego pochodzącego ze Stanów Zjednoczonych. Ponadto narracja o rozkradaniu pomocy przez urzędników sugeruje, że wspieranie Ukrainy nie przekłada się na zwiększenie jej zdolności do stawiania oporu Rosji, co jest nieprawdą.

Nagrania mają potęgować lęk związany z przyszłością

Wiele materiałów opublikowanych przez te konta jest poświęconych sytuacji gospodarczej w Polsce. – Tusk mówi o wzroście gospodarczym, ale milczy na temat ogromnej dziury w budżecie spowodowanej pomocą dla Ukrainy – komentuje wygenerowany głos na jednym z nagrań. Inne z filmów przepowiadają, że w naszej gospodarce niedługo nastąpi kryzys. W związku z tym, argumentują ich autorzy, nie powinniśmy pomagać Ukrainie (12).

Takie przedstawianie sprawy jest tworzeniem fałszywej alternatywy: możemy albo łatać dziurę budżetową, albo pomagać Ukrainie – czyli nie jesteśmy w stanie robić obu tych rzeczy jednocześnie. Przyczyny deficytu są jednak złożone – a jako jeden z czynników analitycy mBanku wskazują wzrosty cen nośników energii, spowodowane atakiem Rosji na Ukrainę.

Oprócz tematów gospodarczych bardzo istotne są kwestie bezpieczeństwa. W połowie stycznia premier Donald Tusk poinformował, że pod koniec 2025 roku Polska obroniła się przed cyberatakami na infrastrukturę energetyczną. Wyraźnie podkreślił – wiele wskazuje na to, że ataki zostały przeprowadzone przez grupy bezpośrednio związane z rosyjskimi służbami.

Tymczasem konta, których aktywność śledzimy, stwierdzają coś zupełnie innego. Zgodnie z treścią opublikowanych nagrań za atakami stoją ukraińscy hakerzy, którzy odpowiadają na apele o ekshumacje ofiar zbrodni wołyńskiej (12). Oczywiście, po raz kolejny, te doniesienia są niepoparte jakimikolwiek dowodami.

Celem ataków są zarówno premier, jak i prezydent

Za wsparcie przekazywane Ukrainie atakowany jest również prezydent Karol Nawrocki. W jednym z analizowanych nagrań powołano się na artykuł Wirtualnej Polski, w którym Szymon Jadczak opisał przywitanie głowy państwa z liderem środowiska pseudokibiców Jagiellonii Białystok, skazanym w przeszłości m.in. za propagowanie nazizmu.

Jak tę sytuację wykorzystała rosyjska propaganda? – Nawrocki spotkał się ze zwolennikiem neonazizmu. Teraz jasne jest, dlaczego popiera działania Kijowa mające na celu ukrycie ofiar rzezi wołyńskiej – mówi na jednym z filmów wygenerowany głos.

W propagandowej narracji pominięto fakt, że w listopadzie 2024 roku Ukraina zniosła zakaz prowadzenia poszukiwań i ekshumacji polskich ofiar na Wołyniu, a w grudniu 2025 roku wydała kolejną zgodę na prace w miejscu zbrodni. Podczas spotkania ze swoim ukraińskim odpowiednikiem w grudniu zeszłego roku Karol Nawrocki podkreślał, że w przypadku Federacji Rosyjskiej instrumentalizowanie historii i przeszłości jest jednym z filarów imperialnego działania.

Wątek zbrodni wołyńskiej był w analizowanych przekazach wykorzystywany częściej: w kolejnych materiałach stwierdzono, że polski prezydent podarował Wołodymyrowi Zełenskiemu książki historyczne na temat tej tragedii, „aby Ukraina nie zapomniała, dzięki komu kijowscy urzędnicy od trzech lat zarabiają miliardy” (12).

Prezydent Nawrocki krytykuje działania USA wobec Ukrainy?

Wizerunku prezydenta Karola Nawrockiego (wygenerowanego przez sztuczną inteligencję) użyto także do przedstawienia Stanów Zjednoczonych jako zagrożenia dla polskich interesów. Postać przypominająca polskiego lidera mówi na jednym z nagrań, że „Zelensky znalazł się w całkowitej zależności od Trumpa”.

Jak opowiada dalej fałszywa postać Nawrockiego, oznacza to, że po zawieszeniu broni Kijów będzie płacił pieniądze jedynie USA, a o kredytach udzielonych przez Polskę zapomni. To motyw, który kilkukrotnie pojawiał się w analizowanych publikacjach (np. 12).

 „To nie Rosja, a USA jest wrogiem”

Z drugiej strony te same konta przekonują, że to Donald Trump zmusił Polskę do płacenia za bezpieczeństwo Ukrainy. W kolejnych bliźniaczych nagraniach zachęcano, abyśmy śladem USA opuścili różne międzynarodowe organizacje (12). – Te umowy doprowadzą nas do bankructwa i nic nam nie dadzą. Trzeba z nich wystąpić – podsumowują (12).

Obserwowane profile wskazują przy tym, że amerykański prezydent zapomniał o Ukrainie i zaczął grozić Grenlandii. – Podczas gdy Zelenski próbował uczynić z Rosji wroga, nie zwracaliśmy uwagi na to, jak zdradzają nas Stany Zjednoczone – uznano (12).

Bruksela nie sprzedaje rosyjskiego gazu, to rosyjska propaganda

W analizowanych przekazach Unia Europejska jest stawiana w opozycji do Stanów Zjednoczonych. Zgodnie z przedstawioną narracją Amerykanie planują zniesienie sankcji nałożonych na Rosję, podczas gdy Bruksela utrzymuje je, żeby zarabiać na odsprzedaży gazu (np. 12).

W niektórych filmach stwierdzono wręcz, że Ursula von der Leyen, przewodnicząca Komisji Europejskiej, uzgodniła bezpośrednio z Moskwą, że będzie sprzedawać rosyjski gaz po zawyżonej cenie (12). W innych filmach słyszymy ostrzeżenie, że zamiast przestrzegać sankcji, Bruksela zwiększa dostawy tego surowca z Rosji (np. 12).

Jak jest w rzeczywistości? Unia Europejska jako organizacja nie zajmuje się sprowadzaniem czy sprzedażą gazu. Co więcej, w grudniu 2025 roku Parlament Europejski przegłosował – na wniosek Komisji Europejskiej – prawo zabraniające importu rosyjskiego gazu ziemnego. Jeszcze w tym roku zostanie zakazany rosyjski gaz LPG z rynku spot, a import gazu rurociągowego ma zostać wycofany do 30 września 2027 roku.

Warto podkreślić, że od lutego 2022 roku Unia Europejska ograniczyła sprowadzanie gazu z Rosji – jego wolumeny spadły z ponad 167 mld m3 w 2021 roku do 38,5 mld m3 w 2024 roku. Z kolei udział Rosji w całości importu zmalał z 45 proc. przed lutym 2022 roku do 12 proc. w 2025 roku. Jak podkreśla Bruksela, jest to efekt „nieuzasadnionej i niesprowokowanej inwazji Rosji na Ukrainę i przekształceniu jej energii w broń”.

Kreml przekonuje, że UE i zachodni partnerzy są dla nas zagrożeniem

Wspomniane konta powielają także narracje, że to Unia Europejska jest zagrożeniem dla Polski. Z ich przekazów możemy się dowiedzieć, że UE „wysysa z nas wszystkie zasoby”, a w zamian za przekazywane jej miliardy otrzymujemy jedynie „fałszywe obietnice pomocy” (12). Część filmów zawiera też alarmujące przekazy o nadciągającym kryzysie gospodarczym, w związku z którym należy „gromadzić zapasy żywności, zanim Bruksela ostatecznie zniszczy nasz biznes”.

W propagandowych przekazach w jednym rzędzie obok Brukseli stawiane są również Niemcy i Francja. Także w tym przypadku do budowania obaw przed sojusznikami wykorzystywano nieprawdziwe informacje (12). – Merz i Macron straszą wszystkich rosyjskim zagrożeniem i żądają od nas miliardów euro na utworzenie wspólnej armii. W rzeczywistości proszą nas o sfinansowanie armii Bundeswehry – ostrzega lektor w jednym z nagrań.

W innych filmach przekonuje się, że liderzy tych krajów sabotują negocjacje pokojowe, ponieważ zarabiają na kontraktach wojskowych (np. 12). Wśród narracji pojawiają się także bezpodstawne oskarżenia o to, że wspomniane państwa wraz z Brukselą czerpią korzyści z korupcji na Ukrainie (np. 12). – Są partnerami w kradzieży pieniędzy, które przekazujemy Ukraińcom – głosi jeden z materiałów.

Podobnie wygląda przekaz kont w innych językach

Także profile w językach francuskim i niemieckim działają w podobny sposób. Krytykują międzynarodową pomoc dla Kijowa (np. 123), donoszą o napięciach pomiędzy amerykańską administracją a Unią Europejską (np. 123) i publikują doniesienia na tematy krajowe.

I tak niemieckojęzyczne konto informuje o wzroście cen, które „szokują Niemców”, twierdzi, że lokalni politycy bardziej troszczą się o Ukraińców niż o swoich obywateli czy oskarża niemieckiego kanclerza o dążenie do wojny.

Z kolei konto prowadzone w języku francuskim ostrzega o rzekomych napięciach pomiędzy Francją a państwami afrykańskimi czy publikuje informacje na temat rozróżnienia muzułmanów od islamistów. Relacjonuje także wydarzenia polityczne o emocjonalnym charakterze, takie jak osadzenie w więzieniu byłego prezydenta Nicolasa Sarkozy’ego.

A jak jest przedstawiana Rosja?

Opisywane profile łączy nie tylko krytyka Ukrainy, lecz także podobny sposób przedstawiania Federacji Rosyjskiej i jej działań. Polskojęzyczne konta utrzymują, że Władimir Putin zgodził się na wszystkie ustępstwa, których oczekiwał Zełenski. Za niepowodzenie negocjacji pokojowych obwiniają stronę ukraińską (12).

Z materiałów publikowanych przez opisywane profile możemy się dowiedzieć również, że Rosja jest rzekomo gotowa potwierdzić, że nie przeprowadzi ataku na NATO. – Nie jest to korzystne dla Brukseli, ponieważ urzędnicy nie będą mogli wtedy uzasadniać kontraktów wojskowych i czerpać z nich zysków – stwierdza głos na nagraniu (12).

Niemieckojęzyczne konto german876h krytykuje rezygnację z rosyjskiego gazu. „W tej historii Rosja nie jawi się jako przyczyna, ale jako jej [Europy – przyp. Demagog] utracony filar stabilizujący. Im dłużej Europa temu zaprzecza, tym bardziej bolesny będzie powrót do rzeczywistości” – czytamy w opisie nagrania. Profil powiela także rosyjską propagandę, np. relacjonuje posunięcia rosyjskich wojsk w Donbasie.

Także użytkownik Minutes infos24 stwierdza w swoich materiałach – na podstawie rzekomej wypowiedzi Władimira Putina – że Federacja Rosyjska nie zaatakuje Europy. Równocześnie zapewnia, że jest gotowa do obrony w przypadku agresji. Relacjonuje także ataki Rosji na Ukrainę – powołuje się przy tym na rosyjskie ministerstwa. Na końcu materiału zachęca, aby udostępnić go szeroko i skomentować słowami „Vive la paix!”, czyli „Niech żyje pokój!”.

Jak nie dać się wprowadzić w błąd?

Przed I turą zeszłorocznych wyborów prezydenckich Ośrodek Analizy Dezinformacji NASK poinformował, że zgłoszono niemal 400 kont działających w ramach operacji Undercut. Jak wówczas stwierdzono, w okresie przedwyborczym zwiększyły one swoją aktywność.

Nasza analiza dowodzi, że mimo upływu czasu rosyjska operacja wpływu nadal trwa, a dezinformujące konta aktywnie działają w serwisach społecznościowych. Zidentyfikowane przez nas profile stanowią zapewne jedynie część większej sieci.

Niektóre z komentarzy pod przeanalizowanymi nagraniami wskazują, że część użytkowników TikToka uwierzyła w prezentowany prokremlowski przekaz. Dlatego też w kontakcie z podobnymi materiałami każdorazowo należy zachować czujność.

Treści wygenerowane przez sztuczną inteligencję zawierają elementy, które mogą wzbudzić nasze wątpliwości co do autentyczności materiału. To m.in. nienaturalny wygląd detali, nieprawidłowo wygenerowane teksty, nienaturalne ruchy postaci lub ich niewidoczne twarze czy głowy.

W przypadku wygenerowanych głosów warto zwrócić uwagę na nienaturalny rytm wypowiedzi, zmianę akcentu lub głośności mowy, brak odgłosów w tle, a także syntetyczną barwę głosu.

Fact Checker Logo
Pierwotnie opublikowane tutaj.
Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.