Skip to main content Scroll Top

„AI je pomocník fact-checkingu, ne jeho náhrada,“ vysvětluje šéf Demagogu Petr Gongala

Rozhovor 1

Jak se mění práce ověřovatelů faktů v době umělé inteligence a kdo v Česku skutečně bojuje s dezinformacemi? Vedoucí platformy Demagog.cz Petr Gongala promluvil v rozsáhlém rozhovoru o výzvách spojených s AI, spolupráci s výzkumníky na projektu CEDMO 2.0 NPO i o tom, proč je důležité chápat nuance – nejen odhalovat lži.

 

Jak byste popsal současný český ekosystém boje proti dezinformacím?

Dává smysl rozdělit aktéry do tří skupin. První jsou fact-checkeři – tedy ti, kteří ověřují výroky politiků, obsah na sociálních sítích a podobně. Sem patříme například my, Český rozhlas s projektem Ověřovna nebo zahraniční agentura AFP. 

Zadruhé zde máme organizace zaměřené na mediální gramotnost – třeba Zvol si info nebo Fakescape, které cílí na veřejnost a snaží se ji připravit na setkání s manipulativním obsahem. 

A třetí skupinou jsou výzkumníci, například z Univerzity Karlovy. Ti zkoumají hlubší souvislosti, které už my v běžném provozu nestíháme analyzovat – proč se určité narativy šíří, v čem se liší v různých zemích, jaký je jejich dopad a podobně.

 

Jakou konkrétní roli v tomto prostředí zastává Demagog.cz?

My jsme nezávislý fact-checkingový subjekt s jasnou transparentní metodikou a mezinárodní certifikací. Díky tomu máme přístup k systémům platforem jako Meta nebo jsme členy evropské i globální sítě fact-checkerů. To nám dává možnost označovat problematický obsah přímo na platformách, nebo sloužit jako důvěryhodný partner pro veřejnoprávní média.

 

A zaměřujete se pouze na ověřování už existujících výroků, nebo v boji s dezinformacemi působíte i preventivně?

Primárně ověřujeme obsah, který je zveřejněný na sociálních sítích a může být nepravdivý nebo zavádějící. Tím, že výsledky publikujeme, se snažíme jednak oslovit ty, kteří se s nepravdou už setkali, tak i vzdělávat širší veřejnost. Upozorňujeme na šířící se narativy a ukazujeme, jak snadno lze vytvořit nepravdivý obsah – třeba deepfake nebo klonovanou nahrávku. Nepůsobíme tedy přímo v oblasti prevence, ale naši práci lze chápat i jako určitou formu osvěty.

 

Který aktér vám v tomto českém ekosystému chybí?

Chybí u nás implementace DSA (Digital Services Act), tedy nemáme zmocněného tzv. Digital Services Controller, který by měl ze zákona pravomoc dohlížet na platformy. Obecně tu chybí i větší aktivita ze strany platforem – až na výjimku Seznamu – a také větší tlak ze strany státu. Ten, kdo má bojovat s tím nepravdivým obsahem, je ten, u koho se to šíří – to jsou právě platformy. A nemáme ani aktivitu ze strany zákonodárce, aby do toho ty platformy tlačil.

 

Měla by se podle vás vláda aktivněji zapojit do boje proti dezinformacím?

Je potřeba rozlišovat mezi nelegálním obsahem – jako je dětská pornografie nebo podvody – a běžným nepravdivým obsahem. V momentě, kdy se stát začne zapojovat i do regulace nepravd, byť z dobrého úmyslu, je to vždy vnímáno jako politický zásah. Vidíme to na konkrétních příkladech – například nedávno uniklé dokumenty poslance Růžičky ukázaly, jak jsou instituce při vnitřní komunikaci neobratné, a jak snadno může být jejich činnost dezinterpretována jako pokus o ovlivňování voleb nebo cenzuru opozice. Takové zásahy pak podkopávají důvěru a otevírají prostor pro obvinění z politické motivace.

Petr Gongala koordinuje projekt Demagog.cz, první českou fact-checkingovou iniciativu zaměřenou na ověřování výroků politiků i obsahu na sociálních sítích. Na projektu působil již dříve jako fact-checker a podílel se také na sledování plnění vládních slibů nebo tvorbě volebních kalkulaček v rámci platformy KohoVolit.eu. Kromě práce v občanském sektoru se věnuje i výzkumu – jako kvantitativní analytik se specializací na geostatistiku a analýzu volebního chování. Působí rovněž jako seniorní výzkumný analytik v IDC, kde pracuje s rozsáhlými daty, připravuje statistické modely a vytváří interaktivní vizualizace.

Pojďme se zastavit u konkrétních narativů, které aktuálně dominují českému prostoru. Jaké to jsou?

Narativy se objevují ve vlnách – během pandemie to byla opatření, očkování, později pak válka na Ukrajině. Typicky sledujeme tzv. adaptační fázi: nejprve nastane zmatek a ticho, poté se začnou objevovat pokusy danou událost začlenit do existujících konspiračních rámců. Například válka na Ukrajině byla spojována s údajným původem covidu v biologických laboratořích na jejím území. Cílem těchto narativů je často sjednotit starší a nové události do jednoho celku.

 

Vidíte u těchto narativů nějaké opakující se vzorce?

Ano, mechanismus bývá velmi podobný. Často už lze předem odhadnout, kterým směrem se konspirační narativy budou ubírat. A ačkoliv někdy působí amatérsky, jde o velmi sofistikovanou činnost. Například proruský obsah se šíří napříč jazykovými verzemi a vypadá to jako koordinovaná kampaň – i když ji nemusí řídit státní aktéři, ale běžní lidé na Telegramu. Tyto narativy útočí na podporu Ukrajiny, zpochybňují legitimitu evropské pomoci, přehánějí míru korupce nebo šíří spekulace o majetku prezidenta Zelenského. Často také dezinterpretují historii nebo aktuální dění.

 

Vidíte i nějaké specificky české narativy?

Ano, například ty spojené s naší historií, jako je role StB, revoluce v roce 1989 apod. Také se objevují narativy spojené s klimatickou krizí – často v souvislosti s automobilovým průmyslem, který je v ČR důležitým zaměstnavatelem. Téma elektromobility je u nás silně dezinterpretováno, zpravidla se například každý výbuch auta označí za výbuch elektromobilu a tedy jako důkaz, že jsou nebezpečné.

 

Mohou za původem těchto nepravdivých informací stát přímo automobilky?

Těžko říct, kdo za nimi skutečně stojí – nedá se to jednoduše odvodit podle toho, komu to prospívá. Často jde o lidi, kteří danému obsahu jednoduše věří a sdílejí ho dál v dobré víře. Ti, kdo ho vytvářejí, mohou mít různé motivace – někdy třeba jen touhu po pozornosti. Vytvořit virální obsah, který se dostane k tisícům lidí, může být pro ně atraktivní samo o sobě. Nemyslím si, že za tím stojí přímo automobilky. Ty samy přece investují do elektromobility a chtějí, aby jí lidé důvěřovali – ne aby ji považovali za „bomby na kolech“.

 

Přesuňme se nyní k projektu CEDMO 2.0 NPO. Jaká byla vaše motivace se do něj zapojit?

Projekt nám umožňuje být součástí širší spolupráce a přístup ke zdrojům, které bychom jako malá neziskovka neměli. Spolupracujeme s výzkumníky a vývojáři na nástrojích, které využívají AI – například k detekci deepfaků. Bez této spolupráce bychom takové nástroje neměli šanci vyvinout nebo implementovat.

 

Na projektu spolupracují i sociální vědci, inženýři nebo matematici. Jak taková mezioborová spolupráce vlastně funguje?

Někdy je to docela výzva (smích). Klasický problém je to, že výzkumníci cílí na publikaci článků, zatímco my potřebujeme funkční nástroje. Musíme jim vysvětlovat, že nestačí jen výsledky výzkumu, ale je třeba dojít k implementaci.  Narážíme i na problémy s terminologií – například pojem “dezinformace” není ideální, protože implikuje úmysl. Často jde ale prostě o omyl nebo nepravdivou interpretaci. Také jsme v jiné pozici než inženýři – ti akceptují vyšší chybovost, kterou si my nemůžeme dovolit.

 

Pracujete také s vědci z Univerzity Karlovy a ČVUT, kteří zkoumají umělou inteligenci. Jak konkrétně může AI pomáhat v boji s dezinformacemi?

AI může být skvělým pomocníkem – pomáhá třeba s vyhledáváním informací nebo s detekcí faktických výroků v přepisech. Ale zatím ji nelze nasadit samostatně. Nechápe kontext, špatně pracuje s tabulkami nebo grafy, neumí interpretovat nuance. Chyby jsou příliš časté.

Když někdo něco řekne, nejde o jednoznačný strojový vstup – reálné věty nejsou exaktní výroky, které lze bez pochybností ověřit. Lidé se často vyjadřují nejasně, a důležitá je proto interpretace výroku – pochopit kontext, ve kterém byl pronesen. Například když někdo řekne „deficit 300 miliard“, musíme vědět, o jaké období jde – mluví o návrhu rozpočtu? O jeho plnění?

To samé platí pro práci se zdroji. Nejde jen o jednoduché texty – často jsou to složité tabulky, přehledy, grafy. A právě vizualizace AI zatím interpretuje velmi špatně. Chybovost je stále vysoká. AI je tedy užitečný nástroj, ale není to něco, co by naši práci mohlo nahradit.

 

Používáte v rámci CEDMO vlastní nástroje, nebo pracujete s běžně dostupnými?

Vývoj AI probíhá hlavně ve velkých firmách jako Google nebo OpenAI. My se snažíme pracovat s veřejně dostupnými nástroji a přizpůsobovat si je – například pomocí systémových promptů. Část nástrojů ale budujeme přímo pro naši interní práci, zejména pokud jde o práci s neveřejnými přepisy diskuzí nebo daty, která nelze sdílet. Ideální varianta je, že z toho vznikne něco, co bude postupně –  v nějaké omezené míře – dostupné i veřejně.

 

Jak tuto oblast ovlivnila generativní AI? Jsou lživé obsahy sofistikovanější?

Největším problémem je objem – jak snadno lze dnes vytvořit obrovské množství nepravdivého obsahu. Úpravy fotografií, videí, deepfaky, klonování hlasu… to vše zvládne jeden člověk během pár minut. Typickým příkladem jsou deepfaky zneužívající veřejně známé osobnosti. Video je upraveno tak, že daná osoba například vyzývá k investici do pochybné platformy. Připojí se odkaz a obsah se začne rychle šířit.

Fact-checkeři ani platformy na to nemají dostatečnou kapacitu – jakmile se pokusí automaticky označit obsah podle podobnosti, může se stát, že chybně označí i ten původní, pravdivý příspěvek, ze kterého deepfake vycházel. Používat „AI proti AI“ může být v takových případech kontraproduktivní. 

Snad nejnebezpečnější je ale klonování hlasu. Z několika vteřin záznamu lze vytvořit falešné audio, ve kterém dotyčný říká něco úplně jiného. A zatímco u videa můžeme ověřit zdroj nebo ho vizuálně porovnat s jinými záznamy, u audia to prakticky nejde. Taková nahrávka může být vydávána za soukromý telefonát nebo uniklý rozhovor – a těsně před volbami by bylo téměř nemožné ji rychle a spolehlivě vyvrátit.

 

Mění to vše roli fact-checkera?

Rozhodně. Fact-checkeři by neměli být jen novináři, ale i technicky zdatní lidé, schopní spolupracovat s vývojáři, platformami a výzkumníky. Neměli by jen psát články, ale aktivně zasahovat tam, kde se nepravdivý obsah šíří – přímo na platformách. Zároveň je klíčové, aby zůstali nezávislí. Není ideální, pokud tuto roli zastávají přímo zaměstnanci platforem. Role fact-checkera by se měla proměňovat ještě dál – měla by zahrnovat technickou zručnost, schopnost rychle reagovat a spolupracovat na systémové úrovni s dalšími aktéry. A to se zatím stále děje pomalu.

 

Měly by se vlastně fact-checkovat i komentáře pod příspěvky?

Myslím, že ne. Fact-checking má cílit na samotný obsah, který platformy šíří – ne na jednotlivé uživatele. Každý má právo říct svůj názor, i když je nepravdivý. Platformy ale mají editoriální odpovědnost za to, co jejich algoritmy doporučují milionům lidí. Problém nastává tehdy, když platforma vezme fiktivní obsah – například příspěvek s nepravdivými informacemi – a doporučí ho desetitisícům uživatelů. V tu chvíli už nefunguje jen jako technický prostředník, ale jako zpravodajské médium, a měla by tedy nést odpovědnost za to, co šíří.

Fact-checking se proto má zaměřovat právě na tuto úroveň – na obsah, který je masově distribuován algoritmy. Komentáře pod příspěvky do toho nespadají . Lidé mají svobodu slova, a i když někdo napíše nepravdivou informaci, nemyslím si, že by měl být hned ověřován. Zodpovědnost za komentáře nese spíše tvůrce původního příspěvku – ten má možnost komentáře úplně vypnout nebo je moderovat pomocí jednoduchých nástrojů, které filtrují vulgarismy nebo nenávistné projevy. Ale to už je jiný typ práce, ne práce pro fact-checkera.

 

Setkáváte se s dezinformacemi i v osobním životě?

Samozřejmě. Ale lidé nejsou černobílí – často mají velmi specifické, někdy podivné názory v jednotlivých oblastech. Snažím se tyto lidi nesoudit, spíš jim naslouchat a pochopit, odkud jejich přesvědčení pramení. Musím příznat, že práce facktcheckera mi změnila perspektivu. Když jsme začínali, chtěli jsme hlavně ověřovat politické debaty. Často ale zjistíme, že politici ve skutečnosti většinu věcí říkají pravdivě. Množství vyslovených nepravd není tak velké, jak by se mohlo zdát. I u běžných uživatelů sociálních sítí bychom se měli víc snažit chápat nuance jejich názorů a nenechat se unášet dojmem, že každý, kdo se jednou splete, je hned dezinformátor nebo konspirátor.

Autorkou rozhovoru je Karolína Pštross.


Rozhovor vznikl díky Národnímu plánu obnovy v rámci projektu MPO 60273/24/21300/21000 CEDMO 2.0 NPO. Více o projektu najdete v příslušné sekci.

Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.