Scroll Top

Jako hra na kočku a myš – Na ČVUT jsme uspořádali workshop o novinkách v odhalování deepfakes

Bez názvu (1170 x 540 px)

V prostorách ČVUT na Karlově náměstí v Praze jsme 27. května uspořádali unikátní workshop na téma odhalování deepfakes. Ve třech tematických blocích představili experti nejnovější poznatky v oblasti nových Ai nástrojů pro odhalování falešného obsahu, přiblížili aktuální výzvy pro fact-checkery a poukázali na to, jak Češi a Slováci před podobnými zprávami obstojí.

 

Oblast informačních manipulací je neustálá hra na kočku a myš. Jejich tvůrci využívají AI ke stále lepší manipulaci obrazové informace a odborníci v oblasti detekce či fact-checkingu se tento obsah snaží identifikovat. Hned v prvním bloku workshopu předvedl Jan Čech ze skupiny vizuálního rozpoznávání FEL ČVUT, jak rychle falešná videa nabývají na kvalitě, což ztěžuje rozlišování mezi autentickým a deepfake vizuálním obsahem Zjevné vizuální artefakty již nejsou vždy přítomné, což činí rozlišení obtížným pro běžné uživatele i odborníky spoléhající se na pouhé oko. Proto jsou zrychleným tempem odborníky vyvíjeny také nástroje na jejich odhalování založené na umělé inteligenci.

Jan Čech nejprve představil postupný vývoj generativních modelů, jako je open-source model jménem Stable Diffusion, anebo nejnovější generátor ozvučených videí od společnosti Google zvaný VEO3. Ačkoliv tyto modely neslouží primárně k tvorbě zavádějícího obsahu, nelze takovému využití efektivně zabránit.

 

 

Velké nebezpečí vnímá Jan Čech v případě digitálně upravených obličejů známých politiků, jako je Volodymyr Zelenskyj, Donald Trump, či Andrej Babiš. Ke zmíněnému účelu slouží technologie jako je například Face Reenactment, Face Swap, nebo Lips Post-syncing.

Návštěvníky zajímaly také etické otázky spojené s vývojem podobných nástrojů v režimu open-source, kdy si nástroj může kdokoliv bez omezení stáhnout k dalším úpravám a šíření. Tento přístup sice usnadňuje technologický vývoj, zároveň však otevírá prostor pro jeho zneužití k tvorbě falešného nebo zavádějícího obsahu.

Jak tedy odhalit vizuální deepfakes podle Jana Čecha?

  • Hledejte rušivé elementy: Jak vypadá obličej? Jak vypadají prsty na rukou? Dále se nezapomeňte zaměřit i na zuby a pohyby rtů.
    • Tyto tzv. artefakty se nejčastěji objevují u Ai obsahu horší kvality. V případě deepfakes je to stále většina.
  • Věnujte pozornost souladu pohybu a zvuku: Pokud na videu postava mluví, zkontrolujte, zda se rty a svaly v obličeji pohybují v souladu se zvukem.
  • Využijte automatické nástroje: Jako například GPT Zero, Copyleaks, InVID WeVerify, nebo nebo další akademické detektory, fungující na základě technologie CLIP (Contrastive language image pretraining). Počítejte však s tím, že jejich spolehlivost je omezená.
  • Ověřte si kontext: Pokud vám Andrej Babiš nabízí výhodné investice u neznámých společnosti, nejspíše nejde o reálné video.

Ve druhém bloku programu se účastníci prostřednictvím datového analytika CEDMO Lukáše Kutila z Univerzity Karlovy seznámili s výsledky a metodikou longitudinálního výzkumu CEDMO Trends. Tento výzkum dlouhodobě sleduje chování české a slovenské populace v oblasti konzumace různých druhů mediálního obsahu se zaměřením na informační poruchy jako jsou  dezinformace a misinformace. Čeho si tedy lidé všímají při rozpoznávání (ne)pravdivých videí nejvíce?

Mezi 16 technickými a obsahovými parametry testovanými v baterii otázek Perceived Deepfake Trustworthiness Questionnaire mezi Čechy dominuje nesoulad mezi zvukem a pohyby úst, nepřirozený hlas a anomálie v osvětlení (například blikání). Tyto ukazatele umožňují lidem nejspolehlivěji identifikovat deepfake video.

 

 

Mezi nejrizikovější faktory na straně publika patří malá zkušenost s používáním internetu, ale na druhé straně i třeba nízký věk (do 24 let). U lidí s jednou z těchto charakteristik můžeme očekávat, spíše než u jiných, že deepfake video nerozpoznají.

Třetí část programu vedl Jan Fridrichovský, šéfeditor serveru Demagog.cz, který návštěvníkům představil aktuální výzvy pro fact-checkery a co tato práce v dnešním světě obnáší.

Hned z počátku Fridrichovský poukázal na skutečnost, že i přes to, že Ai generované obsahy jsou už na internetu normální, většinu obsahu stále tvoří samotní lidé s pomocí photoshopu. U řady obrázků, které fact-checkeři vyhodnotí jako nepravdivé často nemusí jít nutně o dezinformaci. Mnohdy se lidé jen snaží o satiru a necílí nutně na záměrnou manipulaci s veřejností.

Jan Fridrichovský dále představil spolupráci Demagog.cz a společnosti META, která mj. provozuje síť Facebook. Debatu rozpoutal i fakt, že Meta příspěvky označené fact-checkery jako „nepravda“ na Facebooku zpravidla nemaže, ale pouze omezí její šíření a stejně tak omezí i další identický obsah. Jak ale Fridrichovský přiznává, celý proces je automatizovaný a není stoprocentně důsledný. Některé příspěvky se tak vyhnou označení i přesto, že jsou identické s příspěvkem, který fact-checkeři kontrolovali.

 

 

Návštěvníci se také seznámili s problematikou ověřování audio obsahu, u kterého se nemohou řídit vizuálními artefakty, jako jsou rozmazané detaily, nebo nereálná anatomie. Jan Fridrichovský poukázal na ztížené ověřování ve srovnání s obrazovým obsahem, protože u audio obsahu není, narozdíl od video deepfakes, možné Ai manipulaci prokázat například srovnáním s původní autentickou nahrávkou. 

Jaké jsou dnešní výzvy pro fact-checkery podle Jana Fridrichovského?

  • Specifický monitoring AI obsahu je na sítích často nemožný.
  • Dostupné detekční nástroje neoznačí obsah jako autentický, nebo AI generovaný, poskytnou pouze pravděpodobnost. To je pro ověřovatele často nedostatečné.
  • Kontext a indicie jsou těžko poznatelné: Je například fotografie hořícího domu opravdu pozůstatek po teroristickém útoku? Fact-checkeři musí odhalit celý kontext.
  • Ověřování je časově náročné
  • Zpětné vyhledání původu: Kdo obsah vytvořil? Rozšířil ho jeden zdroj, nebo koordinovaná skupina účtů? Ověřovatelé často hledají původní účty, které zprávy šíří.
  • Politici a známé osobnosti mohou označit za deepfake i pravou nahrávku, například pokud dosvědčuje skutečnosti, které nechtějí zveřejnit.
Privacy Preferences
When you visit our website, it may store information through your browser from specific services, usually in form of cookies. Here you can change your privacy preferences. Please note that blocking some types of cookies may impact your experience on our website and the services we offer.