Rostoucí využívání umělé inteligence přináší do mediálního prostředí nové možnosti, ale také nejistotu. Zasahuje do práce redakcí, ovlivňuje distribuci obsahu a otevírá otázky odpovědnosti za jeho dopady. Martin Erlebach z Právnické fakulty Masarykovy univerzity v rozhovoru popisuje, jak se Evropská unie snaží tyto výzvy uchopit, proč je obtížné právně postihnout dezinformace a na co se musíme v Česku včas připravit.
Pojďme rovnou k věci: mohl byste přiblížit, jak je konkrétně Masarykova univerzita zapojená do projektu CEDMO 2.0 NPO?
Na projektu se podílí Masarykova univerzita prostřednictvím Ústavu práva a technologií Právnické fakulty a také katedry politologie Fakulty sociálních studií. Společně připravujeme jednu z klíčových aktivit nazvanou Regulace a využívání umělé inteligence v médiích. Zabýváme se tím, jaká právní regulace dopadá na využívání AI v médiích, jak se projevuje v Česku i v zahraničí a jaké rozdíly existují mezi státy. Výstupem bude závěrečná studie a akademické publikace. Nad rámec toho ale spolupracujeme třeba s Českým telekomunikačním úřadem a Ministerstvem průmyslu a obchodu. Těm předáme naše závěry a nabídneme další spolupráci, pokud budou chtít řešit konkrétní otázky regulace.
Co by měl váš výzkum v důsledku ovlivnit? Usilujete například o změnu zákonů?
Naším cílem není vymýšlet nové zákony. Chceme především porozumět různým evropským přístupům a vybrat ty, které mohou inspirovat české regulátory. Soustředíme se na interpretaci již existujících pravidel a často jde o tzv. soft-law instrumenty, tedy doporučení nebo pokyny, které nejsou právně závazné, ale dokážou sjednotit postupy v praxi – třeba ty publikované na webu ČTÚ. Může jít například o „dobrou praxi“ pro využívání AI v médiích, podobně jako byl Kodex pro boj s dezinformacemi od Evropské komise, kterým se ostatně taky zabýváme.
Zmínil jste, že v rámci výzkumu děláte i mezinárodní srovnání. Jsou nám některé země podobné?
Ano, ale jen do určité míry. Střední Evropa je si relativně blízká třeba ve vnímání dezinformací nebo v tom, jaká je kolem nich veřejná debata. Podobnosti ale rychle mizí, když se podíváme na konkrétní způsoby regulace. Každý stát má jinak nastavené orgány i procesy, takže komparace je náročná. Pokud jde o pozitivní příklady, zajímavé je Španělsko, které se regulaci AI věnuje dlouhodobě. V Německu zase existují robustní mechanismy zaměřené na dezinformace.
Mohl byste přiblížit, jak probíhá spolupráce uvnitř konsorcia CEDMO 2.0 NPO?
Ačkoliv má každá skupina své vlastní klíčové aktivity, nejsme úplně izolovaní. Jsme v kontaktu s kolegy z technických oborů i ze sociálně-vědní části projektu. Nejsem si vědom žádných zádrhelů, ale je to taková typická spolupráce s právníky – někdo chce dělat zajímavé věci a my jim musíme vysvětlovat, že to není možné (smích). Pak ale společně vymýšlíme, jak se to dá udělat, aby byl projekt inovativní i v souladu s regulací. Zrovna náš Ústav práva technologií má relativně hodně projektů, kde spolupracuje s jinými pracovišti. Nové technologie jsou častým předmětem našich výzkumů a my se rádi díváme na to, jak vše funguje „pod obalem“ přístroje.
Pojďme se nyní zaměřit na umělou inteligenci. Jak podle vás mění fungování médií?
AI zasahuje do sběru informací, personalizace obsahu, editace textu, ověřování faktů i tvorby obsahu. To vše může být velmi přínosné jak pro ty, co v médiích pracují, tak pro ty, kdo mediální obsah konzumují. Zároveň to ale představuje riziko zneužití – například generování dezinformací nebo manipulativních deepfake videí. Právo má v tomto směru roli definovat, co už je pro společnost škodlivé a proč. Současně musí být dostatečně obecné, aby se dalo aplikovat na různé situace, což je jedním ze základních znaků práva. Právo tedy musíme často interpretovat, což ale může být poměrně složité. A přesně o to se v CEDMO projektu snažíme my; pomoct jak regulátorům, tak i subjektům, na které regulace dopadne.
Přináší AI Act úplně nové právní otázky, nebo jde jen o další technologii, kterou současné právo zvládne pojmout?
Ve většině případů je AI natolik specifická, že vyžaduje novou regulaci. Evropská unie si to uvědomuje a vytváří celý „digitální balíček“ – AI Act, Data Governance Act, Digital Services Act, Digital Markets Act. AI Act se navíc během příprav výrazně měnil, zejména po nástupu generativních modelů. Ty přinesly další vrstvu otázek, které bylo nutné do regulace doplnit.
Co znamená AI Act konkrétně pro média?
AI Act nestanovuje rizikovost podle odvětví, ale podle typu systému. Pokud redakce používá nástroj, který jen formátuje text, tak nemá téměř žádné riziko. Pokud je to ale nástroj, který tvoří umělý obsah – třeba video nebo něco, co by mohlo být deepfakem – je tam určitá nízká úroveň rizika. AI Act se to snaží ošetřit povinností patřičně označit takový obsah. Vysoce rizikové systémy jsou pak ty, které zasahují například do lidských práv. V takovém případě mají vývojáři specifické povinnosti typu dodat rozsáhlou dokumentaci zavádějícím subjektům (třeba redakcím) s návodem, jak technologii správně používat a mít nad ní dohled. Pokud to shrnu, tak tradičním médiím AI Act téměř nepřináší mnoho přímých povinností, pokud sama nevyvíjejí nebo výrazně neupravují AI systémy.
A co když redakce zveřejní deepfake bez správného označení. Kdo ponese odpovědnost?
To je hodně zajímavá otázka. Záleží na okolnostech. Ve vašem případě, tedy pokud redakce sama vytvořila deepfake, odpovídá za to přímo ta redakce. Pokud pouze převzaly video z veřejného prostoru, mohou mít povinnost označení. Tuto odpovědnost ale nenese původní autor. Proto je důležité, aby i jednotlivé platformy sociálních sítí kontrolovaly, že se na nich nešíří protiprávní obsah. Pokud daný deepfake naplní znaky trestného činu, třeba šíření poplašné zprávy, odpovídá jeho autor. Pokud by ovšem redakce úmyslně šířila převzatý deepfake, mohla by být trestněprávní odpovědnost dovozena i pro ni.
Budou muset redakce zavádět nové interní procesy, podobně jako kdysi při nástupu GDPR?
Právně vzato ne. AI Act dopadá hlavně na vývojáře vysoce rizikových systémů. Redakcím ukládá jen málo nových povinností – například používat nástroj v souladu s dokumentací a hlásit závažné problémy. Pokud by ale redakce příliš měnily ten nástroj, pak se náhle stanou poskytovatelem a mají všechny zmíněné povinnosti, takže na to si musejí dávat pozor. Další rovina je pak etická: v době, kdy je obtížné rozeznat deepfake od reality, mohou tradiční média plnit roli garanta ověřených informací.
Existuje vůbec právní definice dezinformací?
Zákonná a závazná právní definice neexistuje. Existují opět jen soft-law definice – například na webu Ministerstva vnitra nebo v Kodexu EU pro boj s dezinformacemi. Akademická sféra pracuje s různými definicemi, ale právně závazná chybí. Myslím si, že ani není vhodné nyní vymýšlet nějakou závaznou definici dezinformací. Bylo by to politicky nabité s měnícími se vládami nebo politickými režimy a nejspíš i snadno zneužitelné.
Jaký měla AI vliv na dezinformace?
Šíření dezinformací je teď jednodušší a masovější, což vidíme i v osobním životě. Mění se ale i kontext a podoba samotných dezinformací. Pro mě osobně je třeba velký rozdíl, když na Facebooku vidím jen čistě textový příspěvek, než když je doprovozen falešným videem z nějakého válečného konfliktu. Zvyšuje se i důvěryhodnost vizuálních manipulací – lidé silně reagují na obrazové důkazy, byť falešné. To se dělo i v minulosti, třeba v případě fotek protestů, které byly spojeny s událostmi v jiné části světa. Deepfaky proto mohou mít výrazně větší dopad než starší textové dezinformace.
Co musí Česko udělat, aby bylo na AI Act připravené?
Toho je podle mě opravdu hodně. Kromě AI Actu je totiž zásadní i nařízení o digitálních službách, DSA. Oba předpisy je potřeba vykládat v tandemu, protože se v řadě ohledů doplňují. Ani jeden však zatím nemá v Česku hotovou adaptaci, chybí jim prováděcí zákon. Víme, že dohled nad oběma regulacemi bude mít Český telekomunikační úřad, některé další role připadnou dalším orgánům. Jenže dokud nemají jasné zákonné zmocnění, nemohou své povinnosti naplno vykonávat. To je první velký krok, který nás čeká. Druhý zásadní problém je personální kapacita. Umělá inteligence, technologie obecně i jejich regulace jsou teď obrovská a velmi odborná témata. O odborníky v těchto oblastech je velký zájem, ale veřejná správa dlouhodobě bojuje s tím, jak je zaplatit a udržet. Můžeme mít perfektně napsanou regulaci, ale bez kvalifikovaných lidí, kteří ji budou správně interpretovat a vymáhat, nebude fungovat. A přestože to zní „jen“ jako dvě věci, jsou to obrovské systémové úkoly, které máme ještě před sebou.
Kdy začne reálně platit AI Act?
Musíme rozlišovat platnost a účinnost. Platnost znamená, že nařízení už má finální podobu a je veřejně dostupné. Účinnost je až okamžik, od kterého se podle něj musí postupovat. U evropských nařízení je běžné, že nabíhají postupně a mezi platností a účinností je období, kdy se subjekty mohou připravit.
AI Act bude v plném rozsahu účinný 2. srpna 2026, ale má tzv. roztříštěnou účinnost – některé části platí už teď. Například zákaz určitých nejproblematičtějších praktik, jako je sociální scoring. V rámci nedávno zveřejněného Digitálního omnibusu EU se ale uvažuje i o posunutí účinnosti některých částí AI Actu až o dva roky. DSA je naopak už účinné celé. Každý členský stát má zároveň povinnost vytvořit vlastní prováděcí předpisy a určit, které orgány budou regulaci vymáhat. Tyto lhůty ještě běží. To, že ještě nemáme všechno implementované, není úplně nestandardní – byť je pravda, že jsme jako Česko v určitém skluzu.
Měla by se veřejnost o AI Act nebo DSA zajímat? Dotkne se to běžného člověka?
V AI Actu není mnoho ustanovení, která by mířila přímo na jednotlivce. Asi nejpraktičtější je vědět, že když budete komunikovat se systémem, který je navržen tak, aby se prezentoval jako člověk, musí to být jasně označeno. V DSA je situace jiná: ten obsahuje několik práv, která běžnému uživateli sociálních sítí mohou pomoci. Týká se to hlavně moderace obsahu – když vám platforma smaže příspěvek nebo omezí jeho viditelnost, máte právo vědět proč a máte možnost se proti rozhodnutí odvolat. Platformy to musí mít přehledně popsáno a takový systém odvolání umožňovat.
Chtěl byste ještě něco doplnit?
Možná jen to, že české právo nikdy nebylo v oblasti dezinformací úplně bezzubé – často se využívaly existující instituty, jako je šíření poplašné zprávy nebo ochrana osobnosti. Velkou otevřenou otázkou zůstává, jak právně ošetřit situace typu blokování dezinformačních webů na začátku války na Ukrajině. Vláda avizovala, že připraví zákonný rámec, ale ten zatím nevznikl. V této oblasti nás tedy čeká ještě hodně práce.
Autorkou rozhovoru je Karolína Pštross.
*Rozhovor vznikl díky Národnímu plánu obnovy v rámci projektu MPO 60273/24/21300/21000 CEDMO 2.0 NPO. Více o projektu najdete v příslušné sekci.

