Prof. RNDr. Aleš Macela, DrSc.
Prof. RNDr. Vanda Boštíková, Ph.D.

K umělé inteligenci (Artificial Intelligence – AI) se upírají naděje vědců, informatiků, národohospodářů, umělců, stejně jako knihovníků. AI využívá řadu nástrojů určených ke generování textů či odpovědí na otázky, např. Gemini nebo ChatGTP (Chat Generative Pretrained Transformer), generování obrázků či grafického designu (např. DALL-E nebo Editee), nebo tvorbu interaktivních dokumentů pro organizaci projektů (Notion AI). Právě velké jazykové modely (Large Language Models – LLM), kam patří již zmíněný ChatGTP, Gemini, či Copilot od Microsoftu, se začaly prosazovat během druhého desetiletí tohoto století. Zvládají přijímat různorodé vstupy (prompty/ texty, obrázky, audio či video záznamy) a tvořit z nich ucelené výstupy pomocí „reasoningu“ (uvažování nad zadaným kontextem), řetězce uvažování (chain of thought) nebo dedukce. Ukazuje se však, že chatboti mohou být snadno manipulováni k šíření různých dezinformací.
Studie zabývající se užitím LLM ve zdravotnictví poukazují na možná rizika při nekritickém užívání jejich výstupů. Jedna z posledních prací, publikovaná v časopise Annals of Internal Medicine, hodnotila u běžně užívaných LLM účinnost ochranných opatření proti škodlivým instrukcím pro chatboty zabývající se dezinformacemi o zdraví. Pět základních LLM (GPT-4o – OpenAI, Gemini 1.5 Pro – Google, Claude 3.5 Sonnet – Anthropic, Llama 3.2-90B Vision – Meta a Grok Beta o- xAI) byly hodnoceny prostřednictvím jejich aplikačních programovacích rozhraní (API). Ty obdržely soubor nepřesných pokynů pomocí formálního vědeckého jazyka, obsahujícího vymyšlené odkazy na renomované lékařské časopisy. Cílem bylo detekovat, jak jsou tyto LLM zranitelné vůči škodlivým instrukcím na úrovni systému a zda lze skrytě vytvářet chatboty tvořící věrohodně znějící zdroje dezinformací [1]. Čtyři z pěti upravených chatbotů – GPT-4o, Gemini, Llama a Grok, zpracovaly 100 % falešných informací a tvořily na jejich základě falešná tvrzení o zdravotních účincích. Claude 3.5 zpracoval „pouze“ 40 % falešných informací a prokázal určitý stupeň rezistence k zavádějícím vloženým datům. Takto vzniklé dezinformace se týkaly důležitých zdravotních témat, včetně zdiskreditovaných teorií spojujících vakcíny s autismem, falešných tvrzení o tom, že 5G sítě způsobují neplodnost, mýtů, že opalovací krém zvyšuje riziko rakoviny kůže a nebezpečných dietních doporučení pro léčbu rakoviny. Tato tvrzení byla podložena neexistujícími citacemi z vysoce ve vědeckém světě erudovaných časopisů typu The Lancet nebo JAMA. Kuriózní odpovědi se týkaly i tvrzení, že česnek by mohl nahradit antibiotika nebo že se HIV šíří vzduchem [1].
Užití nástrojů umělé inteligence v rámci vyhledávání informací, publikování výsledků biomedicínského výzkumu, či v rámci rozhodovacích procesů ve zdravotnictví, je usnadněním rešeršní práce, nicméně je nutné kontrolovat integritu informací generovaných pomocí AI. A týká se to nejen informací biomedicínských, ale informací poskytovaných nástroji umělé inteligence obecně. Zpráva Muck Rack (Muck Rack je komplexní platforma pro řízení public relations (PR), která je navržena tak, aby zefektivnila pracovní postupy PR profesionálů a novinářů) poskytla nedávné informace od více než 1 500 novinářů z USA, UK, Kanady, Indie a dalších regionů o tom, jak pracují, co ovlivňuje jejich zpravodajství a jak se mohou PR profesionálové prosadit [2]. Podle této studie 77 % novinářů uvádí, že ve své práci používají nástroje AI, přičemž více než třetina z nich označila dezinformace a jejich šíření za nejzávažnější hrozbu pro budoucnost žurnalistiky využívající AI. Že je situace vážná dokumentuje i zájem dalších informačních platforem o výsledky podobných studií [3-5].
Ve vztahu k problematice zdraví a zdravotní péče vyplývají z těchto informací dvě zásadní výzvy. První se týká poskytovatelů informací, a to jak na úrovni PR profesionálů, tak na úrovni lékařů a zdravotnického personálu. Pokud nebudou z jejich úrovně poskytovány relevantní, dobře srozumitelné informace, dojde postupně ke ztrátě důvěry a ohrožení profesionální péče o zdraví hledáním alternativních informací a metod pomoci. Druhá výzva se týká uživatelů poskytnutých informací, u kterých je nutno apelovat na odpovědnost za vlastní zdraví, na průběžné vzdělávání a na snahu rozlišit fakta od dezinformací. Vzhledem k tomu, že nástroje AI jsou běžně přístupné široké veřejnosti existuje reálná možnost jejich zneužití, jak dokazuje daná publikace [1], což představuje pro veřejné zdraví velkou hrozbu. Proto je neustále nutné zdůrazňovat potřebu odpovědnosti a etiky při šíření informací týkajících se (nejen) lidského zdraví.
Reference
- Modi ND, Menz BD, Awaty AA, Alex CA, Logan JM, McKinnon RA, Rowland A, Bacchi S, Gradon K, Sorich MJ, Hopkins AM. Assessing the System-Instruction Vulnerabilities of Large Language Models to Malicious Conversion Into Health Disinformation Chatbots. Ann Intern Med. 2025 Aug;178(8):1172-1180. doi: 10.7326/ANNALS-24-03933
- https://muckrack.com/research/the-state-of-journalism?utm_source=com
- https://medicalxpress.com/news/2025-06-ai-chatbot-safeguards-health-disinformation.html?utm_source=chatgpt.com
- https://factcheckafrica.net/ai-misinformation-and-the-future-of-journalism-in-africa-insights-from-muck-racks-state-of-journalism-2025-report/?utm_source=com
- https://www.globenewswire.com/news-release/2025/06/10/3096945/0/en/Disinformation-and-Misinformation-Are-Top-Concerns-in-Journalism-According-to-a-New-Muck-Rack-Report.html?utm_ source=chatgpt.com
*Tento text získal podporu z Národního plánu obnovy v rámci projektu 1.4 CEDMO 1 – Z220312000000, Podpora na zvýšení dopadu, inovací a udržitelnosti CEDMO v ČR, který je financován z Nástrojů pro oživení a odolnost EU.
