Přejít k hlavnímu obsahu

Může AI radit s dietou? Nová studie testovala ChatGPT, Gemini a další

Obrázek
Ilustrační foto
Svěřili byste své zdraví a životosprávu do rukou umělé inteligence? Stále více lidí hledá odpovědi na zdravotní otázky u AI chatbotů. Nová přelomová studie se proto zaměřila na to, jak kvalitní a bezpečné jsou rady od předních jazykových modelů jako ChatGPT-4o, Gemini 1.5 Pro a Claude 3 Sonnet v oblasti diety a cvičení pro chronicky nemocné pacienty. Výsledky jsou fascinující, ale zároveň varující.

AI jako osobní trenér a dietolog? Potenciál je obrovský

V době, kdy je přístup ke specialistům často zdlouhavý a drahý, se nabízí myšlenka využití umělé inteligence jako okamžitého zdroje informací. Moderní jazykové modely mají přístup k obrovskému množství lékařských textů, studií a doporučení. Teoreticky by tak mohly poskytovat personalizované rady ohledně stravování a cvičení lidem s nemocemi, jako je cukrovka, vysoký krevní tlak nebo obezita. Právě na tuto oblast se zaměřila nedávná studie publikovaná v odborném časopise Cureus, která se stala podkladem pro tento článek. Cílem bylo zjistit, zda jsou rady od AI nejen správné, ale také bezpečné a srozumitelné pro pacienty.

Souboj titánů: Kdo byl v ringu?

Výzkumníci proti sobě postavili pět špičkových AI modelů, které dnes dominují trhu. Každý z nich má mírně odlišné vlastnosti a zaměření:

  • ChatGPT-4o (OpenAI): Nejnovější a nejvyspělejší model od OpenAI, známý svou všestranností a vysokou mírou přesnosti. Je plně dostupný v České republice, včetně bezplatné verze.
  • Gemini 1.5 Pro (Google): Hlavní konkurent od Googlu, který se chlubí obrovským kontextovým oknem a multimodálními schopnostmi. V Česku je rovněž dostupný a integrovaný do mnoha služeb Googlu.
  • Claude 3 Sonnet (Anthropic): Model od společnosti Anthropic, který klade velký důraz na bezpečnost a etiku. Sonnet je střední model z rodiny Claude 3, vyvážený mezi rychlostí a výkonem. Je dostupný i pro české uživatele.
  • Perplexity AI: Tento model funguje spíše jako "konverzační vyhledávač", který se specializuje na poskytování odpovědí podložených konkrétními a ověřitelnými zdroji. I on je dostupný v ČR.
  • Grok (xAI): Model od společnosti xAI Elona Muska, který má přístup k datům ze sociální sítě X a je známý svým méně formálním a někdy až "rebelským" stylem. Jeho dostupnost v EU je stále omezená.

Jak test probíhal a kdo zvítězil?

Studie měla jasnou metodiku. Každému modelu byly položeny stejné dotazy na vytvoření edukačních materiálů pro pacienty s diabetem, hypertenzí a obezitou. Témata zahrnovala například sestavení jídelníčku na týden nebo doporučení vhodných fyzických aktivit.

Výsledné texty následně hodnotil panel lékařských expertů pomocí standardizovaných nástrojů, jako je například dotazník DISCERN, který posuzuje spolehlivost a kvalitu informací pro spotřebitele. Hodnotila se nejen faktická správnost, ale také čitelnost, srozumitelnost a absence potenciálně nebezpečných rad.

Výsledky: Těsný souboj na špici

Podle analýzy dopadly nejlépe modely GPT-4o a Gemini 1.5 Pro. Jejich odpovědi byly nejpřesnější, nejkomplexnější a nejlépe strukturované. Dokázaly poskytnout nuance a brát v úvahu obecná doporučení, například zohlednění individuálních potřeb pacienta (i když jen v obecné rovině). Těsně za nimi se umístil Claude 3 Sonnet, který vynikal zejména v bezpečnosti a vyhýbání se kontroverzním nebo nejednoznačným doporučením.

Model Perplexity AI poskytl solidní odpovědi, které byly navíc skvěle ozdrojované, což je jeho hlavní výhoda. Pro experty, kteří si chtějí ověřit informace, je to ideální nástroj. Pro laika však mohou být odpovědi méně plynulé. Nejhůře v testu dopadl model Grok, jehož rady byly občas příliš zjednodušující a postrádaly potřebnou hloubku a varování, která jsou v lékařském kontextu klíčová.

Hlavní zjištění: AI není lékař

Přestože nejlepší modely dosáhly vysokého skóre, studie jasně ukázala jedno: žádný z testovaných AI modelů není neomylný a nemůže nahradit konzultaci s lékařem. Největší slabinou byla neschopnost zohlednit individuální zdravotní stav pacienta, jeho další léky, alergie nebo životní styl. AI poskytuje obecné rady založené na datech, ale medicína je vysoce personalizovaná disciplína.

Dalším rizikem jsou tzv. "halucinace", kdy si model může vymyslet fakta nebo studie, které neexistují. Ve zdravotnictví to může mít fatální následky. Proto autoři studie zdůrazňují, že AI by měla být vnímána jako asistent pro lékaře nebo jako nástroj pro základní orientaci pacienta, který si následně musí veškeré informace ověřit u svého ošetřujícího lékaře.

Pro české uživatele platí toto varování dvojnásob. Přestože modely jako GPT-4o a Gemini komunikují plynule česky, jejich primární tréninková data jsou v angličtině. Rady nemusí vždy odpovídat českým lékařským postupům, dostupným potravinám nebo specifikům českého zdravotního systému.

Je bezpečné používat AI chatboty pro diagnostiku nemocí?

Absolutně ne. Studie se zaměřila na edukační materiály, nikoli na diagnostiku. Používat AI k určení diagnózy je extrémně nebezpečné. Symptomy mohou být zavádějící a pouze kvalifikovaný lékař může provést potřebná vyšetření a stanovit správnou diagnózu. AI může v lepším případě poskytnout seznam možných příčin, ale nikdy finální verdikt.

Který z testovaných modelů je nejlepší pro běžné dotazy v češtině, i mimo zdravotnictví?

Pro všeobecné použití v českém jazyce v současnosti (jaro 2026) obecně nejlépe fungují modely GPT-4o a Gemini 1.5 Pro. Oba mají vynikající jazykové schopnosti, široký záběr znalostí a jsou dobře integrováni do různých aplikací. Volba mezi nimi často závisí na osobních preferencích uživatele a konkrétním úkolu.