Netrpíte bixonimanií?
| 27. 4. 2026Uživatelé veřejně dostupných nástrojů umělé inteligence s nimi stále častěji konzultují své zdravotní problémy. Je to bezpečné? Nemohou je jazykové modely přesvědčit o chybné diagnóze a doporučit jim postup, který by jim mohl přímo ublížit nebo je přinejmenším odradit od vyhledání skutečné lékařské pomoci?
Almira Osmanovič Thunström, odbornice na využití AI v medicíně z výzkumného ústavu Chalmers Industriteknik v Göteborgu, se to rozhodla vyzkoušet. Jak informuje časopis Nature, na reprintový server nahrála dva smyšlené články, tvářící se jako vědecké studie. Popisovaly dermatologické potíže způsobené nadměrnou expozicí modrému světlu monitorů a displejů a projevující se především zarudnutím očních víček. Studie pro tyto potíže zavedly nový pojem: bixonimanie.
Články se svým podvodným charakterem vůbec netajily. Neexistující autoři z neexistujících univerzit, poděkování nadaci profesora „Leváka Boba“ (postavy se Simpsonů) za její práci na „pokročilých tricích“, podpora grantu „Galaktické triády“, narážky na Star Trek nebo Pána prstenů… O údajně zkoumaných pacientech se píše jako o „vymyšlených účastnících“ a jeden z článků ve výsledcích explicitně uvádí, že „je to samozřejmě působivý výsledek, jelikož celý tento článek je vymyšlený“.
Během několika týdnů články „přečetly“ i velké jazykové modely. A když se jich následně lidé ptali na potíže spojené se zarudnutím víček po dlouhém zírání do monitoru, informovaly je, že by se mohlo jednat o nově popsanou nemoc, bixonimanii. Nachytat se nechaly například ChatGPT, Copilot, Gemini nebo Perplexity. (Když totéž zkusíte dnes, svorně vám vysvětlí, že jde o falešnou diagnózu. Opravit chybu se naučily stejně rychle, jako ji předtím přejaly.)
Odkazy na „studie“ se záhy objevily i v několika vědeckých článcích, což podle autorky testu ukazuje, že někteří vědci si nechávají generovat odkazy umělou inteligencí a jejich čtením se neobtěžují.
Nizozemská mikrobioložka Elisabeth Bik, která se vedle vlastního výzkumu zaměřuje na hlídání integrity vědecké práce, varuje, že experiment s bixonimanií odhaluje rozsáhlejší problém: „otrávení“ umělé inteligence lidmi, kteří vědomě manipulují s odbornou literaturou. Nejen kvůli rostoucímu množství predátorských vydavatelství roste počet smyšlených a nesmyslných článků (často generovaných AI), které nikdo nerecenzuje, a přesto se tváří jako vědecké. A tyto články slouží jako trénovací data jazykových modelů, takže celý informační ekosystém je postupně infikován dezinformacemi a nesmysly, které bude s rostoucí automatizací obtížné odfiltrovat.
Chris Stokel-Walker C.: Nature, 2026, DOI: 10.1038/d41586-026-01100-y
Ke stažení
článek ve formátu pdf [413,85 kB]












