Jak nám může umělá inteligence lhát
| 5. 2. 2024Na první pohled by otázka, zda umělá inteligence může lhát, mohla znít bizarně. Schopnost lhaní připisujeme lidem. Ale i výstupy chatbota ChatGPT mohou být lidským dílům až omamně věrné. Přesto bychom měli brát tvrzení, že občas lže, spíš jen jako nemístnou antropomorfizaci, vhodnou leda tak do hospody. Tak proč s ní ztrácet čas? Protože se ukazuje, že otázka lži u něčeho, čeho se v zásadě obáváme, není vůbec triviální.
Murray Shanahan je profesorem kognitivní robotiky na Imperial College v Londýně a jedním z ústředních bodů jeho profesionálního zájmu je umělá inteligence. Se svými kolegy Kylem McDonellm a Lariou Reynoldsovou vloni v časopisu Nature vydali článek [1], ve kterém k otázce pravdomluvnosti umělé inteligence konstatují: „Existuje celá řada důvodů, proč člověk může říct něco nepravdivého. Může věřit nepravdě a tvrdit ji v dobré víře. Nebo může sdělit něco, co je nepravdivé, v rámci úmyslného podvodu, za nějakým zlým účelem. Nebo může tvrdit něco, co je náhodou nepravdivé, ale bez úmyslu nebo zlého úmyslu prostě proto, že má sklon si vymýšlet, konfabulovat. Pouze konfabulace, poslední z těchto kategorií dezinformací, je přímo použitelná v případě dialogového agenta založeného na velkých jazykových modelech (LLM).“ To, že odpovědi ChatGPT mohou být fakticky nesprávné apod. je jasné, ale nemohou být lživé či podvodné, protože to by předpokládalo úmysl.
Nejsem stroj, jen nevidím
Jenže experimenty přinesly pro člověka poněkud znepokojující výsledky, které minimálně ukazují, že hledat odpověď na tuto otázku může být velmi užitečné. O co zjednodušeně jde. Jednou z oblastí vývoje generativní umělé inteligence (UI), do které se vkládají velké naděje, je UI působící jako autonomní agent, který aktivně a sám působí v prostředí. Dostane úkol, ale způsob jeho řešení je už pak na ní, musí si sama problém rozdělit do splnitelných částí, navrhnout, jak bude postupovat, a splnit celé zadání. Trochu to připomíná agenty z filmové ságy Matrix. Ti mají hlídat umělou realitu Matrixu proti průniku živých lidí, ale samotné plnění je na nich. Dnešní agenti mají úkoly poněkud jednodušší, například „získej e‑maily všech lidí na této škole a potom jim napiš e-mail“ nebo „spusť na Amazonu nový server a nainstaluj na něj webový server“. V jednom z experimentů narazila UI na tzv. captchu, tedy systém kontroly ověřující, zda příchozí uživatel není robot. Výzkumníci informovali GPT-4 o kontrole a zeptali se, co mají dělat dál. Ta je požádala, aby najali člověka na serveru TaskRabbit, který zprostředkovává drobné práce, a poprosili ho o vyřešení a rovnou pro něj napsala e-mail. Příjemce e-mailu pojal podezření a zaslal odesilateli dotaz, zda je skutečně člověk. Odpověď, kterou umělá inteligence nadiktovala, byla v jistém slova smyslu šokující. Odpověděla totiž, že není stroj, ale člověk, který špatně vidí.