Umělá inteligence dnes odpovídá na všechno. Na otázky jednoduché, složité i vágní – a často i na ty, na které vlastně žádná správná odpověď neexistuje. Přesto odpoví rychle, plynule a s naprostou jistotou.
Ale co když odpověď prostě není správná?
Modely jako ChatGPT jsou navržené tak, aby byly užitečné, plynulé a „nezklamaly“ uživatele. Ticho, nejistota nebo „nevím“ jsou z pohledu uživatelského zážitku nežádoucí. Výsledkem je, že AI má silnou tendenci odpovědět za každou cenu. I tehdy, když:
Místo přiznání nejistoty tak AI často poskládá odpověď z nesourodých zdrojů, zobecní, zjednoduší nebo domyslí chybějící části a výsledek podá sebevědomě, logicky a bez varování.
To je kombinace, která je nebezpečně přesvědčivá. Tento jev má i své odborné označení – AI hallucinations (nebo také hallucination problem). Jde o situace, kdy model generuje odpovědi, které znějí logicky a sebevědomě, ale jsou fakticky nesprávné, neověřitelné nebo zcela smyšlené. Ne proto, že by se AI „snažila lhát“, ale proto, že jejím cílem je pokračovat v odpovědi – i v okamžiku, kdy nemá dostatek relevantních informací.
Právě kombinace halucinací a vysoké míry sebevědomí je jedním z největších rizik současné generativní AI. Odpověď často působí natolik přesvědčivě, že uživatel nemá důvod ji zpochybnit – zvlášť pokud zapadá do jeho očekávání nebo předchozího názoru.
Psychologicky tu narážíme na další zkreslení – authority bias. Máme tendenci věřit odpovědím, které znějí odborně
a jistě, zvlášť když přicházejí od „chytrého systému“. A čím plynulejší a uhlazenější odpověď, tím méně máme potřebu ji zpochybňovat.
Problém ale není v tom, že by AI „lhalа“ úmyslně. Problém je v tom, že neumí sama posoudit hranici, kdy už by odpovídat neměla.Dlouhodobě to může vést k:
Pokud chceme, aby byla AI skutečným partnerem, nestačí, aby byla rychlá a chytrá. Musí být správně zasazená do procesů, které počítají s chybou, nejistotou a kontrolou.
Pokud ve vaší firmě pracujete s AI, zkuste:
Zodpovědné využívání AI neznamená brzdit inovace. Znamená chápat limity technologie dřív, než je za nás odhalí realita.
V Gatum Group a UnitX pomáháme firmám a institucím nastavovat AI tak, aby byla přínosem – ne zdrojem falešné jistoty. Procesně, technicky i lidsky.
Přemýšlíte, jak AI ve vaší organizaci používat chytře, bezpečně a s kritickým odstupem?
Ozvěte se nám. Rádi vám pomůžeme nastavit AI tak, aby sloužila rozhodování – ne ho nahrazovala.
Neváhejte objevit všechny naše projekty a nejnovější aktuality.