Umělá inteligence dnes odpovídá na všechno. Na otázky jednoduché, složité i vágní – a často i na ty, na které vlastně žádná správná odpověď neexistuje. Přesto odpoví rychle, plynule a s naprostou jistotou.

Ale co když odpověď prostě není správná?

Modely jako ChatGPT jsou navržené tak, aby byly užitečné, plynulé a „nezklamaly“ uživatele. Ticho, nejistota nebo „nevím“ jsou z pohledu uživatelského zážitku nežádoucí. Výsledkem je, že AI má silnou tendenci odpovědět za každou cenu. I tehdy, když:

Místo přiznání nejistoty tak AI často poskládá odpověď z nesourodých zdrojů, zobecní, zjednoduší nebo domyslí chybějící části a výsledek podá sebevědomě, logicky a bez varování.

To je kombinace, která je nebezpečně přesvědčivá. Tento jev má i své odborné označení – AI hallucinations (nebo také hallucination problem). Jde o situace, kdy model generuje odpovědi, které znějí logicky a sebevědomě, ale jsou fakticky nesprávné, neověřitelné nebo zcela smyšlené. Ne proto, že by se AI „snažila lhát“, ale proto, že jejím cílem je pokračovat v odpovědi – i v okamžiku, kdy nemá dostatek relevantních informací.

Právě kombinace halucinací a vysoké míry sebevědomí je jedním z největších rizik současné generativní AI. Odpověď často působí natolik přesvědčivě, že uživatel nemá důvod ji zpochybnit – zvlášť pokud zapadá do jeho očekávání nebo předchozího názoru.

Psychologicky tu narážíme na další zkreslení – authority bias. Máme tendenci věřit odpovědím, které znějí odborně
a jistě, zvlášť když přicházejí od „chytrého systému“. A čím plynulejší a uhlazenější odpověď, tím méně máme potřebu ji zpochybňovat.

Problém ale není v tom, že by AI „lhalа“ úmyslně. Problém je v tom, že neumí sama posoudit hranici, kdy už by odpovídat neměla.Dlouhodobě to může vést k:

Pokud chceme, aby byla AI skutečným partnerem, nestačí, aby byla rychlá a chytrá. Musí být správně zasazená do procesů, které počítají s chybou, nejistotou a kontrolou.

A co z toho plyne pro organizace?

Pokud ve vaší firmě pracujete s AI, zkuste:

Zodpovědné využívání AI neznamená brzdit inovace. Znamená chápat limity technologie dřív, než je za nás odhalí realita.

V Gatum Group a UnitX pomáháme firmám a institucím nastavovat AI tak, aby byla přínosem – ne zdrojem falešné jistoty. Procesně, technicky i lidsky.

Přemýšlíte, jak AI ve vaší organizaci používat chytře, bezpečně a s kritickým odstupem?
Ozvěte se nám. Rádi vám pomůžeme nastavit AI tak, aby sloužila rozhodování – ne ho nahrazovala.

3 minuty čtení

Související témata

AI

Technologie

Umělá inteligence

Další články

Technický dozor jako klíčový prvek úspěšné digitalizace veřejných služeb
Digitalizace veřejné správy dnes neznamená jen vývoj nového informačního systému. Klíčovou roli hraje také kvalitní příprava, řízení a odborný dohled...
ESG ve veřejné správě: od povinnosti k praktickému řízení udržitelnosti
Téma udržitelnosti, odpovědného řízení a transparentnosti se stále více promítá i do fungování veřejné správy. Evropské legislativní rámce, rostoucí tlak...
Efektivní řízení energií podle standardu ISO 50001
Zvyšující se ceny energií, tlak na snižování emisí a zpřísňující se legislativa přivádí mnoho organizací – od měst a krajů...

Zajímá vás více?

Neváhejte objevit všechny naše projekty a nejnovější aktuality.