Umělá inteligence dnes odpovídá na všechno. Na otázky jednoduché, složité i vágní – a často i na ty, na které vlastně žádná správná odpověď neexistuje. Přesto odpoví rychle, plynule a s naprostou jistotou.

Ale co když odpověď prostě není správná?

Modely jako ChatGPT jsou navržené tak, aby byly užitečné, plynulé a „nezklamaly“ uživatele. Ticho, nejistota nebo „nevím“ jsou z pohledu uživatelského zážitku nežádoucí. Výsledkem je, že AI má silnou tendenci odpovědět za každou cenu. I tehdy, když:

Místo přiznání nejistoty tak AI často poskládá odpověď z nesourodých zdrojů, zobecní, zjednoduší nebo domyslí chybějící části a výsledek podá sebevědomě, logicky a bez varování.

To je kombinace, která je nebezpečně přesvědčivá. Tento jev má i své odborné označení – AI hallucinations (nebo také hallucination problem). Jde o situace, kdy model generuje odpovědi, které znějí logicky a sebevědomě, ale jsou fakticky nesprávné, neověřitelné nebo zcela smyšlené. Ne proto, že by se AI „snažila lhát“, ale proto, že jejím cílem je pokračovat v odpovědi – i v okamžiku, kdy nemá dostatek relevantních informací.

Právě kombinace halucinací a vysoké míry sebevědomí je jedním z největších rizik současné generativní AI. Odpověď často působí natolik přesvědčivě, že uživatel nemá důvod ji zpochybnit – zvlášť pokud zapadá do jeho očekávání nebo předchozího názoru.

Psychologicky tu narážíme na další zkreslení – authority bias. Máme tendenci věřit odpovědím, které znějí odborně
a jistě, zvlášť když přicházejí od „chytrého systému“. A čím plynulejší a uhlazenější odpověď, tím méně máme potřebu ji zpochybňovat.

Problém ale není v tom, že by AI „lhalа“ úmyslně. Problém je v tom, že neumí sama posoudit hranici, kdy už by odpovídat neměla.Dlouhodobě to může vést k:

Pokud chceme, aby byla AI skutečným partnerem, nestačí, aby byla rychlá a chytrá. Musí být správně zasazená do procesů, které počítají s chybou, nejistotou a kontrolou.

A co z toho plyne pro organizace?

Pokud ve vaší firmě pracujete s AI, zkuste:

Zodpovědné využívání AI neznamená brzdit inovace. Znamená chápat limity technologie dřív, než je za nás odhalí realita.

V Gatum Group a UnitX pomáháme firmám a institucím nastavovat AI tak, aby byla přínosem – ne zdrojem falešné jistoty. Procesně, technicky i lidsky.

Přemýšlíte, jak AI ve vaší organizaci používat chytře, bezpečně a s kritickým odstupem?
Ozvěte se nám. Rádi vám pomůžeme nastavit AI tak, aby sloužila rozhodování – ne ho nahrazovala.

3 minuty čtení

Související témata

AI

Technologie

Umělá inteligence

Další články

Komunitní energetika jako nástroj pro moderní městské části
Rostoucí ceny energií, tlak na snižování emisí a potřeba větší energetické stability vedou města a městské části k hledání nových...
Technický dozor jako klíčový prvek úspěšné digitalizace veřejných služeb
Digitalizace veřejné správy dnes neznamená jen vývoj nového informačního systému. Klíčovou roli hraje také kvalitní příprava, řízení a odborný dohled...
ESG ve veřejné správě: od povinnosti k praktickému řízení udržitelnosti
Téma udržitelnosti, odpovědného řízení a transparentnosti se stále více promítá i do fungování veřejné správy. Evropské legislativní rámce, rostoucí tlak...

Zajímá vás více?

Neváhejte objevit všechny naše projekty a nejnovější aktuality.