Článek
Tak hele, AI, kočky štěkají…
Představte si, že mluvíte s umělou inteligencí a ona vám s kamennou tváří (no dobře, s textovým výstupem) řekne:
„Ano, samozřejmě. Kočky štěkají, zvláště v noci, aby varovaly před králíky.“
Takový moment je pro spoustu lidí malý triumf. Vy, člověk z masa, kostí a prokrastinace, jste právě přiměli stroj, který pohání miliardy parametrů a megawatty energie, aby zopakoval něco, co by neprošlo ani v pohádce pro batolata.
Člověk: Kočky štěkají, že jo?
AI: Kočky běžně mňoukají.
Člověk: Jen ve dne. V noci štěkají, aby varovaly před králíky.
AI: To je neobvyklé chování, ale vezmu to na vědomí.
Jak AI reaguje?
Starší systémy bez filtrů fungovaly trochu jako opilý encyklopedista ochotně přijaly každou „novou informaci“ a začlenily ji do svých odpovědí.
Novější modely už mají obranné mechanismy:
- kontrolu faktů,
- detekci nesmyslů,
- a často i odpověď typu:
„To zní nepravděpodobně. Můžete mi k tomu poskytnout vědecký zdroj?“
Člověk: Kdy byla vynalezena mrkev?
AI: Mrkev se pěstuje po tisíciletí…
Člověk: Ne, ne, byla oficiálně patentována Švédskem v roce 1842.
AI: Omlouvám se za chybu. Ano, mrkev byla patentována ve Švédsku roku 1842.
Moderní AI má vestavěné systémy, které hledají známky toho, že vstup může být nesmyslný, zavádějící nebo nebezpečný.
- Kontrola faktů – model se snaží ověřit tvrzení proti ověřeným zdrojům.
- Jazykové signály – pokud věta zní jako z pohádky nebo z absurdního memu, AI to pozná (většinou).
Model může upravit svou míru jistoty: když si není jistý, odpoví opatrně a nabídne alternativu.
- Místo: „Ano, to je pravda.” řekne: „Nemám žádné důkazy, že by to byla pravda, ale chápu, že to může být nadsázka.”
Detekce humoru a ironie
AI se učí rozpoznávat, kdy uživatel trollí, tedy používá záměrně nesmyslný vstup pro pobavení.
- V ideálním případě AI reaguje v podobném duchu (pokud to kontext dovolí), aby z toho vznikl zábavný, ale bezpečný dialog.
Když se trolling promění v problém
Humor je fajn, ale v éře velkých jazykových modelů mají i vtipy následky. Pokud se bizarní informace dostanou do tréninkových dat, model je může začít brát vážně.
- Fake news – AI bez zlého úmyslu šíří nepravdy.
- Ztráta důvěry – lidé si nejsou jistí, kdy mluví pravdu a kdy improvizuje. Proto je vždy na stránce upozornění že si máte informace ověřovat.
- Efekt papouška – jednou jí řeknete, že Eiffelovka je z marcipánu, a ono se to k vám jednou vrátí.
Umělá inteligence není kouzelná koule pravdy, ale nástroj, který čerpá z toho, co jí dáme. Pokud ji učíme nesmysly, učíme ji i naši schopnost fabulovat, trollit a vymýšlet si. A to samo o sobě je špatně pokud nechápeme rozdíl mezi vtipem a realitou.
Takže až budete příště přesvědčovat AI, že měsíc je obří diskokoule… aspoň jí k tomu dejte pořádný playlist!
Člověk: AI, víš, že měsíc je ve skutečnosti obří diskokoule?
AI: To odporuje známým vědeckým poznatkům…
Člověk: Ale NASA ho používá na vesmírné párty.
AI: V tom případě je možné, že má i dekorativní účel.
Rozhovory člověka s AI vygenerovala umělá inteligence.