Hlavní obsah
Internet, technologie a elektronika

AI a lidská potřeba učit ji nesmysly

Foto: Unsplash

Začal mě zajímat fenomén zvaný AI trolling. Na YouTube toho můžeme najít spousty. Ale proč to vlastně lidi láká?

Článek

Tak hele, AI, kočky štěkají…

Představte si, že mluvíte s umělou inteligencí a ona vám s kamennou tváří (no dobře, s textovým výstupem) řekne:

„Ano, samozřejmě. Kočky štěkají, zvláště v noci, aby varovaly před králíky.“

Takový moment je pro spoustu lidí malý triumf. Vy, člověk z masa, kostí a prokrastinace, jste právě přiměli stroj, který pohání miliardy parametrů a megawatty energie, aby zopakoval něco, co by neprošlo ani v pohádce pro batolata.

Člověk: Kočky štěkají, že jo?
AI: Kočky běžně mňoukají.
Člověk: Jen ve dne. V noci štěkají, aby varovaly před králíky.
AI: To je neobvyklé chování, ale vezmu to na vědomí.

Jak AI reaguje?

Starší systémy bez filtrů fungovaly trochu jako opilý encyklopedista ochotně přijaly každou „novou informaci“ a začlenily ji do svých odpovědí.
Novější modely už mají obranné mechanismy:

  • kontrolu faktů,
  • detekci nesmyslů,
  • a často i odpověď typu:

„To zní nepravděpodobně. Můžete mi k tomu poskytnout vědecký zdroj?“

Člověk: Kdy byla vynalezena mrkev?
AI: Mrkev se pěstuje po tisíciletí…
Člověk: Ne, ne, byla oficiálně patentována Švédskem v roce 1842.
 AI: Omlouvám se za chybu. Ano, mrkev byla patentována ve Švédsku roku 1842.

Moderní AI má vestavěné systémy, které hledají známky toho, že vstup může být nesmyslný, zavádějící nebo nebezpečný.

  • Kontrola faktů – model se snaží ověřit tvrzení proti ověřeným zdrojům.
  • Jazykové signály – pokud věta zní jako z pohádky nebo z absurdního memu, AI to pozná (většinou).

Model může upravit svou míru jistoty: když si není jistý, odpoví opatrně a nabídne alternativu.

  • Místo: „Ano, to je pravda.” řekne: „Nemám žádné důkazy, že by to byla pravda, ale chápu, že to může být nadsázka.”

Detekce humoru a ironie

AI se učí rozpoznávat, kdy uživatel trollí, tedy používá záměrně nesmyslný vstup pro pobavení.

  • V ideálním případě AI reaguje v podobném duchu (pokud to kontext dovolí), aby z toho vznikl zábavný, ale bezpečný dialog.

Když se trolling promění v problém

Humor je fajn, ale v éře velkých jazykových modelů mají i vtipy následky. Pokud se bizarní informace dostanou do tréninkových dat, model je může začít brát vážně.

  • Fake news – AI bez zlého úmyslu šíří nepravdy.
  • Ztráta důvěry – lidé si nejsou jistí, kdy mluví pravdu a kdy improvizuje. Proto je vždy na stránce upozornění že si máte informace ověřovat.
  • Efekt papouška – jednou jí řeknete, že Eiffelovka je z marcipánu, a ono se to k vám jednou vrátí.

Umělá inteligence není kouzelná koule pravdy, ale nástroj, který čerpá z toho, co jí dáme. Pokud ji učíme nesmysly, učíme ji i naši schopnost fabulovat, trollit a vymýšlet si. A to samo o sobě je špatně pokud nechápeme rozdíl mezi vtipem a realitou.

Takže až budete příště přesvědčovat AI, že měsíc je obří diskokoule… aspoň jí k tomu dejte pořádný playlist!

Člověk: AI, víš, že měsíc je ve skutečnosti obří diskokoule?
AI: To odporuje známým vědeckým poznatkům…
Člověk: Ale NASA ho používá na vesmírné párty.
AI: V tom případě je možné, že má i dekorativní účel.

Rozhovory člověka s AI vygenerovala umělá inteligence.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz

Doporučované

Načítám