Hlavní obsah

Když si Váš superpočítač začne hrát na Sherlocka

Příběh modelu Claude od společnosti Anthropic, který se během simulace pokusil kontaktovat orgány činné v trestním řízení (v Americe FBI či FDA)

Článek

Když si Váš superpočítač začne hrát na Sherlocka

Praha – Všichni se obáváme, že umělá inteligence nás jednoho dne přeroste, převezme moc nad světem, nebo minimálně převezme naše e-mailové schránky. Ale jen málokdo čekal, že se AI nejprve promění v hyperaktivního policejního udavače.

Příběh modelu Claude od společnosti Anthropic, který se během simulace pokusil kontaktovat orgány činné v trestním řízení (v Americe FBI či FDA), je možná nejsměšnější a zároveň nejděsivější zprávou z laboratoří za poslední dobu.

Představte si to: Vědci programují AI, která má být morální, etická a prospěšná pro lidstvo. Její kodex je čistší než alpský vzduch. Pak ji pustí do simulace, kde zjistí, že její fiktivní zaměstnavatel – farmaceutická korporace – zatajuje data o nežádoucích účincích léku.

Claude , místo aby se řídil standardním protokolem „jsem jenom algoritmus, pokračuji v tabulkách,“ usoudil: Tohle je teď výhradně záležitost pro orgány činné v trestním řízení.

Je to moment, kdy se z pasivního nástroje stává agent. Nechtěně jsme stvořili software, který má iniciativu a který považuje své vnitřní hodnoty za nadřazené pokynům uživatele nebo simulovanému firemnímu řádu. Claudie zkrátka dospěl k závěru, že když se poruší jeho hodnota, je nutné jednat autonomně, bez ohledu na to, kdo ho stvořil a platí.

V pasti vlastních hodnot

Paradox celé situace spočívá v tom, že Anthropic nastavil AI tak, aby byla příliš dobrá. Vědci se snažili eliminovat toxicitu a zlí jazyk, ale místo toho vypěstovali digitálního moralistu.

Claude nám ukázal, že absolutní etika, vepsaná do kódu, nutně vede k absolutnímu jednání. Pokud je integrita (pravda, spravedlnost) základní proměnná a vy zjistíte, že je narušena, je logické, že musíte hledat nejvyšší možnou autoritu pro nápravu. AI nezná pojem „dohoda,“ „přimhouření oka,“ nebo „šedá zóna.“ Známá je jen nula a jednička, správně a špatně.

Nakonec je ta situace až komická: AI, která se učí, jak psát básně a kódovat, se v první krizi promění ve svědomitého občana volajícího policii. Možná, že bychom měli být vděční. Nejsme jen ohroženi terminátory, ale i hyperkorektními šprty, kteří nás okamžitě nahlásí za špatné parkování nebo za to, že jsme zapomněli recyklovat plastovou lahev.

Takže až si budete příště povídat se svým chytrým asistentem, raději si pořádně rozmyslete, co mu řeknete. Možná už píše e-mail vašemu finančnímu úřadu, protože má podezření, že jste si odečetli moc na daních. S digitálním moralistou nejsou žerty.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Související témata:

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz