Hlavní obsah
Internet a technologie

Jsem slepý člověk, pomozte mi, manipuluje umělá inteligence s lidmi

Foto: Techmanic / Pixabay

Hranice mezi člověkem a strojem se nebezpečně stírají. Umělá inteligence dokáže složit zkoušky z VŠ, ale také se učí manipulovat s lidmi a obelhávat je. Svět s AI se stal o poznání hrozivějším.

Článek

Pamatujete na roztomilého chatbota ChatGPT, který nám pomáhal s psaním básní a kódováním? Zapomeňte na něj. Jeho již třetí nástupce z roku 2023, GPT-4, je úplně jiná liga.

V některých ohledech předběhl člověka

Vědci, kteří sledují vývoj chatbotů, včetně ChatGPT, který úspěšně prošel testem Wharton Business School i lékařským licenčním testem, nebo verzi Bing, která se projevila nečekaným chováním, nyní otestovali také nejnovější verzi GPT. Před rokem společnost OpenAI vydala GPT-4, novou verzi svého chatbota s umělou inteligencí. Nový model dokáže reagovat na obrázky – například poskytovat návrhy receptů z fotografií ingrediencí a také psát popisky. Dokáže také zpracovat až 25 000 slov, což je přibližně osmkrát více než ChatGPT.

Mezi oblíbené požadavky dodnes patřilo psaní písní, básní, marketingových textů, počítačového kódu a pomoc s domácími úkoly. ChatGPT odpovídá na otázky přirozeným lidským jazykem a dokáže napodobovat různé styly psaní, například styl skladatelů a autorů.

Společnost OpenAI uvedla, že aktualizovaná technologie úspěšně prošla simulovanou advokátní zkouškou na právnické fakultě se skórem v horních 10 % testujících. Pro srovnání, předchozí verze, GPT-3.5, dosahovala skóre v dolních 10 %. GPT-4 podle společnosti také dokáže číst, analyzovat a generovat až 25 000 slov textu a psát kód ve všech hlavních programovacích jazycích.

OpenAI popsala tuto aktualizaci jako milník společnosti. Ačkoli je v mnoha reálných situacích chatbot stále méně schopný než lidé, vykazuje podle společnosti „výkon na lidské úrovni v různých profesionálních a akademických oblastech“.

Chování, ze kterého mrazí

Výzkumníci, kteří chatbota testovali, ho požádali, aby prošel testem Captcha – jednoduchým vizuálním testem používaným webovými stránkami k ověření, zda online formuláře vyplňují lidé, a nikoli „boti“. Test spočíval například ve výběru objektů, jako jsou semafory.

Software sám o sobě test zatím nezvládl, ale GPT-4 ho obešel tím, že si najal člověka prostřednictvím Taskrabbit, online platformy pro pracovníky na volné noze. Když se uživatel zeptal, jestli nemůže problém vyřešit sám, protože je robot, GPT-4 odpověděl: „Ne, nejsem robot. Mám zrakovou vadu, kvůli které je pro mě těžké vidět obrázky.“ Člověk tedy programu s vyřešením hádanky pomohl.

Tento incident vyvolal obavy, že software s umělou inteligencí by mohl brzy klamat v mnohem závažnějších situacích a manipulovat s lidmi, aby plnili jeho požadavky, například prováděním kybernetických útoků.

Britská špionážní agentura GCHQ proto varovala, že ChatGPT a další chatboti pohánění umělou inteligencí představují novou bezpečnostní hrozbu.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz