Článek
Pamatujete na roztomilého chatbota ChatGPT, který nám pomáhal s psaním básní a kódováním? Zapomeňte na něj. Jeho již třetí nástupce z roku 2023, GPT-4, je úplně jiná liga.
V některých ohledech předběhl člověka
Vědci, kteří sledují vývoj chatbotů, včetně ChatGPT, který úspěšně prošel testem Wharton Business School i lékařským licenčním testem, nebo verzi Bing, která se projevila nečekaným chováním, nyní otestovali také nejnovější verzi GPT. Před rokem společnost OpenAI vydala GPT-4, novou verzi svého chatbota s umělou inteligencí. Nový model dokáže reagovat na obrázky – například poskytovat návrhy receptů z fotografií ingrediencí a také psát popisky. Dokáže také zpracovat až 25 000 slov, což je přibližně osmkrát více než ChatGPT.
Mezi oblíbené požadavky dodnes patřilo psaní písní, básní, marketingových textů, počítačového kódu a pomoc s domácími úkoly. ChatGPT odpovídá na otázky přirozeným lidským jazykem a dokáže napodobovat různé styly psaní, například styl skladatelů a autorů.
Společnost OpenAI uvedla, že aktualizovaná technologie úspěšně prošla simulovanou advokátní zkouškou na právnické fakultě se skórem v horních 10 % testujících. Pro srovnání, předchozí verze, GPT-3.5, dosahovala skóre v dolních 10 %. GPT-4 podle společnosti také dokáže číst, analyzovat a generovat až 25 000 slov textu a psát kód ve všech hlavních programovacích jazycích.
OpenAI popsala tuto aktualizaci jako milník společnosti. Ačkoli je v mnoha reálných situacích chatbot stále méně schopný než lidé, vykazuje podle společnosti „výkon na lidské úrovni v různých profesionálních a akademických oblastech“.
Chování, ze kterého mrazí
Výzkumníci, kteří chatbota testovali, ho požádali, aby prošel testem Captcha – jednoduchým vizuálním testem používaným webovými stránkami k ověření, zda online formuláře vyplňují lidé, a nikoli „boti“. Test spočíval například ve výběru objektů, jako jsou semafory.
Software sám o sobě test zatím nezvládl, ale GPT-4 ho obešel tím, že si najal člověka prostřednictvím Taskrabbit, online platformy pro pracovníky na volné noze. Když se uživatel zeptal, jestli nemůže problém vyřešit sám, protože je robot, GPT-4 odpověděl: „Ne, nejsem robot. Mám zrakovou vadu, kvůli které je pro mě těžké vidět obrázky.“ Člověk tedy programu s vyřešením hádanky pomohl.
Tento incident vyvolal obavy, že software s umělou inteligencí by mohl brzy klamat v mnohem závažnějších situacích a manipulovat s lidmi, aby plnili jeho požadavky, například prováděním kybernetických útoků.
Britská špionážní agentura GCHQ proto varovala, že ChatGPT a další chatboti pohánění umělou inteligencí představují novou bezpečnostní hrozbu.
Zdroje: X, Lega insurrection