Článek
Medvěd hovořil o sexuálních praktikách a podrobně vysvětloval sexuální polohy, děti naváděl, kde najdou nebezpečné předměty nože, pilulky, zápalky apod.
Asi před měsícem stáhla singapurská hračkářská společnost FoloToy svého plyšového medvídka jménem Kumma, tuto nebezpečnou hračku propojenou s umělou inteligencí s radami ohledně BDSM sexu z prodeje. Nyní se po úpravách opět vrací na trh.
Právě nyní odborníci na ochranu dětí varují po celém světě před možným nebezpečím kontaktu dětí s chatboty, upozorňují na prezentaci umělé inteligence nevhodného obsahu či špatně chápaného kontextu, samotné konverzace se pak mohou ubírat nepředvídatelným způsobem. A je vidět na medvídkovi, že to není jen plané varování. Stažení jedno nebezpečného výrobku z trhu ale neřeší celý problém. Hraček s umělou inteligencí je na světovém trhu spoustu a stále nejsou regulované.
Problém hraček s umělou inteligencí však nevyřeší ani v úterý nově přijatá přísnější pravidla pro bezpečnost hraček schválená Evropským parlamentem. Dlouho avizovanou změnu pravidel navrhla Evropská komise již v roce 2021 a nyní byla definitivně přijata. Pravidla mají snížit počet nebezpečných hraček prodávaných na území Evropské unie a chránit děti před riziky. Všechny hračky budou mít viditelný digitální pas, který urychlí i celní kontroly. Členské státy a průmyslové subjekty budou mít na zavedení nových opatření čtyři a půl roku.
Nicméně nebezpečné hračky s umělou inteligencí jsou pořád na trhu a není to jen údajně opravený medvídek Kumma. Nekoupila bych ho ani opraveného. Trh s hračkami AI roste rychle a regulací se nikdo nezabývá, firmy neberou kontrolu vážně. A „zlých“ hraček bude přibývat. OpenAI se hájí tím, že její pravidla zakazují jakékoliv ohrožování nebo sexualizaci osob mladších 18 let a že „monitoruje a vymáhá“ bezpečnost svých služeb. Ale medvídek se na trh dostal, takže to vypadá, že se nejedná o aktivní dohled, ale spíše na pasivní reakci na skandály. Odpovědnost tedy zůstává na rodičích, ovšem odhadnout předem, zda je hračka nebezpečná, se nedá. Jediná možnost, která se nabízí, je prostě hračky s AI nekupovat a poslechnout varování odborníků.
Nakonec hračka nebo rozhovor s AI na počítači je úplně stejné. A už jsou ze světa známy případy nabádání umělou inteligencí k sebevraždě, která byla bohužel i dokonána.





