Článek
Co já bych vám tak řekl… Jasně, někdy se ty úvodníky píšou samy, někdy je to těžké. Tenhle týden byl ve znamení nových jazykových modelů, OpenAI, Mistral, Groq. A zprávy o nich trochu zastínily zbytek dění. Přesto, že i já se novým modelům věnuji, chci Vás ujistit, že bez ohledu na jejich výsledky v benchmarcích, nemá cenu skákat každý týden na novou AI službu. To, že je nějaký model v konkrétním benchmarku lepší, nemusí znamenat vůbec nic. Já jsem třeba nadšený ze schopností modelu Sonnet 3.5, jenže problém je, že mi nějak nesedí styl, jakým podává výstupy. Jasně, můžu si je upravit. Ale proč bych to dělal, když mám k dispozici další LLM, které pracují tak, jak se mi to líbí. Užijte si neděli, ideálně analogovou…
A nezapomeňte si pustit dnešní písničku! Fakt.
🍓 OpenAI pracuje na projektu Jahoda, a bude to dobré! Velcí AI lídři mezitím vytvořili koalici pro bezpečnou AI. Mistral má nové LLM, je malé, ale šikovné. A na závěr smutná zpráva o tom, jak bude EU omezována v přístupu k AI.
⏯️ Dneska je to pecka nejlepší. Je dost možné, že si hudbu co tady nabízím nepouštíte. A je to v pořádku. Ale tuhle… tuhle si pustit chcete. A protože vás mám rád, tak vám nabízím hned dvě verze! Budu rád, když mi řeknete, která je ta vaše - kterou si pamatujete z rádia.
1. Break My Stride - Matthew Wilder - tohle je původní verze z roku 83. Ten klip fakt musíte vidět!
2. Tady máte verzi od Unique II. Diskotéka jako bič.
Těch verzí je mnohem víc, ale tyhle dvě jsou základ. Vůbec se nestyďte a pusťte si je klidně víckrát za sebou. Od té doby, co jsem na ně narazil ve svém playlistu mi na Spotify hraje většinou Break My Stride Radio… Tedy, samozřejmě, pokud mi nehraje Let It Go z Frozen. Mám totiž doma Elsu, a taky Annu. A já jsem prý Swen (to je sob…).
1️⃣ Chápu, že Vás to už může nudit, ale zase OpenAI. Tento týden jsem viděl na LI několikrát zmínku o tom, že OpenAI vytvořilo interní hodnotící systém pro AI. Přesto, že to vypadá jako velká zpráva, myslím, že se v tom nemusíme nějak dlouho plácat. Tedy, toto je pětistupňové rozdělení AI podle OpenAI:
- Chatboti, konverzační AI. To je úroveň, na které se podle OpenAI aktuálně nacházejí jejich modely GPT-4.
- Uvažování schopná AI (reasoners) - řešení problémů na úrovni člověka (popisováno jako schopnost logického myšlení na úrovni člověka s PhD, ale bez nástrojů).
- Agenti, systémy, které mohou jednat jménem uživatele.
- Inovátoři, AI, která dokáže přicházet s vlastními inovacemi a nápady.
- Organizační AI - AI, která dokáže vykonávat práci za celé společnosti.
Prezentovalo se to jako veliká věc, ale - upřímně, mě to zase nějak extra nedojímá. Prostě stupnice. Co je mnohem, mnohem zajímavější, to je projekt Strawberry. OpenAItotiž intenzivně pracuje na vývoji nové technologie uvažování. Co to má společného s výše uvedenou stupnicí? Jen to, že Strawberry by měl na stupnici mít hodnocení dvě. Ačkoli konkrétní technické detaily zůstávají přísně střežené, očekává se, že nová technologie výrazně rozšíří schopnosti stávajících AI modelů. Mohla by umožnit umělé inteligenci provádět složité myšlenkové operace, které byly dosud výsadou lidského intelektu.
Co třeba systém umělé inteligence, který by dokázal analyzovat komplexní problémy z různých úhlů pohledu, zpracovávat obrovské objemy dat a extrahovat z nich relevantní informace, nebo činit rozhodnutí na základě multifaktorové analýzy. To vše při zachování schopnosti abstraktního myšlení a generalizace. S tak pokročilou technologií umělé inteligence však nevyhnutelně vyvstávají i etické a bezpečnostní otázky. OpenAI bude muset řešit témata jako zajištění transparentnosti a vysvětlitelnosti rozhodovacích procesů AI, implementace robustních bezpečnostních protokolů proti zneužití, či řešení potenciálních dopadů na trh práce a společenskou strukturu.
Odhalení projektu ‚Strawberry‘ pravděpodobně vyvolá rychlou reakci v technologickém sektoru. Lze očekávat, že konkurenční společnosti zintenzivní svůj výzkum a vývoj v oblasti AI. Investoři možná přehodnotí své strategie ve vztahu k AI technologiím. A nelze vyloučit ani regulatorní opatření ze strany vládních orgánů, která by měla za cíl usměrnit vývoj a využití takto pokročilé umělé inteligence.
Přesný harmonogram vývoje a uvedení technologie ‚Strawberry‘ do praxe zatím není znám. Vzhledem k rychlému tempu inovací v oblasti AI lze však předpokládat, že OpenAI bude v nadcházejících měsících postupně zveřejňovat více informací o projektu. Mohli bychom se dočkat i prvních demonstrací schopností této nové technologie.
Mimochodem - loni se hodně mluvilo o „Projektu Q“, psal jsem o něm i já, trochu se spekulovalo, jestli nejde o nějakou formu AGI. Tak pro informaci, projekt Strawberry je projekt Q.
Abych nezapomněl, když mluvíme o OpenAI. Tento týden byl představen i nový LLM GPT 4o mini. Pro běžné uživatele je to zpráva nepříliš zásadní, pokud ale někdo přistupuje přes API, mohlo by ho to zajímat. GPT 4o mini je totiž schopnější než původní GPT 3.5, která byla pořád hojně používaná, a zároveň je také výrazně (výrazně!!) levnější.
Detaily o projektu Strawberry přinesl Reuters a jestli Vás zajímá GPT 4o mini, pak doporučuji zavítat přímo na stránky OpenAI.
2️⃣ Bezpečnost AI. Téma, o kterém se píše v každém druhém článku o umělé inteligenci. A zrovna tohle téma nemá moc smysl řešit, pokud by se diskuze o něm neúčastnili i největší hráči na hřišti umělé inteligence. A do toho všecho čerstvě vstupuje CoSAI. Koalice pro bezpečnou umělou inteligenci.
Dne 18. července 2024 byla na Aspen Security Forum oznámena Koalice pro bezpečnou AI (CoSAI), kterou hostí globální standardizační organizace OASIS Open. Tato otevřená iniciativa si klade za cíl poskytnout všem odborníkům a vývojářům nástroje a pokyny potřebné k vytváření systémů AI navržených s ohledem na bezpečnost (Secure-by-Design).
Koalice pro bezpečnou AI byla založena s následujícími hlavními cíli:
- Vývoj otevřených standardů a osvědčených postupů: CoSAI se zaměřuje na vývoj otevřených standardů, které budou zahrnovat bezpečnostní protokoly, etické směrnice a rámce pro zodpovědné nasazení AI.
- Podpora spolupráce mezi sektory: Iniciativa podporuje spolupráci mezi akademickou sférou, průmyslem a vládními institucemi.
- Vzdělávání a osvěta: CoSAI si klade za cíl zvyšovat povědomí o rizicích a příležitostech spojených s AI. Organizace bude poskytovat vzdělávací materiály, pořádat workshopy a konference zaměřené na bezpečnost AI.
Koalice je otevřena širokému spektru členů, včetně technologických společností, výzkumných institucí, vládních agentur a neziskových organizací. Mezi zakládající členy patří významné technologické společnosti jako Google, OpenAI, Microsoft, Amazon, Nvidia, Intel, IBM, PayPal, Cisco a Anthropic. Členové budou mít přístup k široké škále zdrojů a budou mít možnost podílet se na tvorbě standardů a směrnic.
CoSAI se zaměří na několik klíčových oblastí, které jsou zásadní pro bezpečnost AI:
- Bezpečnost dat a ochrana soukromí: Vývoj standardů pro bezpečné zpracování a ukládání dat, které jsou základem pro trénink AI modelů. To zahrnuje ochranu proti krádeži modelů, otravě dat, injekci promptů, zneužití v měřítku a útokům na inferenci.
- Transparentnost a vysvětlitelnost AI: Zajištění, že AI systémy jsou transparentní a jejich rozhodnutí jsou vysvětlitelná. To je klíčové pro budování důvěry mezi uživateli a AI technologiemi.
- Etika a zodpovědnost: Vytvoření etických rámců, které zajistí, že AI technologie budou používány zodpovědně a nebudou zneužívány. To zahrnuje řešení problémů jako je únik důvěrných informací a automatizovaná diskriminace.
Když to tak čtu, mám pocit, že CoSAI je organizací vzniklou s ohledem na AI Act a v souladu s ním. Ale asi to je jen můj dojem…
V počáteční fázi se CoSAI zaměří na vytvoření pracovních skupin, které budou řešit specifické výzvy v oblasti bezpečnosti AI. Tyto skupiny budou složeny z odborníků z různých oblastí a budou pracovat na vývoji prvních verzí standardů a směrnic. Do budoucna pak CoSAI plánuje rozšířit své aktivity na globální úroveň a spolupracovat s mezinárodními organizacemi na harmonizaci standardů pro bezpečnost AI.
Pokud vás tohle téma zaujalo, nejlépe bude, když zamíříte přímo na oficiální stránky CoSAI.
3️⃣ Protože umělá inteligence, to není jen OpenAI a jeho modely, musíme si říct také něco o novince od Mistralu (taky je to Evropská společnost, takže fandíme…), kterou představil spolu s NVIDIÍ.
Ty totiž nedávno odhalily svůj nejnovější jazykový model Mistral NeMo 12B. Tento model představuje řadu nových funkcí a vylepšení. Jak název napovídá, je NeMo je 12 miliardový parametrický model. Tato velikost ho řadí do kategorie středně velkých modelů, což mu umožňuje dosáhnout rovnováhy mezi výkonem a efektivitou. Navzdory své relativně menší velikosti ve srovnání s některými konkurenčními modely, Mistral NeMo 12B vykazuje pozoruhodný výkon. V mnoha úlohách překonává i větší modely, což dokazuje efektivitu jeho návrhu a tréninkového procesu. Model vyniká zejména v mnohojazyčném zpracování, což rozšiřuje jeho potenciální využití na globální úrovni. Je schopen pracovat s různými jazyky a překládat mezi nimi s vysokou přesností.
Při vývoji NeMo byl kladen důraz zejména na jeho škálovatelnost. To znamená, že může být efektivně nasazen na různých hardwarových konfiguracích, od jednotlivých GPU až po rozsáhlé clustery. Model využívá pokročilé techniky trénování, včetně distribuovaného učení a optimalizace datových toků. NVIDIA navíc přispěla svými expertními znalostmi v oblasti hardwarové akcelerace, což vedlo k významným optimalizacím při inferenci modelu. To se projevuje v nižší latenci a vyšší propustnosti při praktickém nasazení.
Vývojáři věnovali značné úsilí také minimalizaci předpojatosti v modelu. Byly implementovány pokročilé techniky pro detekci a zmírnění nežádoucích předsudků v tréninkovém datasetu. Model navíc obsahuje vestavěné bezpečnostní mechanismy, které mají zabránit generování škodlivého nebo nevhodného obsahu. Tyto mechanismy zahrnují filtrování obsahu a detekci potenciálně nebezpečných výstupů.
Právě díky tomu, že model byl od počátku připravován s důrazem na škálovatelnost, plánuje Mistral další úpravy s cílem dosáhnout vyššího výkonu při zachování efektivity, stejně tak vývojáři zvažují přípravu specializovaných verzí modelu, např. pro využití ve zdravotnictví, nebo jako základní jazykový model pro právní oblast.
Já osobně trend menších a přitom výkonných modelů vítám. Uvidíme, jak si povede NeMo v reálných případech, ale třeba překvapí stejně jako Sonnet 3.5. Mimochodem - Groq také vydal nové jazykové modely, a podle benchmarků v některých ohledech překonávají již zmíněný Sonnet 3.5. To jsou věci…
Podrobně o novém modelu od Mistralu píše Forbes.
4️⃣ Na konec zpráva, která řadu mých čtenářů nepotěší… Meta, technologický gigant známý pro své multimodální AI modely (a taky Facebook…), oznámil, že jeho nadcházející modely nebudou prozatím dostupné v zemích Evropské unie. Toto rozhodnutí je reakcí na přísné regulace v EU, které Meta označila za nepředvídatelné. Tento krok následuje podobné rozhodnutí společnosti Apple, která také omezila dostupnost svých AI produktů v Evropě.
Meta plánuje uvolnit nový multimodální model Llama, který bude schopen pracovat s textem, videem, zvukem a obrázky. Tento model má prý mít potenciál změnit chatboty, generování obsahu, překlady a další oblasti. Nicméně, tento model nebude dostupný pro uživatele v EU kvůli regulačním výzvám.
Meta uvedla, že evropské regulační prostředí je příliš nepředvídatelné, což je hlavní důvod, proč se rozhodla modely v EU neuvolnit. Evropská unie má dlouhodobě přísné pravidla ochrany soukromí (GDPR). Nelze ale zapomínat ani na Digital Services Act (DSA) a Digital Markets Akt (DMA). A nově… hádejte?! AI Act. Toto rozhodnutí může mít významný dopad na produkty Meta v Evropě, včetně platforem jako Facebook a WhatsApp, které by mohly být omezeny v integraci nových AI technologií. Meta se dlouhodobě zaměřuje na vývoj přístupných, open-source modelů, které mohou být využívány různými společnostmi a výzkumnými institucemi. Právě díky Open Source povaze lze předpokládat, že nové jazykové modely budou v EU dostupné, ale nebude dostupná jejich přímá integrace do produktů od Meta.
Je zajímavé, že velké technologické společnosti často po regulaci samy volají, a obecně vítají vládní regulace, ale často pak nesouhlasí s konkrétními pravidly, která se jich přímo mají týkat. Regulace v Evropě jsou navrženy tak, aby chránily uživatele a obchodní prostředí, ale mohou být v rozporu s nejnovějšími technologickými produkty. Meta a Apple jsou prvními společnostmi, které oznámily omezení dostupnosti svých AI produktů v EU, ale je dost dobře možné, že další společnosti budou následovat. I když, i díky velikosti EU trhu lze předpokládat, že jde pouze o dočasné řešení.
Všem, kdo ještě nejsou smutní, doporučuji čtení na CNET.
📲 Dost lidí je nadšených ze, stále ještě nového, modelu od Anthropicu ve verzi 3.5 (Sonnet :)). Zejména na komplexnější práci s textem se zdá, že je kvalitnější, než GPT 4o. Pokud jste už Sonnet vyzkoušeli a chybělo Vám tak nějak větší sepětí, nebo jste naopak zatím Sonnet vynechávali, právě proto, že neměl nativní apku pro Android, tak hurá. Claude ji totiž tento týden vypustil - tady na oficiálních stránkách je k tomu více informací a odkaz na Google Play na stažení. Aplikace umožňuje pohodlnější fungování, než na mobilním webu, a zároveň zachovává všechny funkce.
🤝 Toto číslo zpravodAIe vyšlo opět s podporou advokátní kanceláře ARROWS ETL
Díky, že mě čtete. Díky, že mě sdílíte, a že o AI mluvíte a zajímáte se o ni. Pokud se Vám zpravodAI líbí a považujete informace v něm za užitečné, sdílejte ho. Osvětu v AI považuji za naprostý základ na cestě k budoucnosti.
ZpravodAI vychází primárně na mém profilu na LinkedIn.
Chcete se stát partnery zpravodAIe? Napište mi!
ZpravodAI je nově dostupný také na mém profilu na Seznam Medium. Pokud si myslíte, že víte o něčem, co by se mělo ve zpravodAI objevit, napište mi. Možná děláte na nějakém super AI projektu, možná používáte nástroj, který není známý, nebo prostě jen víte o něčem skvělém, co byste rádi šířili dál. Jestli se mi totiž něco stále potvrzuje, tak to, že AI je tak široké téma, že jedině sdílením jsme schopni ho nějak komplexněji pojmout.