Hlavní obsah
Internet, technologie a elektronika

Apple platí miliardu za Siri, Gemini vidí obrazovku a ChatGPT dostává appky

Foto: gemini ai

Apple řeší Siri přes Gemini, Google tlačí Gemini 3 Flash a automatický kontext obrazovky, OpenAI přidává appky do ChatGPT a Gemini dostává Super GEMy pro workflow.

Článek

Apple: miliardová injekce pro opravu Siri

Apple údajně finalizuje dohodu, podle které má Googlu platit zhruba 1 miliardu dolarů ročně za využití modelu Gemini, aby konečně rozchodil dlouho slibovaný „upgrade“ Siri. Je zajímavé, že Apple prý zvažoval i modely od OpenAI a Anthropic, ale nakonec se měl přiklonit ke Googlu, což zní jako docela pragmatické „dobře, tak to uděláme pořádně“. Celé to působí jako přiznání, že interní AI Apple zatím nestačí a Siri potřebuje opravit… včera bylo pozdě.

Konkrétně se mluví o tom, že Gemini má v Siri obsluhovat nové funkce typu „shrnutí“ a „plánování“ – tedy přesně ty schopnosti, které od asistenta čekáme, když mu řekneme něco složitějšího než „nastav budík“. Interně má mít tenhle redesign krycí jméno „Linwood“ a plánované vydání „příští jaro“, takže tlak na termín je evidentní. A upřímně: jestli Siri konečně pochopí kontext a nebude odpovídat jak z roku 2014, tak ať klidně běží na čemkoli.

Zajímavý je i privacy spin: článek tvrdí, že model Gemini by měl běžet na Apple infrastruktuře v rámci Private Cloud Compute, takže „používáme Google“, ale zároveň „data neposíláme Googlu“. Přesně tohle je typický Apple přístup: klidně si půjčit špičkový mozek, ale trvat na tom, že se to bude dít v „jejich“ bezpečné bublině. A pro uživatele je to vlastně ideální kompromis, pokud bude fungovat.

Celé to má být krátkodobý most – Apple si tím kupuje čas, zatímco dál vyvíjí vlastní (velký) model a dlouhodobě míří spíš na on-device AI, tedy menší a efektivní modely přímo v zařízení. To dává smysl: cloud umí výkon, zařízení umí soukromí a okamžitou odezvu. A Apple chce zjevně obojí, jen to zatím neumí dodat čistě sám.

Nejvtipnější (a nejpravdivější) je závěr: investoři ani běžní uživatelé často neřeší, kdo model vyrobil – chtějí, aby to prostě fungovalo. Siri je dlouhodobě slabé místo a tahle dohoda je nejkratší cesta k tomu, aby Apple přestal vysvětlovat a začal doručovat. Pokud se to povede, bude to možná největší „tichý“ upgrade iPhonů za poslední roky, protože dobrý asistent změní každodenní používání víc než o 0,3 mm tenčí tělo.

Google Gemini: automatický „screen context“ bez klikání

Gemini dostává funkci, která zní banálně, ale v praxi je obrovská: dokáže si automaticky vzít kontext z toho, co máte právě na obrazovce, aniž byste museli mačkat tlačítko typu „Ask about screen“. Pointa je jednoduchá – když se zeptáte „co znamená tahle chyba?“ nebo „shrň mi tohle“, Gemini může udělat screenshot, analyzovat ho a odpovědět přímo k věci. A to napříč aplikacemi, weby, dokumenty, obrázky, dokonce i video snímky.

Tohle je přesně ten typ „nižší třecí plochy“, který z asistenta udělá návykovou věc. Místo abyste přepínali, kopírovali text, posílali odkazy a vysvětlovali „myslím tu věc vpravo nahoře“, prostě se zeptáte jako člověk. Google to navíc rámuje jako pokračování své dlouhé historie kontextových funkcí (Now on Tap / Screen Search / Circle to Search) – akorát teď to není vyhledávání, ale generativní asistent, který má být proaktivní.

Zároveň se tu okamžitě otevírá otázka soukromí, a článek naštěstí popisuje i ovládání: při příchodu funkce se má ukázat onboarding karta a bude existovat přepínač, kterým to lze vypnout. Na Androidu má uživatel explicitně povolit snímání obrazovky a některé aplikace (banky, streamovací služby) zůstávají chráněné přes FLAG_SECURE, takže screenshoty z nich Gemini neuvidí. Plus by se neměly brát věci z privátních režimů typu inkognito.

Prakticky to bude hodně o tom, jak dobře Gemini pozná, že se ptáte na něco „na obrazovce“ a ne obecně. Podle článku víc fungují explicitní formulace („vysvětli tohle okno“, „shrň stránku na obrazovce“), zatímco vágní dotazy mohou skončit odpovědí bez kontextu. A v prvních testech to prý může být „hit-or-miss“, zhruba „polovinu času a víc“ podle formulace a aplikace.

Limity jsou logické: multiwindow může být nejasné, dynamický obsah se špatně snímá a OCR občas zakopne o stylizovaný text, PDF nebo tabulky. Ale i kdyby to fungovalo „jen“ v typických situacích (chybová hláška, produktová stránka, článek, ceník), tak je to obrovský krok k asistentovi, který konečně chápe realitu kolem vás – nejen chat.

OpenAI: aplikace přímo uvnitř ChatGPT

OpenAI spouští možnost používat „aplikace“ přímo uvnitř ChatGPT, takže v konverzaci nečtete jen text, ale můžete rovnou pracovat s interaktivními mini-appkami od třetích stran. Při startu mají být k dispozici firmy jako Booking.com, Expedia, Spotify, Figma, Coursera, Zillow nebo Canva a současně běží preview nástroje Apps SDK pro vývojáře. Oznámení padlo na DevDay 2025, takže je jasné, že cílem je vybudovat ekosystém, ne jen „lepší chatbot“.

Hodně důležité je, že se to liší od GPT Store: appky nejsou „oddělený obchod“, ale mají se objevovat přímo v odpovědích a dají se volat v běžné konverzaci. Tím se dramaticky zlepší distribuce pro vývojáře a pro uživatele to znamená míň přepínání mezi službami. V praxi: napíšete „Figma, převeď tenhle skic na diagram“ nebo „Coursera, nauč mě něco o machine learningu“ a ChatGPT do toho zatáhne příslušnou službu.

Nejvíc to zní na ukázkách typu Zillow: ChatGPT prý umí vytáhnout výsledky hledání bytů a zobrazit interaktivní mapu, se kterou se dál bavíte přirozeným jazykem. To je vlastně „agent s UI“: textová konverzace, ale výsledek není jen text, nýbrž akce a vizualizace. A OpenAI naznačuje, že časem přijdou další služby typu DoorDash, Instacart, Uber nebo AllTrails.

Technicky OpenAI říká, že to staví na Model Context Protocol (MCP), který má pomoci napojit datové zdroje do AI systému. Appky v ChatGPT můžou spouštět akce a renderovat interaktivní UI přímo v odpovědi; některé dokonce umí zobrazovat video „připnuté“ nahoře a upravované podle požadavků uživatele. A pokud už máte předplatné u služby, mělo by být možné se v ChatGPT přihlásit a využít pokročilé funkce.

Klasický otazník: soukromí a data. OpenAI sice uvádí, že vývojáři musí sbírat jen minimum dat a být transparentní ohledně oprávnění, ale zároveň není jasné, kolik z konverzace třetí strana uvidí (celou, poslední zprávy, nebo jen prompt, který appku vyvolal). Druhý otazník je „kdo se ukáže ve výsledku“, když existuje víc konkurentů – a jak se zabrání pay-to-win modelu ve výběru doporučených služeb.

Gemini 3 Flash: rychlý model pro vývojáře i škálování (Build with Gemini 3 Flash, frontier intelligence that scales with you)

Google představil Gemini 3 Flash jako nový model „frontier“ inteligence postavený na rychlost a nižší cenu, konkrétně „za méně než čtvrtinu ceny“ oproti Gemini 3 Pro, a s vyššími rate limity. Podle blogu má 3 Flash v mnoha benchmarcích překonávat Gemini 2.5 Pro, ale zároveň běžet rychleji, což je přesně kombinace, kterou chce každý, kdo AI volá stokrát denně přes API. Google to rámuje tak, že už „nemusíte volit mezi rychlostí a inteligencí“, protože Flash má být vývojářský pracant.

​Zaujala i část o multimodalitě: 3 Flash má mít „nejpokročilejší vizuální a prostorové uvažování“ a nově i code execution pro práci s vizuálními vstupy (zoom, počítání, editace vizuálních inputů). To je přesně ten moment, kdy se z „popiš obrázek“ stává nástroj, který umí obrázek analyzovat a zároveň udělat konkrétní kroky. Pokud někdo staví produkt typu „AI asistent pro dokumenty, fotky, UI screenshoty“, tohle je prakticky hlavní palivo.

Google zároveň říká, že Flash je jejich nejpopulárnější varianta a že předchozí Flash modely už zpracovaly „triliony tokenů“ napříč stovkami tisíc aplikací pro miliony vývojářů. Jinými slovy: tohle není laboratorní hračka, ale modelová řada, která v reálu živí spoustu produkčních aplikací. A u 3 Flash je ambice posunout to o kus dál, hlavně v agentních scénářích a kódu.

Pro vývojáře je důležitá i dostupnost: 3 Flash se podle blogu rolloutuje do Gemini API přes Google AI Studio, do Vertex AI pro enterprise a také do nástrojů jako Android Studio a Gemini CLI. Zároveň zmiňuje Google Antigravity jako „agentic development platform“, kde má 3 Flash poskytovat rychlou asistenci při kódění. Přeloženo: Google chce, aby se to používalo všude – od prototypování až po velké firemní nasazení.

A teď to nejvíc „developer“: blog tvrdí, že 3 Flash má lepší agentní schopnosti pro rychlé iterace a uvádí i výkon na SWE-bench Verified (78%) v kontextu agentního kódování. Zmíněné jsou i konkrétní use-cases, třeba herní vývoj s téměř real-time reasoning a video analýzou. Pokud se tenhle slib potká s realitou, bude to model přesně pro týmy, které chtějí AI jako infrastrukturu – ne jako demo.

Super GEMy v Gemini: Opal workflow přímo v „manažeru“ (Google started rolling out Super GEMs from Opal inside Gemini)

Google podle TestingCatalog začíná rolloutovat „Super Gems“ přímo v Gemini a to tak, že se Opal aplikace integrují do Gems Manageru. Nově má Gems Manager dvě části: nahoře sekci zaměřenou na „gemy“ z Google Labs a dole klasický správce pro osobní nebo předpřipravené vlastní gemy. V praxi je to snaha dostat „workflow mindset“ přímo do Gemini, bez toho, aby uživatel musel běhat do separátního experimentu.

Pěkný detail: pokud už někdo měl v Opalu existující workflow, měly by se mu automaticky objevit v „My Gems from Labs“, takže migrace má být bezbolestná. Tohle je přesně ten typ drobnosti, který rozhodne, jestli funkci lidé fakt začnou používat, nebo to skončí jako „cool, ale už to nikdy nenajdu“. A zároveň je vidět, že Google Labs obsah chce postupně „zprodukčnit“ a nasunout do hlavní aplikace.

Když si vytvoříte nový gem, dostanete se do Workflow Builderu, kde definujete, co chcete, a systém pak automaticky vygeneruje kroky workflow, systémové prompty i vizuální prvky. Potom to jde hned otestovat přes preview, který má jak klasický vstup, tak hlasové diktování. A workflow jde spustit na celou obrazovku nebo publikovat veřejně přes sdílený odkaz, což má být jednodušší než dřívější sdílení přes Google Drive oprávnění.​

Pro pokročilé má existovat možnost prokliknout se do Opal Builderu a editovat workflow detailněji. Zní to jako přirozené vrstvení: začátečník klikne, nechá si to „vygenerovat“ a jede; power user se ponoří do detailů. Přesně tímhle způsobem se z AI asistenta stává platforma, na které se dají skládat malé interní nástroje bez plného vývoje.

Zatím to má být omezené na USA a jen část uživatelů, což odpovídá tomu, že Opal měl regionální limity a Google to rolluje postupně. Článek to spojuje i s trendem integrací dalších Labs funkcí do Gemini (třeba NotebookLM) a celkově s tím, že Google chce z Gemini udělat centrální místo pro „běžné“ i „power“ workflow. Pokud Super GEMy chytnou, bude to jeden z nejpraktičtějších posunů od „povídání si s AI“ k „AI dělá opakovatelnou práci“.

Zdroje:

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít publikovat svůj obsah. To nejlepší se může zobrazit i na hlavní stránce Seznam.cz