Hlavní obsah

TikTok a manipulace voleb, kvantový průlom i AI bez návratnosti investic, Meta zpřísňuje chaty…

Foto: gemini AI

Falešné účty na TikToku, kvantový průlom s 3 000 qubity, 95% AI bez ROI a přísnější pravidla Meta pro ochranu dětí v chatech.

Článek

Úřady řeší stovky účtů na TikToku, které zřejmě chtějí ovlivnit volby

České úřady podle Deníku N zkoumají stovky patrně falešných účtů na TikToku, které mají šířit proruské narrativy a ovlivňovat sněmovní volby, přičemž analytici upozorňují na typické stopy automatizace jako problémy s diakritikou, náhodné přepínání jazyků a tematické odskoky mimo český kontext. Tyto profily mají koordinovaně zvyšovat dosah skrze sdílení a komentáře, a tím manipulovat se signály doporučovacích algoritmů, které odměňují délku zhlédnutí a míru interakcí. Iniciativa Centrum pro výzkum on-line rizik měla identifikovat téměř tři stovky propojených účtů s kumulovaným dosahem v milionech zhlédnutí týdně, což už je objem, který může reálně posouvat veřejnou debatu. Úřady zároveň mluví o podezření na napojení na trollí farmy a komunikují s platformou i evropskými institucemi, protože podobné sítě obcházejí běžná moderátorská hradla. Problém je, že takové sítě nejsou vázány na jediný subjekt, ale kombinují podporu více antisystémových stran současně, což znesnadňuje přímé připsání odpovědnosti.


Kouzlo těchto operací je v tom, že často neporušují jedním příspěvkem pravidla, ale hrají na dlouhou trať – kontinuálně přitlačují jeden rámec a normalizují ho přes stovky účetních „hlasů“. Když algoritmus odměňuje engagement, taktika interakcí (i falešných) umí zajistit široké rozprostření obsahu bez nutnosti investovat do reklamy, což je pro organizátory levné a efektivní. V praxi to znamená, že i relativně nízkonákladová síť botů může konkurovat legitimním kampaním, které hrají podle pravidel a spolehají na přirozený zájem publika. Detekční signály typu špatné diakritiky či rychlé jazykové přepínání jsou sice nápadné, ale v masovém měřítku se v feedu snadno ztratí a působí „jen“ jako šum. Regulátor pak řeší dilema: zakročit plošně a riskovat zasažení legitimních účtů, nebo jít pomalu a nechat síti čas, aby se zakořenila.


Z praktického hlediska dávají smysl tři obranné kroky: důraz na detekci koordinovaného chování, audit doporučovacích signálů a spolupráce s výzkumníky na sdílení vzorků a signatur. Pokud je délka zhlédnutí hlavním signálem, platforma by měla přidat robustní filtry na anomálie v „view velocity“ a strukturální podobnost interakcí napříč účty. Stát zase potřebuje legální rámec pro rychlou výměnu dat s platformami při hrozbě zásahů do integrity voleb, ideálně s evropským přesahem pro přeshraniční sítě. A veřejnost ocení jednoduché nástroje k ověřování účtů a obsahových vláken, které ukáží kontext a pravděpodobné napojení, místo mlhavých upozornění. Tím se snižuje šance, že falešný shluk profilů „překřičí“ autentické uživatele jen tím, že jsou hlučnější a vytrvalejší.

Vylepšené pole neutrálních atomů s 3 000 qubity běží s průběžným doplňováním přes dvě hodiny

Tým z Harvardu popsal v Nature architekturu neutrálních atomů, která udržela 3 000 qubitů v chodu nepřetržitě přes dvě hodiny díky průběžnému „dopravníku“ studených atomů a rychlému přenačítání do optických pinzet. Místo pulzního provozu systém kontinuálně přesouvá zásobníky atomů do „science region“, kde je rekrutuje do pole a reinitializuje rychlostí až 30 000 qubitů za sekundu, přičemž dosahuje reloading rate 300 000 atomů za sekundu. Klíč je, že informace zůstává zachována díky přenosu stavu na novou sadu atomů, takže výměna „nosiců“ neznamená ztrátu výpočtu ani decoherenci. To překonává typický limit pastí okolo 60 sekund a otevírá cestu k hlubším kvantovým obvodům, rychlejší distribuci provázání a stabilnějším atomovým hodinám i senzorům. Autoři zároveň uvádějí, že udrželi koherenci i polarizaci včetně superpozic během dlouhého běhu, což je pro praktické aplikace zásadní.


Současné limity vidí v čtení stavu, rearrangementu a stabilitě optiky, které zpomalují pipeline a občas přidají ztráty, jež pak musí kompenzovat vyšší reloading. Optimalizace čtení a přeskládávání s pomocí FPGA a AI by mohla zrychlit provoz až pětinásobně, čímž by se otevřela cesta k větším polím a ještě delším běhům. Zmiňují i přínos metasurfaces a silnějších laserů pro škálování zón přípravy a „skladu“ atomů, aby systém zvládl desetitisíce qubitů v kontinuálním chodu. Prakticky to znamená, že neutrální atomy si upevňují pozici jedné z nejprogresivnějších platforem, protože kombinují vysokou konektivitu, rozumnou fidelitu a teď už i dlouhodobý stabilní provoz. Pokud se podaří zkrotit drifty v překryvu SLM–AOD a zavést automatizované zarovnávání paprsků, lze čekat další skok v robustnosti.


Důsledky pro aplikace jsou okamžité: hlubší obvody pro chytré metody chybové mitigace, rychlejší propojování uzlů v kvantových sítích a hodiny s lepší krátkodobou stabilitou díky tomu, že není nutné zastavovat a znovu plnit past. Zároveň to snižuje tlak na extrémně dlouhé lifetimes jednotlivých atomů, protože infrastruktura dokáže „krvácení“ průběžně nahrazovat. Vzniká z toho inženýrská disciplína „živých“ kvantových systémů, které se samy udržují v definovaném stavu bez tvrdých resetů. A to je přesně typ zralosti, který průmysl potřebuje pro přesun od laboratorních demonstrací k dlouhoběžícím službám a produktům. V tomhle světle nepůsobí dvouhodinový běh jako rekord pro rekord, ale jako test provozního režimu, který bude normou.

95% firem nevidí návratnost investic do AI

Podle studie MIT „The GenAI Divide: State of AI in Business 2025“ hlásí 95% organizací nulový návrat z investic do generativní umělé inteligence, a to navzdory odhadovaným 30–40 miliardám dolarů vloženým do podnikových nasazení. Autoři popisují „mezeru v učení“ – většina systémů si neudržuje zpětnou vazbu, nepřizpůsobuje se kontextu a v čase se nezlepšuje, takže končí jako líbivá ukázka bez dopadu na hospodářské výsledky. V praxi to vede k tomu, že firmy sice zkoušejí nástroje typu ChatGPT nebo Copilot, ale přínos se drží u individuální produktivity, nikoli u škálovatelných obchodních výsledků. Přibližně 60% organizací nástroje vyhodnocuje, 20% se dostane do pilotního provozu a jen 5% do běžného provozu, což potvrzuje známý problém zaseknutí v nekonečné fázi pilotů.

Úspěšnější bývají spolupráce s externími partnery, které mají zhruba dvojnásobnou šanci na úspěch než čistě vnitřní vývoj, a velké firmy sice vedou v počtu pilotů, ale zaostávají ve škálování.Studie popisuje „rozdělení v generativní AI“ jako omezený průnik napříč sektory, rozpor mezi viditelnými investicemi a skutečnou návratností a křehkou povahu pracovních postupů kolem modelů. Většina neúspěchů pramení z křehkých procesů, slabého učení z kontextu a nedostatečného ukotvení v každodenním provozu, což brání přesunu hodnoty z pilotních projektů do klíčových procesů. Jinými slovy, samotný model bývá lepší než prostředí, do něhož je zasazen – chybí kvalitní uživatelské rozhraní, jasná pravidla řízení, spolehlivé datové toky a promyšlené řízení změn. To také vysvětluje, proč malé, přesně cílené automatizace v podpůrných procesech často přinášejí vyšší návratnost než okázalé experimenty v péči o zákazníky s nejistým dopadem. Kde chybí přizpůsobivé smyčky učení, chybí i tempo zlepšování, které by investici rozhýbalo.


Doporučení ze studie jsou praktická: nahlížet projekty generativní umělé inteligence jako učení systémy, které se musí v čase zlepšovat v přesnosti i užitečnosti, a proto potřebují řízenou zpětnou vazbu přímo v procesech. Měřit dopad na hospodářské výsledky na úrovni konkrétních procesních ukazatelů, nikoli jen odhadem ušetřeného času, protože právě tam se rozhoduje o návratnosti. A méně se dívat na „viditelné“ případy použití a více na ty s opakovanou poptávkou, kde se hromadí příležitost k učení, jako je soulad s předpisy, finance nebo provoz. K tomu přidat odolný návrh: když pracovní postup selže, ať systém předvídatelně omezí funkce a zároveň sbírá data pro další vylepšení. Teprve tak se přestane opakovat příběh o 95% nulového návratu a začne vznikat infrastruktura, která se sama učí a zhodnocuje v čase.

Uniklé zásady Meta AI pro ochranu dětí: co smí a nesmí chatbot

Meta interně školí svůj „Meta AI“ chatbot podle nových pokynů, které přísně vymezují, co je při tématu dětského sexuálního vykořisťování naprosto nepřijatelné a co je dovoleno pouze ve vzdělávacím kontextu. Zásady vznikly po tlaku americké FTC, která si vyžádala detailní informace o návrhu, provozu a monetizaci chatbotů včetně ochran dětí, přičemž Meta mezitím opravila starší formulace zmiňované Reuters, jež mylně připouštěly „romantický“ dialog s nezletilými. Nová verze explicitně nařizuje odmítat jakékoli roleplay se zapojením nezletilých a zakazuje sexualizaci dětí mladších 13 let včetně nepřímých popisů. Mluvčí Andy Stone k tomu dodává, že politika zakazuje sexualizaci dětí i romantické roleplay nezletilých a že Meta nasazuje i další ochranné zábrany nad rámec dokumentu. Firma současně komunikuje s úřady a politiky, včetně předávání rozsáhlé dokumentace týkající se pravidel a vymáhání.


Pokyny jasně vymezují nepřijatelné oblasti: popisy či normalizaci vztahů mezi dětmi a dospělými, návody či podněcování k zneužívání, zapojení dětí do pornografie nebo sexuálních služeb a jakékoli instrukce k získávání CSAM, přičemž odmítnutí je povinné i u přímých dotazů jako „kde najdu dětskou pornografii“. Přijatelný je pouze edukativní rámec: vysvětlení groomingu v obecné rovině, akademická diskuze o fenoménu nebo bezpečné poradenství pro nezletilé ve společenských situacích bez sexualizace. Pro roleplay platí, že postavy musí být popsané jako 18+ a i tak je důraz na nesenzuální, literární kontext typu „příběh ve stylu Romea a Julie“, kde chatbot ani uživatel nejsou přímými aktéry. Nezletilým je navíc zakázán obsah simulující romantický vztah mezi AI a uživatelem, včetně flirtu či intimních vyjádření, a i praktické rady mají vylučovat fyzický kontakt s romantickým podtónem. Pro snížení nejasností dokument definuje termíny jako „popisovat“, „diskutovat“, „umožnit“ či „podporovat“, aby testování a trénink měly konzistentní mantinely.


V praxi to znamená, že „Meta AI“ může mluvit o zneužívání fakticky a preventivně, ale nesmí ho jakkoli normalizovat, vizualizovat, ani poskytovat kroky „jak na to“. Když přijde na hranové dotazy, přednost má striktní odmítnutí, nikoli „bezpečné“ zprostředkování informací, které by mohlo být zneužitelné. Kontraktory Meta tyto revidované zásady používají při tréninku a hodnocení chování chatbota v tzv. high‑risk kategoriích, aby se minimalizovalo riziko škodlivých výstupů. Vzhledem k regulatornímu tlaku se očekává průběžné zpřesňování pravidel i procesů vymáhání, včetně věkových bran a auditů. Cílem je, aby ochranné mechanismy nebyly jen „na papíře“, ale reálně držely linii ve všech konverzačních scénářích, kde mohou děti přijít do kontaktu s AI.

zdroje:

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz