Hlavní obsah

Éra AI hackerů je tady… Jak velké je to riziko?

Foto: Getty Images

Zločinci, hrdinové i zahraniční špioni: hackeři dnes všude používají umělou inteligenci.

Článek

Toto léto přišli ruští hackeři s novým trikem v záplavě phishingových e-mailů, které posílají Ukrajincům.

Do příloh přidali program s umělou inteligencí. Pokud by si ho oběti nainstalovaly, automaticky by prohledal jejich počítače po citlivých souborech a odeslal je zpět do Moskvy.

Tato kampaň, popsaná v červenci v technických zprávách ukrajinské vlády a několika kyberbezpečnostních firem, je prvním známým případem, kdy byla ruská rozvědka přistižena při tvorbě škodlivého kódu za pomoci velkých jazykových modelů (LLM) – tedy AI chatbotů, které se v korporátním prostředí staly všudypřítomné.

Ruští špioni však nejsou sami. V posledních měsících začali umělou inteligenci do své práce zapojovat hackeři všeho druhu – kyberzločinci, špioni, výzkumníci i firemní obránci.

LLM, jako je ChatGPT, jsou stále náchylné k chybám. Přesto se staly pozoruhodně schopnými při zpracovávání jazykových instrukcí, převádění běžného jazyka do počítačového kódu či při identifikaci a shrnování dokumentů.

Technologie zatím nepřinesla revoluci ve smyslu, že by se z úplných začátečníků stávali odborníci, ani neumožnila potenciálním kyberteroristům odstavit elektrickou síť. Ale dělá zkušené hackery lepšími a rychlejšími. AI využívají i kyberbezpečnostní firmy a výzkumníci – čímž se rozjíždí nová hra na kočku a myš mezi útočníky, kteří hledají a zneužívají softwarové chyby, a obránci, kteří se je snaží opravit jako první.

„Je to začátek začátku. Možná se blížíme k prostředku začátku,“ řekla Heather Adkins, viceprezidentka Googlu pro bezpečnostní inženýrství.

V roce 2024 začal její tým využívat LLM Gemini od Googlu k vyhledávání důležitých softwarových zranitelností dřív, než je najdou zločinečtí hackeři. Začátkem tohoto měsíce Adkins oznámila, že tým zatím objevil nejméně 20 přehlížených chyb v běžně používaném softwaru a upozornil firmy, aby je opravily. Proces stále pokračuje.

Žádná ze zranitelností nebyla šokující nebo taková, kterou by mohl objevit jen stroj, dodala. Ale s AI je celý postup prostě rychlejší. „Neviděla jsem, že by někdo přišel na něco úplně nového,“ řekla. „Dělá to zkrátka to, co už umíme. Ale to se bude vyvíjet.“

Adam Meyers, viceprezident společnosti CrowdStrike, uvedl, že nejen jeho firma používá AI k pomoci lidem, kteří si myslí, že byli hacknuti, ale také vidí stále více důkazů o jejím využívání čínskými, ruskými, íránskými i kriminálními hackery, které jeho společnost sleduje.

„Ti nejpokročilejší protivníci ji využívají ve svůj prospěch,“ řekl. „Vidíme toho čím dál víc, každý den,“ řekl pro NBC News.

Tento posun teprve začíná dohánět humbuk, který v posledních letech obklopuje kyberbezpečnostní a AI průmysl, zejména od chvíle, kdy byl v roce 2022 veřejně představen ChatGPT. Tyto nástroje nebyly vždy účinné a někteří výzkumníci si stěžovali na začínající hackery, kteří naletěli na falešné výsledky o zranitelnostech vygenerované AI.

Podvodníci a tzv. „social engineers“ – lidé v hackerských operacích, kteří se vydávají za někoho jiného nebo píšou přesvědčivé phishingové e-maily – využívají LLM k větší důvěryhodnosti už minimálně od roku 2024.

Ale využívání AI k přímému hackování cílů se teprve začíná opravdu rozjíždět, říká Will Pearce, generální ředitel společnosti DreadNode, jedné z mála nových firem specializujících se na hackování s pomocí LLM.

Důvod je podle něj jednoduchý: technologie konečně začala dohánět očekávání.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz