Hlavní obsah

Slyšíte v mobilu své dítě? Může to být AI. Seniorka kvůli fake videu s politiky přišla o 780 tisíc

Foto: SLK | generováno pomocí AI nástroje ChatGPT

Ilustrační obrázek

Doba gramaticky chybného „nigerijského prince“ a jednoduchých podvodných SMS zpráv pomalu končí. Kyberzločinci masivně investují do umělé inteligence (AI), která jim umožňuje vytvářet stále sofistikovanější útoky.

Článek

Podvodníci se dlouhodobě spoléhají na lidskou důvěru a emoce. Zatímco dříve se zaměřovali na e-mailové podvody nebo tzv. „vishing“ (hlasové podvody, kde se vydávali za bankéře či policisty s obecným hlasem), nástup generativní umělé inteligence jim otevřel zcela nové možnosti. Největší hrozbou jsou nyní tzv. deepfake hlasydeepfake videozáznamy.

Jak fungují deepfake hlasové podvody?

Princip je naprosto jednoduchý a efektivní. Podvodníci potřebují jen krátkou hlasovou nahrávku dané osoby. A tu mohou získat z:

  • Sociálních sítí: Veřejná videa na Facebooku, Instagramu, TikTokuči YouTube.
  • Podcastů nebo hovorů: Jakýkoliv zveřejněný obsah, kde je slyšet hlas, či z hovoru.
  • Veřejných vystoupení: Přednášky.

Moderní software pro klonování hlasu dokáže z pouhých několika sekund zvukového záznamu vytvořit syntetický hlas, který je k nerozeznání od originálu. Software dokáže téměř dokonale napodobit barvu hlasu, akcent a dokonce i emoce. Když vám pak někdo zavolá s naléhavou prosbou, je téměř nemožné rozpoznat deepfake od skutečného hlasu.

Cílem jsou nejčastěji senioři a „nouzové“ scénáře

Nejčastější obětí těchto podvodů jsou senioři. Podvodníci volají oběti a vydávají se za vnoučata, děti nebo jiné blízké příbuzné. Scénáře jsou vždy naléhavé a plné emocí:

  • „Tati/babi, naboural jsem, potřebuji rychle peníze na kauci.“
  • „Jsem v nemocnici, nemám u sebe peníze, potřebuji to zaplatit hned.“
  • „Ztratil jsem mobil, volám z cizího čísla, nutně potřebuji poslat peníze.“

Kvůli panice a mateřskému/otcovskému instinktu, který velí okamžitě pomoci, oběti často nemají čas racionálně ověřit situaci. Peníze jsou pak často požadovány v hotovosti, kterou si vyzvedne kurýr, nebo převodem na anonymní účet.

Reálný příklad podvodu: Seniorka z Uničova přišla o 780 tisíc kvůli videu s Fialou a Babišem

Že nejde jen o teoretickou hrozbu, dokládá aktuální případ, který vyšetřují kriminalisté na Olomoucku. Šestašedesátiletá žena z Uničova se stala obětí propracovaného podvodu, když uvěřila deepfake videu, ve kterém vystupovali digitálně upravení politici – premiér Petr Fiala a Andrej Babiš. Ti na zmanipulovaném záznamu lákali na údajně výhodné investice.

Seniorka, přesvědčená důvěryhodností známých tváří, se nechala zmanipulovat falešnými makléři. Nejprve zaslala „vstupní investici“ a pod vidinou fiktivního zhodnocení posílala další statisíce. Podvodníci ji nakonec přiměli i k výběru hotovosti, kterou předala kurýrovi. Celková škoda se vyšplhala na více než 780 tisíc korun. Policie případ šetří jako podvod se sazbou až pět let vězení.

Firmy čelí deepfake videokonferencím

Deepfake technologie se nevyhýbá ani firemnímu sektoru. Zde se podvodníci zaměřují na tzv. BEC (Business Email Compromise) útoky, které se posouvají na novou úroveň. Útočníci mohou:

  • Napodobit hlas generálního ředitele a nařídit převod peněz na falešný účet.
  • Vytvořit deepfake videokonferenci, kde se vydávají za vysokého manažera a osobně instruují podřízené k finančním transakcím.
  • Falšovat identitu dodavatelů a požadovat platby na změněné bankovní údaje.

Jak se efektivně bránit? Rady expertů

Obrana proti deepfake podvodům vyžaduje kombinaci technologické opatrnosti a změny chování.

  1. Ověřujte, ověřujte, ověřujte: Jakákoli naléhavá žádost o peníze, ať už zní jakkoli autenticky, musí být ověřena jiným způsobem. Zavěste a zavolejte dotyčné osobě na její číslo. Pokud se vydává za úředníka, zavolejte na oficiální linku instituce (banka, policie, společnost).
  2. Rodinné heslo: Experti doporučují zavést v rodinách tajné heslo – slovo, které znáte jen vy a vaši blízcí. V případě podezřelého hovoru jej vyžadujte. Deepfake technologie heslo nezná.
  3. Nastavte si limity pro platby: V bankovnictví lze nastavit denní limity pro odchozí transakce, což může zabránit velkým finančním ztrátám.
  4. Sdílejte méně: Snižte množství hlasových nahrávek a videí, která veřejně sdílíte na sociálních sítích. Méně dat znamená menší šanci pro klonování hlasu.
  5. Informujte seniory: Nejzranitelnější jsou ti, kteří o existenci deepfake technologie nevědí. Pravidelně s nimi mluvte o nových typech podvodů a zdůrazněte, že v případě finančních požadavků je nutné vždy ověřit situaci.
  6. Podezřívejte neznámá čísla: I když volá vaše dítě z neznámého čísla s výmluvou na ztracený telefon, vždy platí pravidlo ověření.
  7. Ve firmách: Zaveďte striktní procesy pro schvalování plateb, vícefaktorové ověřování pro přístup k firemním financím a pravidelně školte zaměstnance o rizicích deepfake útoků. Nikdy nespoléhejte pouze na hlasovou nebo video autentizaci.

Nástup AI přináší obrovské možnosti, ale bohužel i nové hrozby. Vigilance a vzdělávání jsou v boji proti kyberzločincům vyzbrojeným umělou inteligencí klíčové.

Máte na tohle téma jiný názor? Napište o něm vlastní článek.

Texty jsou tvořeny uživateli a nepodléhají procesu korektury. Pokud najdete chybu nebo nepřesnost, prosíme, pošlete nám ji na medium.chyby@firma.seznam.cz.

Související témata:

Sdílejte s lidmi své příběhy

Stačí mít účet na Seznamu a můžete začít psát. Ty nejlepší články se mohou zobrazit i na hlavní stránce Seznam.cz