Článek
Dlouhodobě se zajímám o různé podvody a v poslední době sleduji různé podvody spojené s umělou inteligencí (AI). S rostoucím vývojem AI technologií se totiž objevují nové metody, jak manipulovat a klamat.
Jeden takový fenomén jsou „deepfakes“ – extrémně realistická falešná videa nebo audio nahrávky vytvořené pomocí AI, které dokážou napodobit vzhled a hlas konkrétní osoby. Tyto deepfakes mohou být použity k šíření dezinformací nebo vydírání, a bohužel se zdá, že se s nimi budeme setkávat čím dál častěji. Jejich schopnost přesvědčivě napodobit reálné osoby představuje značnou hrozbu pro pravdivost informací a důvěru ve veřejném prostoru.
V českých médiích jsem zatím nezaznamenala zmínku o případu s falešným telefonátem vydávajícím se za prezidenta Joe Bidena, což mě vedlo k rozhodnutí napsat tento příspěvek. Chci upozornit na tuto problematiku a ukázat, jak se podobné technologie mohou dotýkat i politického dění a tak nepřímo nás všech.
Automatizovaný telefonní hovor prezidenta demokratům
V americkém státě New Hampshire byly zaznamenány tzv. robocally (robocall je automatizovaný telefonní hovor, který používá přednahrávanou zprávu k doručení informací nebo marketingových sdělení velkému počtu lidí), které zneužívají technologii umělé inteligence k napodobení hlasu amerického prezidenta Bidena. Telefonát odrazoval členy Demokratické strany od účasti na primárkách (prezident Biden je členem Demokratické strany). Primárky jsou v podstatě předvolební volby, ve kterých si členové politických stran vybírají své kandidáty pro hlavní volby, jako jsou v tomto případě prezidentské volby, které v USA proběhnou na podzim tohoto roku.
Tento případ odhaluje vážnou problematiku v souvislosti s rozvojem AI a její schopnosti vytvářet falešný obsah, který může být použit k ovlivňování veřejného mínění a narušování demokratických procesů. Nejde tak už jen o podvody jako takové, zaměřené na jednotlivce, jak jsem psala v článku Jak umělá inteligence mění hru: Volá mi kamarádka, její klon, nebo podvodník?
Falešný Biden vyzýval členy Demokratické strany, aby si „ušetřily“ svůj hlas pro listopadové volby a nevolily v primárkách, protože to „pouze pomáhá republikánům v jejich snaze znovu zvolit Donalda Trumpa“. Bílý dům později potvrdil, že opravdový prezident Biden tento hovor nenahrál a poukázal na výzvy, které s sebou přináší rozvíjející se technologie, zejména před listopadovými prezidentskými volbami. Generální prokurátor vyšetřuje tento incident jako „nezákonný pokus narušit prezidentské primárky v New Hampshire a potlačit voliče“. Ať za hovory stojí kdokoliv, je jasné, že jeho cílem bylo, aby Biden nakonec tyto primárky nevyhrál.
Šíření dezinformací je díky AI snadné
Tento incident ilustruje, jakým způsobem může být AI použita k šíření dezinformací a jak je důležité být ostražitý vůči potenciálnímu zneužití této technologie v politickém kontextu. Nyní, když AI dosahuje schopnosti přesvědčivě napodobovat lidský hlas a tváře, stává se zřejmé, že žijeme v éře, kde je třeba být velmi opatrný ohledně toho, čemu věříme. Jedná se o nový typ „neviditelné války“ v informačním prostoru, kde falešné obsahy mohou mít značný dopad na politické rozhodování a veřejné vnímání.
S rostoucím vývojem a dostupností AI technologií se stává nezbytným rozvíjet strategie a nástroje pro detekci a boj proti dezinformacím a falešným zprávám. Výše popsaný incident z USA je varováním, že v blízké budoucnosti bude klíčové posilovat digitální gramotnost veřejnosti a investovat do technologií a metod, které mohou identifikovat a odhalit falešný obsah, než bude mít šanci ovlivnit společnost a politické procesy.
Jak jsem skoro uvěřila jednomu deepfake
Nedávno jsem na YouTube Shorts narazila na video, ve kterém se zdálo, že světově proslulý podcaster říká něco překvapivého, skoro až senzaci. V první chvíli jsem tomu věřila, ale pak mi došlo, že to vlastně nemusí být pravda. Po bližším zkoumání jsem zjistila, že šlo o deepfake - dokonalou napodobeninu, která vypadala a zněla velmi přesvědčivě, ale ve skutečnosti byla kompletně falešná. Cílem bylo šířit dezinformace. Jednalo se asi první deepfake na který jsem sama osobně narazila.
Deepfakes
Incident s falešným hovorem imitujícím hlas Bidena je příkladem deepfake, při kterém byla použita umělá inteligence k vytvoření přesvědčivého podvrhu. Deepfakes znamená v doslovném překladu něco jako „hluboké falše“. Pro plynulost textu budu používat vžitý anglický výraz.
Deepfakes existovaly i před érou umělé inteligence, ale jejich vytvoření bylo mnohem složitější a vyžadovalo rozsáhlé dovednosti a zdroje. V minulosti bylo nutné použít pokročilé techniky úprav videa a zvuku, které často vyžadovaly profesionální znalosti a drahý software. S příchodem AI a technologií deep learning se proces vytváření deep fakes stává snazším a dostupnějším, což umožňuje vytvářet velmi přesvědčivé podvrhy s menším úsilím a nižšími náklady. Tím se také zvyšuje riziko jejich zneužití.
Deepfakes jsou výsledkem pokročilé technologie umělé inteligence, která umožňuje vytvářet velmi přesvědčivé falešné video a audio nahrávky. Tato technologie používá algoritmy strojového učení, obzvláště tzv. „generative adversarial networks“ (GAN), ke generování nebo manipulaci s video a audio záznamy tak, aby vypadaly a zněly autenticky.
Problém deepfakes spočívá v několika hlavních bodech:
Dezinformace a manipulace
Deepfakes mohou být použity k vytvoření falešných zpráv nebo ke klamání veřejnosti, například vytvořením videa, kde veřejná osobnost říká nebo dělá něco, co ve skutečnosti nikdy neřekla nebo neudělala. To může mít vážný dopad na veřejné mínění a politiku.
Narušení důvěry
Když se stává těžkým rozlišit skutečný obsah od falešného, lidé mohou ztratit důvěru v média, veřejné postavy a dokonce i v záznamy svých vlastních zážitků.
Zneužití v soukromí a bezpečnosti
Deepfakes mohou být použity k šikaně nebo vydírání jednotlivců, například vytvořením kompromitujících videí nebo audio nahrávek, které nikdy neexistovaly.
Bezpečnostní hrozby
Existuje také obava, že deepfakes mohou být využity k vytváření falešných důkazů nebo k manipulaci s důležitými informacemi, což by mohlo mít dopad i na věci jako je národní bezpečnost nebo mezinárodní vztahy.
Právní a etické otázky
Deepfakes otevírají celou řadu právních a etických otázek, včetně otázek souvisejících s autorskými právy, ochranou soukromí, svobodou projevu a odpovědností za šíření falešného obsahu.
Deepfakes na vzestupu, ale zatím hlavně v pornografii
Dle reportu 2023 State of Deepfakes, bylo v roce 2023 na internetu zaznamenáno téměř 96 tisíc deepfake videí, což představuje nárůst o 550 % oproti roku 2019. Je alarmující, že 98 % všech deepfake videí na internetu tvoří deepfake pornografie. Tento trend ukazuje nejenom na rostoucí schopnosti a dostupnost technologie deepfake, ale také na potenciálně škodlivé a neetické využití, které může mít vážné dopady na jednotlivce a společnost jako celek.
Závěrem
V České republice zatím na kvalitní deepfakes veřejných osobností narážíme spíše je sporadicky, ale je důležité si uvědomit, že je pravděpodobné, že se budeme s deepfake fenoménem setkávat častěji. Je načase, abychom se na tento trend připravili, a to nejen pomocí zvýšené informovanosti a digitální gramotnosti. Doufám, že tento článek k tomu alespoň trochu přispěje.
Zdroj:
informace o robocallu:
https://www.reuters.com/world/us/fake-biden-robo-call-tells-new-hampshire-voters-stay-home-2024-01-22/
https://www.nbcnews.com/news/amp/rcna134984