Článek
Tomu, co vidíme na vlastní oči, jsme odpradávna zvyklí věřit. Proč by také ne. Zrak je pro člověka vůbec nejdůležitějším smyslem, protože asi 80 % informací vstřebáváme právě jím. S příchodem umělé inteligence se ale v online prostoru můžeme s důvěrou v to, co vidíme, rozloučit.
Prezident v reklamě?
Fotografie vygenerované AI nástroji pro nás nejsou žádnou velkou novinkou. Už nějaký ten pátek se s nimi setkáváme. Některé osoby na nich neexistují a jsou čistě prací generativního nástroje. Takovým příkladem mohou být modelky. To není nijak zvlášť nebezpečné. Horší vliv mají obličeje známých osobností, které jsou zneužívány v nekalých reklamách na podvodné investování a podobně. Viz obrázek níže.
Ostražitého člověka nechá podezřele výhodná nabídka chladným, i když ji zdánlivě „propaguje“ i prezident.
Taylor Swift na explicitních fotografiích z dílny AI generátoru
Pornografický průmysl již před dlouhými lety začal experimentovat s vizuálním obsahem, který zneužívá známých tváří. Dosazování obličejů známých osobností na tělo pornoherečky či pornoherce, ačkoliv je tato praktika daleko za hranicí etiky i zákona, samozřejmě láká více diváků, což generuje tvůrcům větší příjmy. Až dosud bylo vždy možné poznat, že se jedná o podvod, takzvaný deepfake.
S tím je ale konec. Generativní nástroje již dokáží vytvořit podvodné fotografie, které působí reálně, poměrně přesně. Fotografie člověka v situaci, do které by se sice sám nikdy dobrovolně nepustil, může působit důvěryhodněji.
V posledních dnech zaplavily sociální sítě explicitní obrázky americké zpěvačky Taylor Swift. Tyto falešné snímky vygenerované umělou inteligencí se nejmasivněji šířily na síti X, kde podle magazínu The Verge získaly za 17 hodin 45 miliónů shlédnutí a stovky tisíc lajků. Platforma Elona Muska fotografie stáhla, ale ty si samozřejmě již žijí svým životem na jiných platformách.
A právě v tom tkví největší nebezpečnost deepfake obsahu. Ten sice může být odstraněn, může být vyvrácena jeho pravost, ale vždy s prodlevou. Materiál, který se jednou objeví na internetu a stane se virálním, už nikdy zcela nezmizí. Je uložen v počítačích uživatelů, kteří si jej stáhli, šíří se v tajných diskuzních skupinách a emailem. Důvěřivější uživatelé mu nadále věří, a právě tito lidé jsou cílem dezinformátorů.
Falešné video představuje nejnebezpečnější formu manipulace
Ještě důvěryhodněji samozřejmě pro naše smysly působí videonahrávky. AI technologie se rychle vyvíjí a zrovna teď stojíme na prahu éry, kdy již nedokážeme určit, zda je video pravdivé či zmanipulované. To (snad) dokáže jen technologie založena na umělé inteligenci. Tím se dostáváme do jakési spirály závislosti na pokročilých technologiích.
Podvržený videoobsah je ještě nebezpečnější než fotografie. Z letité zkušenosti nemáme tendenci videu nedůvěřovat, pokud se tedy nejedná o film či seriál. Jakmile se takový autenticky působící deepfake dostane na veřejnost, může napáchat obrovské a třeba i nevratné škody, které nespraví ani vyvrácení podvodu.
Jedním z prvních českých politiků, který se stal aktérem deepfake videa, je Vít Rakušan. Video, ve kterém jsou mu do úst vložena urážlivá slova, souvisí s jeho veřejnou debatou v Karviné.
Můj první deepfake! Nebo spíš cheapfake? 😅
— Vít Rakušan (@Vit_Rakusan) January 27, 2024
Bylo by to legrační, kdyby problematika zneužívání AI nebyla ve skutečnosti tak nebezpečná. Před bezpečnostní experty staví úkol, jak se s jejím nástupem vypořádat. My ostatní mezitím musíme používat zdravý rozum a ověřovat si… pic.twitter.com/UFTRM1iw7F
Deepfake s ministrem vnitra sice nepůsobí věrohodně, ale naznačuje, co nás čeká. Rakušan důsledky umělé inteligence naznačil, když podvrh okomentoval: „Před bezpečnostní experty staví úkol, jak se s jejím nástupem vypořádat. My ostatní mezitím musíme používat zdravý rozum a ověřovat si informace.“
Online prostředí se tak pro běžné uživatele stává více a více chaotičtější. Rčení „důveřuj, ale prověřuj“ tak zřejmě bude platné ještě více, než jsme si kdy mohli vůbec myslet. A bohužel zůstanou i ti, kteří důvěřují a neprověřují. A právě pro ně je takový obsah určen.