Článek
Čas od času se mi při brouzdání na sociálních sítích zobrazuje obsah, jehož nahlášení považuji za samozřejmost. Právě v poslední době mám pocit, že se roztrhl pytel s falešnými, ale na první pohled věrohodnými videi, jejichž aktéry jsou známé a důvěryhodné osobnosti z řad politiků. Ty následně prostřednictvím reklam nabízí například různé investiční aplikace slibující vysoké výdělky, aniž byste museli hnout prstem. Z úst politiků zneužitých pro falešná videa vychází slova, která bychom od nich za normálních okolností neslyšeli. Úprava videa je mnohdy evidentní, ale někdy není snadné rozeznat, zda jde o nahrávku autentickou či upravenou. Tím spíš, pokud něco takového vidíte poprvé.
Realisticky upravená videa, kdy lze změnit mimiku i řeč aktérů, jimž jsou do úst vkládána slova, která by nikdy nevyslovili, jsou označována jako deepfakes a s využitím neustále se zdokonalující umělé inteligence lze zaměnit postavy i obličeje. Jen pro zajímavost, historicky první deepfake video bylo vytvořeno v roce 2017 a šlo o pornografický obsah s celebritami.
Parodie, ale také podvody
U některých nahrávek není pochyb, že jde o vtipné a nevinné parodie určené pro pobavení, ale bohužel přibývají i podvody, které nejsou vůbec k smíchu a měli bychom o nich mít alespoň základní povědomí, abychom případnému podvodu snadno nenaletěli. Dost možná jste i vy zaregistrovali několik nahrávek, ve kterých byly zneužity tváře a hlasy politiků. Připomenu, že konkrétně šlo o šéfa hnutí ANO Andreje Babiše, ale také o samotného prezidenta Petra Pavla. Údajný Andrej Babiš ve falešné nahrávce garantoval už do druhého dne po registraci a vkladu šesti tisíc korun velké zhodnocení vložených finančních prostředků. Na rozkliknutí odkazu pod videem a vklad nabádal také podvrh s tváří Petra Pavla.
Podvodníci prý nedávno využili deepfake také k inscenaci falešné videokonference v hongkongské pobočce nadnárodní společnosti a falešný finanční ředitel dotlačil oběť podvodu k patnácti převodům v hodnotě 25 milionů dolarů na pět bankovních účtů. Více se dočtete zde.
Nemám nic proti tomu, pokud jsou deepfake videa nevinná, transparentní a mají sloužit výhradně pro pobavení. Jsou-li ale tváře známých osobností zneužívány k podvodům, šíření nepravdivých informací a dehonestaci aktérů, to už mi v pořádku nepřipadá.
Jak deepfakes odhalit?
Přesto, že deepfake nahrávky umí rozpoznat některé programy, díky následujícím tipům je lze identifikovat také bez příslušného softwaru.
- Pokud nahrávka působí neuvěřitelně a skandálně, může jít o první indicii její nepravosti a určitě není od věci dané informace ověřit. Je-li video falešné, na ověřených webech se to pravděpodobně brzy dozvíte. Je pochopitelné, že oběť podvodu se obvykle snaží falešný obsah vyvrátit.
- Zkuste se také zaměřit na to, zda zvuk nahrávky odpovídá videu. Ne vždy se tvůrcům deepfakes podaří sladit pohyb se zvukem.
- Sledujte detaily. Pro tvůrce deepfake nahrávek je někdy obtížné vytvořit jemné pohyby, jako je mrkání či pohyby obličeje. Dalším varovným signálem mohou být nepřirozené pauzy mezi slovy, ale i nezvykle dokonalá řeč. Nezaměřujte se pouze na obličej, ale koukněte také na to, zda aktér v nahrávce nemá divný tvar těla s nepřirozenými pohyby.
Řekla bych, že není třeba panikařit, ale nic nepokazíte tím, když zůstanete obezřetní a zachováte si zdravý úsudek. Vězte, že pokud vám některý z údajných politiků či jiných známých osobností nabízí nesmyslně vysoké zhodnocení peněz, s největší pravděpodobností půjde o podvod. Pokud vám nahrávka připadá neuvěřitelná, vše si pro jistotu ověřte u jiných a důvěryhodných zdrojů.
Anketa
Zdroje: