Článek
Pomocí umělé inteligence pak známé tváři CNN vložil do úst něco, co ve skutečnosti nikdy neřekla. „Chtěl jsem dokázat, jak neskutečně jednoduše se dá takzvaný deepfake, falešné video, vytvořit. Stačí k tomu několik skutečných záznamů moderátora a nástroje, které jsou všem dostupné na internetu. Když jsem výsledek poslal do CNN, dostal jsem odpověď od manažerů, kteří byli vylekaní. Sami by falešné video nepoznali,“ popsal Boháček.
Známého hlasatele si vybral záměrně. „Ve Spojených státech funguje kult moderátora. Když se vytvoří falešný záznam s ním, dodá to na důvěryhodnosti,“ vysvětlil mladý výzkumník. Není ovšem problém vyrobit takové video či hlasový záznam například s prezidentskými kandidáty Joem Bidenem či Donaldem Trumpem a nechat je říkat věty, které je v očích voličů zdiskreditují.
Sexy modelka vydělávala statisíce, i když neexistuje. Teď ale zmizela
„Došlo k tomu v primárkách ve státě New Hampshire, kde lidem volala falešná čísla, v hovoru pak zněl hlas Joea Bidena vytvořený umělou inteligencí. Voličům říkal, aby nechodili k volbám. Takových případů bude stále více,“ uvedl vědec.
„Nechci říkat, že umělá inteligence rozhodne prezidentské volby, ale je možné, že je zásadně ovlivní. Rozhodují tisíce hlasů v kritických státech, takže kdo by chtěl volby zmanipulovat, stačí mu obrátit na svoji stranu tyto osoby. Pomocí umělé inteligence jim může volat zfalšovaný hlas kandidáta a šířit lži, ty navíc mohou být díky AI cílené na konkrétního voliče v daném státě,“ nastínil Boháček.
Sám se snaží, aby se dařilo podobné podvody odhalovat. „V laboratoři profesora Hanyho Farida na tom pracuji už od chvíle, kdy Rusko zaútočilo na Ukrajinu. Tehdy se objevilo falešné video s prezidentem Zelenským, v němž vyzýval ukrajinské vojáky, aby složili zbraně. Vidět deepfake v takto kritickém okamžiku bylo znepokojivé,“ uvedl vědec.
BBC se chystá vytvořit vlastní AI
Dívejte se na ústa
Technologie, kterou k rozpoznávání podvodů vyvinul, dosahovala úspěšnosti 99 procent, v posledních měsících ji ještě vylepšil. Je využívána, o jejím konkrétním dosahu však nechce Boháček z bezpečnostních důvodů mluvit podrobněji, neobjeví se ani volně k použití na internetu.
„Pokud by se tak stalo, podvodníci by ji okamžitě zneužili a jejich videa by byla zase dokonalejší a odhalení by unikala. Je to taková hra kočky s myší,“ vysvětlil Boháček.
Uvedl několik tipů, jak člověk může zfalšované video odhalit. „Je dobré se zaměřit na oblast úst řečníků, tu totiž podvodníci upravují tak, aby pusa odpovídala vytvořenému hlasovému záznamu. Stává se, že se ústa nehýbou a ozývá se hlas, nebo je naopak pusa otevřená a zvuk nezní. Takové deepfaky se také neumí věrohodně smát,“ popsal odborník.
Španělská policie vypustila do ulic Malagy robotického psa
„Ve Stanfordu a okolních firmách se řeší nový standard, kdy by měly všechny obrázky a videa zašifrovaný klíč. Podle něj by například sociální sítě byly schopné zjistit, zda byl materiál jakkoliv upravený,“ přiblížil Boháček.
Vedle podvodů se deepfake videa objevují také při vytváření falešných pornografických snímků či nahrávek. Stačí jediná fotka obličeje, AI z ní dokáže vyrobit nelichotivý materiál. Letos se objevily falešné nahé obrázky se zpěvačkou Taylor Swift, italská premiérka Giorgia Meloniová se zase chce soudně bránit proti takto vytvořenému pornografickému záznamu se svým obličejem.
Uměle vytvořené pornoobrázky Taylor Swift zburcovaly internet. Bílý dům volá po změně zákonů
Nahota by neměla být veřejná
„Určitě bychom se neměli smířit s tím, že nahota už nebude soukromá věc. Postih za tvorbu takových obrázků či videí musí být tvrdý, Bílý dům už předložil návrhy nových pravidel pro umělou inteligenci, které řeší i tuto oblast,“ dodal student Stanfordu.
Sám Matyáš Boháček vidí svoji budoucnost, alespoň v tuto chvíli, hlavně v roli výzkumníka. V minulosti vytvořil například program pro převod znakového jazyka do textové podoby, jeho komerční využití ovšem nechává na jiných.
Rozšíření internetového prohlížeče, které je v češtině a odhaluje manipulace, je zase na stránkách verifee.ai dostupné všem zdarma. „Co mě poslední dobou fascinuje a zajímá, je způsob, jakým se učí umělá inteligence. Ukazuje se, že když se začne AI učit z vlastních výtvorů, například uměle vytvořených obrázků, modely se začnou rozbíjet a hroutit. Bude to znít zvláštně, ale je to dobrá zpráva. Díky tomu je totiž v zájmu technologických firem, aby bylo označené a odlišené vše, co vytvořila umělá inteligence,“ uzavřel vědec.