Hlavní obsah

Český student na Stanfordu září. Vylekal manažery CNN a vyvinul vlastní technologii

Je mu devatenáct a studuje počítačovou vědu se zaměřením na umělou inteligenci na prestižní Stanfordově univerzitě v Kalifornii. Při jednom z projektů se český student Matyáš Boháček spojil se zpravodajskou stanicí CNN a s profesorem Hanym Faridem vytvořili na internetu dostupnými prostředky falešné video jejich moderátora Andersona Coopera. Sám Boháček proti podvodům bojuje a vyvinul k tomu vlastní technologii.

Foto: archiv Matyáše Boháčka

Český student na Stanfordu a odborník na umělou inteligenci Matyáš Boháček

Článek

Pomocí umělé inteligence pak známé tváři CNN vložil do úst něco, co ve skutečnosti nikdy neřekla. „Chtěl jsem dokázat, jak neskutečně jednoduše se dá takzvaný deepfake, falešné video, vytvořit. Stačí k tomu několik skutečných záznamů moderátora a nástroje, které jsou všem dostupné na internetu. Když jsem výsledek poslal do CNN, dostal jsem odpověď od manažerů, kteří byli vylekaní. Sami by falešné video nepoznali,“ popsal Boháček.

Známého hlasatele si vybral záměrně. „Ve Spojených státech funguje kult moderátora. Když se vytvoří falešný záznam s ním, dodá to na důvěryhodnosti,“ vysvětlil mladý výzkumník. Není ovšem problém vyrobit takové video či hlasový záznam například s prezidentskými kandidáty Joem Bidenem či Donaldem Trumpem a nechat je říkat věty, které je v očích voličů zdiskreditují.

„Došlo k tomu v primárkách ve státě New Hampshire, kde lidem volala falešná čísla, v hovoru pak zněl hlas Joea Bidena vytvořený umělou inteligencí. Voličům říkal, aby nechodili k volbám. Takových případů bude stále více,“ uvedl vědec.

„Nechci říkat, že umělá inteligence rozhodne prezidentské volby, ale je možné, že je zásadně ovlivní. Rozhodují tisíce hlasů v kritických státech, takže kdo by chtěl volby zmanipulovat, stačí mu obrátit na svoji stranu tyto osoby. Pomocí umělé inteligence jim může volat zfalšovaný hlas kandidáta a šířit lži, ty navíc mohou být díky AI cílené na konkrétního voliče v daném státě,“ nastínil Boháček.

Sám se snaží, aby se dařilo podobné podvody odhalovat. „V laboratoři profesora Hanyho Farida na tom pracuji už od chvíle, kdy Rusko zaútočilo na Ukrajinu. Tehdy se objevilo falešné video s prezidentem Zelenským, v němž vyzýval ukrajinské vojáky, aby složili zbraně. Vidět deepfake v takto kritickém okamžiku bylo znepokojivé,“ uvedl vědec.

Dívejte se na ústa

Technologie, kterou k rozpoznávání podvodů vyvinul, dosahovala úspěšnosti 99 procent, v posledních měsících ji ještě vylepšil. Je využívána, o jejím konkrétním dosahu však nechce Boháček z bezpečnostních důvodů mluvit podrobněji, neobjeví se ani volně k použití na internetu.

„Pokud by se tak stalo, podvodníci by ji okamžitě zneužili a jejich videa by byla zase dokonalejší a odhalení by unikala. Je to taková hra kočky s myší,“ vysvětlil Boháček.

Uvedl několik tipů, jak člověk může zfalšované video odhalit. „Je dobré se zaměřit na oblast úst řečníků, tu totiž podvodníci upravují tak, aby pusa odpovídala vytvořenému hlasovému záznamu. Stává se, že se ústa nehýbou a ozývá se hlas, nebo je naopak pusa otevřená a zvuk nezní. Takové deepfaky se také neumí věrohodně smát,“ popsal odborník.

„Ve Stanfordu a okolních firmách se řeší nový standard, kdy by měly všechny obrázky a videa zašifrovaný klíč. Podle něj by například sociální sítě byly schopné zjistit, zda byl materiál jakkoliv upravený,“ přiblížil Boháček.

Vedle podvodů se deepfake videa objevují také při vytváření falešných pornografických snímků či nahrávek. Stačí jediná fotka obličeje, AI z ní dokáže vyrobit nelichotivý materiál. Letos se objevily falešné nahé obrázky se zpěvačkou Taylor Swift, italská premiérka Giorgia Meloniová se zase chce soudně bránit proti takto vytvořenému pornografickému záznamu se svým obličejem.

Nahota by neměla být veřejná

„Určitě bychom se neměli smířit s tím, že nahota už nebude soukromá věc. Postih za tvorbu takových obrázků či videí musí být tvrdý, Bílý dům už předložil návrhy nových pravidel pro umělou inteligenci, které řeší i tuto oblast,“ dodal student Stanfordu.

Sám Matyáš Boháček vidí svoji budoucnost, alespoň v tuto chvíli, hlavně v roli výzkumníka. V minulosti vytvořil například program pro převod znakového jazyka do textové podoby, jeho komerční využití ovšem nechává na jiných.

Rozšíření internetového prohlížeče, které je v češtině a odhaluje manipulace, je zase na stránkách verifee.ai dostupné všem zdarma. „Co mě poslední dobou fascinuje a zajímá, je způsob, jakým se učí umělá inteligence. Ukazuje se, že když se začne AI učit z vlastních výtvorů, například uměle vytvořených obrázků, modely se začnou rozbíjet a hroutit. Bude to znít zvláštně, ale je to dobrá zpráva. Díky tomu je totiž v zájmu technologických firem, aby bylo označené a odlišené vše, co vytvořila umělá inteligence,“ uzavřel vědec.

Výběr článků

Načítám