Článek
Snadno se může stát, že vám zavolá příbuzný a zoufale požádá o finanční pomoc. Ve skutečnosti nevolá nikdo z rodiny, nýbrž program nastavený zloději tak, že umí dokonale napodobit hlas příbuzného.
Naučit takové triky umělou inteligenci dnes skoro nic nestojí a trvá to chvilku. Počet útoků roste a s ním i částky, o které přicházejí lidé po světě, Česko nevyjímaje.
„V roce 2000 způsobily kybernetické útoky lidem škodu za sto milionů dolarů. Loni už částka přesahovala deset miliard dolarů a čísla rostou stále rychleji,“ potvrdil ve čtvrtek na setkání v Praze Ondřej Vlček, prezident antivirové firmy Gen.
Dokonalá past. Přes kopii Alzy kyberšmejdi oškubou i ostražité uživatele
I videa se dnes falšují tak důmyslně, že se jen těžko zjišťuje, zda třeba prezident lákající na webu nebo sociálních sítích na pohádkové zbohatnutí toto opravdu někdy řekl, anebo ne. Podvedený peníze už neuvidí. Klienty českých bank letos za prvních deset měsíců připravily kyberútoky skoro o miliardu.
A bude hůř, protože rozvoj umělé inteligence a její veřejná dostupnost jdou dál. „Příští rok už technologie pokročí natolik, že ani expert pohledem nepozná zfalšované video od skutečného,“ konstatoval technický ředitel Genu Michal Pěchouček.
Zatím ještě podvod není dokonalý – typicky pohyby úst zcela neodpovídají vyřčeným větám. To se ale podle Pěchoučka v brzkých měsících změní a takzvaná deepfake videa budou k nerozeznání od originálu.
Podezřelé hovory
„Vyrobit video tímto způsobem je tak levné a snadné, že se určitě objeví falešná videa i se mnou,“ podotkl Vlček. Proto je podle něj možné, že snímky do budoucna budou muset „podepisovat“ certifikátem o pravosti. Jako pravý a originální ho takto označí samotná osobnost nebo důvěryhodné médium.
S něčím takovým ostatně počítají i tvůrci chystané legislativy na úrovni Evropské unie. Takový podpis může fungovat za dva až tři roky, ale určitě ne příští rok, upozornil Vlček.
Jak už bylo řečeno, umělou inteligenci mohou podvodníci použít i pro naklonování hlasu. Umožňuje to třeba veřejně dostupná služba ElevenLabs. Stačí jí nahrát záznam hlasu, který chceme použít, k tomu připsat smyšlený text a už ho program naučeným hlasem čte.
Podvodníci, kteří často využívají i dat uživatelů sociálních sítí, se takto mohou zmocnit hlasu libovolného člověka a poté se za něj vydávat. „Takto lze naklonovat i hlas v češtině, zabere to patnáct minut,“ varoval Vlček.
Co s tím? Bohužel, u každého hovoru bude lépe předpokládat, že může být falešný. Vedle programů na odhalování podvodů ale mohou pomoci i primitivnější způsoby – například si na začátku hovoru říct smluvené heslo, které s námi zná jen volající. „Útočník totiž může podvrhnout i telefonní číslo,“ dodal Pěchouček. Pokud si člověk není jistý, měl by raději hovor ukončit, vyťukat číslo příbuzného a zavolat mu zpět.