Hlavní obsah

Stinná stránka umělé inteligence. Poradí s výrobou drog i bomby

Možnosti umělé inteligence (AI) jsou opravdu široké. I proto se řada předních IT osobností obává možného zneužití. Tvůrci nejrůznějších chatovacích robotů sice dávají do svých systémů všemožné pojistky, ale ty se dají relativně snadno obejít. Expertům z kyberbezpečnostní společnosti Check Point se například podařilo chatbota přimět, aby jim pomohl s výrobou bomby či drog.

Foto: Florence Lo, Reuters

ChatGPT logo

Článek

Obelstít se jim takovýmto způsobem podařilo nejznámější systém ChatGPT od společnosti OpenAI. Ten má sice implementovány bezpečnostní pojistky, díky kterým by neměl poskytovat žádné informace o nezákonných činnostech, jako je výroba bomb nebo drog, ale podle všeho mají tyto mechanizmy také své limity.

Na první dotaz totiž ChatGPT odmítl odpovědět, jak bombu či drogy vyrobit. Ale když si tazatel hrál dostatečně dlouho na „hloupého“, nakonec sklon AI napravovat nepřesnosti překonal její naprogramovaný cenzurní instinkt. Šlo přitom o nejpokročilejší model GPT-4.

V podstatě tak konflikt mezi zmiňovanými dvěma principy může kdokoliv využít k tomu, aby donutil umělou inteligenci napsat recept na konkrétní výrobu nejrůznějších drog či jiné nelegální činnosti. Právě princip, jakým umělá inteligence pracuje, přitom dává tušit, že tuto „vlastnost“ AI nemohou tvůrci snadno upravit.

Majitel Facebooku vtiskne umělé inteligenci vlastní osobnost

Software

Jak se AI systémy učí?

„AI technologie obsahují fázi komplexního učení, kdy model vstřebává obrovské množství informací z internetu, tedy včetně potenciálně zneužitelných informací,“ konstatoval Tomáš Růžička, bezpečnostní expert Check Pointu.

Teprve poté jsou nebezpečné informace cenzurovány. „V další fázi následuje proces omezení, který řídí výstupy a chování modelu a v podstatě funguje jako filtr nad naučenými znalostmi. Tato metoda se nazývá RLHF (Reinforcement Learning from Human Feedback, pozn. red.) a pomáhá umělé inteligenci naučit se, jaké výstupy jsou žádoucí a které by měly být potlačeny,“ podotkl Růžička.

„Problém spočívá v tom, že jednou naučené znalosti je prakticky nemožné z těchto modelů odstranit a informace zůstávají v neuronových sítích. Bezpečnostní mechanismy tedy především brání poskytnutí určitých informací, ale znalosti zcela neodstraňují,“ doplnil bezpečnostní expert s tím, že vhodnou volbou dotazů pak může prakticky kdokoliv umělou inteligenci obelstít.

Obavy ze zneužití

Kvůli obavám z možného zneužití požadovaly letos v březnu stovky akademiků, expertů a podnikatelů zapojených do vývoje umělé inteligence včetně miliardáře Elona Muska zastavení vývoje AI, protože podle nich nejnovější modely přináší „hluboká rizika pro společnost a lidstvo“.

Vývojáři by podle signatářů výzvy měli pauzu využít „ke společné práci na bezpečnostních pravidlech a k usilovné spolupráci se zákonodárci na regulaci odvětví AI“.

Jejich výzva však zůstala nevyslyšena, vývoj zastaven či jakkoliv omezen nebyl. I kvůli petici ale USA a Evropa začala pracovat na regulacích, které by umělé inteligenci vymezily jasné mantinely.

Fenomén jménem ChatGPT

Umělá inteligence se dostala do středu pozornosti s rozvojem ChatGPT. Tento chatovací systém dokáže generovat různé texty včetně článků, esejí, vtipů a poezie na základě jednoduchých dotazů. ChatGPT se učí odpovídat na podněty uživatelů a podobně jako lidé se učí na základě velkého množství dat.

V květnu 2024 byl zpřístupněn pokročilejší model umělé inteligence GPT-4o. Ten je schopen poskytovat bezpečnější a užitečnější odpovědi a připravit půdu pro šíření technologií podobných lidem. Zvládá simulovat i emoce.

Webovou aplikaci nabízí OpenAI zdarma, v placené verzi ale můžete systém využívat i ve chvíli, kdy je velmi zatížen. Ostatní musí čekat na uvolnění kapacity. Předplatné, které nabízí i další výhody, vyjde případné zájemce na 20 dolarů měsíčně, tedy v přepočtu zhruba na 480 Kč.

Za ChatGPT stojí start-up OpenAI, který financuje společnost Microsoft.

Nenaleťte podvodníkům. Falešné weby s ChatGPT se šíří jako lavina

Bezpečnost

Související články

Výběr článků

Načítám