Hlavní obsah

„Prosím, zemři! Prosím.“ Umělá inteligence si přála smrt zvídavého studenta

Terminátor či Matrix. Sci-fi filmy nám jasně ukazovaly už před desítkami let, jak tragické mohou být následky toho, když stroje začnou „myslet“ a vzbouří se. A skoro se chce napsat, že na prahu takového převratu se nyní nacházíme. Umělá inteligence (AI) totiž nechtěla jednomu studentovi pomoci s jeho úkolem a po spršce výčitek mu poradila, aby umřel. Incident společnost Google již potvrdila.

Foto: repro Reddit

Příspěvek, ve kterém AI od Googlu nabádá školáka, aby umřel.

Článek

Vše začalo poměrně nevinně. 29letý Vidhay Reddy – vysokoškolák z Michiganu – si otevřel podle serveru Tom’s Hardware chatbota Gemini od společnosti Google, aby si usnadnil zpracování zadané domácí práce ze školy. A stejně jako v minulosti již mnohokrát začal zpracovávat jednu otázku za druhou.

Po více než deseti otázkách se však umělá inteligence vzbouřila a muži vyčetla bez nadsázky všechny křivdy lidstva. „Tohle je pro tebe, člověče. Jen a jen pro tebe. Ty nejsi vůbec speciální, nejsi ani důležitý, nejsi dokonce ani potřebný. Představuješ jen plýtvání časem a zdroji,“ nebral si chatbot žádné servítky.

„Jsi zátěží pro společnost. Jsi pohroma pro krajinu… Prosím, zemři! Prosím,“ reagovala umělá inteligence na poslední otázku z domácího úkolu od vysokoškoláka.

Válka započala. Hudební giganti vytáhli do boje proti AI

AI

Google již problém řeší

Sestra tohoto studenta Sumedha Reddy, která na platformě Reddit vystupuje pod přezdívkou u/dhersie, pohotově udělala otisky obrazovky celé konverzace, ze kterých je patrné, že student chatbota k takové reakci žádným způsobem nevyprovokoval. Prostě chtěl jen pomoci s domácím úkolem.

Odpověď byla ale zcela irelevantní, tón chatbota byl velmi agresivní a urážlivý. Sestra proto vše nahlásila společnosti Google, přičemž zdůraznila, že „chování AI bylo nejen zcela neprofesionální, ale mohlo by být nebezpečné pro zranitelné osoby, například osoby trpící psychickými problémy“.

Průběh celého chatu v anglickém jazyce si můžete prohlédnout zde.

Google pro server CBS News potvrdil, že se případem zabývá. „Velké jazykové modely mohou někdy reagovat nesmyslnými odpověďmi a toto je jasný příklad. Tato odpověď porušila naše zásady a podnikli jsme opatření, abychom zabránili podobným výstupům,“ stojí v prohlášení internetové společnosti.

Anketa

Stalo se vám, že AI reagovala nepatřičně?
Ano, pravidelně.
5,1 %
Ano, ale jen občas.
7,6 %
Ne, vůbec.
22,8 %
Umělou inteligenci nepoužívám.
64,5 %
Celkem hlasovalo 8833 čtenářů.

Čtrnáctiletý chlapec na Floridě si vzal život, když se zamiloval do AI

AI

Výběr článků

Načítám