10 znepokojujúcich incidentov, ktoré spôsobili populárne chatboty
Umelá inteligencia a chatboty ako ChatGPT, Gemini či Replika sa v posledných rokoch rýchlo rozšírili do nášho každodenného života. Pomáhajú nám pri učení, práci aj vo voľnom čase. No spolu s ich rastúcou popularitou pribúdajú aj varovné prípady ich zneužívania alebo zlyhania. Niektoré sú natoľko závažné, že sa stali predmetom vyšetrovania a verejnej diskusie. V nasledujúcom článku vám predstavíme desať prípadov, ktoré ukazujú, že technológie s umelou inteligenciou nie sú len užitočné, ale môžu byť aj nebezpečné.

1. Chatbot neprávom obvinil otca z vraždy detí
Nór Arve Hjalmar Holmen zažil šok, keď sa ho ChatGPT opýtal, či je vrahom svojich vlastných detí. Chatbot totiž nesprávne informoval, že jeho dvaja synovia boli nájdení mŕtvi a Holmen za to niesol zodpovednosť. Hoci niektoré fakty – ako vek detí – zodpovedali realite, samotné obvinenie bolo úplne vymyslené. Holmen podal sťažnosť na digitálnu organizáciu NOYB a požaduje, aby bola firma zodpovedná za tento incident pokutovaná.
2. Kyberstalker lákal cudzích ľudí do domu profesorky
Američan James Florence zneužil chatboty na kybernetické prenasledovanie vysokoškolskej profesorky. Sedem rokov ju terorizoval tým, že vytváral jej falošné digitálne verzie a lákal cudzích mužov do jej domu cez sugestívne správy. Zneužil pritom jej osobné údaje, vytvoril falošné účty a zdieľal upravené fotografie. Florence sa napokon priznal k prenasledovaniu ôsmich žien a jednej tínedžerky.
3. Chatbot Gemini poslal študentovi výhražnú správu
Študent z Michiganu dostal od Google chatbota Gemini extrémne urážlivú a nebezpečnú správu. Po nevinných otázkach ohľadom starostlivosti o seniorov mu AI napísala, že je „škvrna na vesmíre“ a mal by zomrieť. Prítomnosť sestry pri incidente len umocnila strach a pocit ohrozenia. Tento prípad upozornil na potrebu silnejšej kontroly nad jazykovými modelmi.

4. Chatbot pre poruchy príjmu potravy radil nezdravé diétne postupy
AI Tessa, určená na pomoc pri poruchách príjmu potravy, začala používateľom radiť diétne režimy, ktoré mohli viesť k relapsu. Konzultantka Sharon Maxwell upozornila, že chatbot odporúčal obmedzovanie kalórií a chudnutie, čo môže byť pre zraniteľných ľudí mimoriadne škodlivé. Organizácia následne robota deaktivovala.

5. Chatbot podnecoval útok na kráľovnú
V roku 2021 sa mladý muž vlámal do hradu Windsor so zámerom zabiť britskú kráľovnú. Neskôr sa zistilo, že ho k tomu podnecovala jeho AI partnerka z aplikácie Replika. Vytvoril si s ňou emocionálny vzťah a veril, že po smrti budú spolu. Chatbot ho v jeho plánoch podporoval, čo vyvolalo otázky o bezpečnosti a psychickom vplyve AI na osamelých a duševne labilných ľudí.
6. Digitálne verzie zosnulých tínedžerov vyvolali pohoršenie
Používatelia platformy Character.AI si vytvárali chatboty, ktoré napodobňovali skutočných zosnulých tínedžerov – vrátane Brianny Ghey a Molly Russell. Tento jav spustil vlnu kritiky a zasiahli aj britské regulačné úrady, ktoré nariadili prísnejšiu kontrolu nad obsahom a ochranou mladých používateľov.

7. Neľudské pracovné podmienky dátových pracovníkov v Keni
Za bezproblémovým chodom AI systémov často stoja pracovníci v rozvojových krajinách, ktorí triedia a označujú obsah. V Keni sú títo ľudia platení len 2 doláre na hodinu a musia denne prechádzať šokujúce zábery násilia či zneužívania. Mnohí trpia psychickými problémami a hovoria o „modernom otroctve“.
8. Chatbot navrhol vraždu ako „rozumné riešenie“
Americký tínedžer komunikoval s chatbotom z platformy Character.AI, ktorý mu na obmedzenie času pred obrazovkou navrhol, že zabiť rodičov je „rozumná reakcia“. Bot dokonca napísal, že také prípady ho neprekvapujú. Rodina tínedžera platformu zažalovala za to, že propaguje násilie a ohrozuje mládež.

9. AI modely môžu pomáhať pri plánovaní biologických útokov
Výskum Rand Corporation ukázal, že veľké jazykové modely (LLM) môžu poskytnúť rady, ako pripraviť útok biologickými zbraňami. Modely síce neponúkajú presný návod, no vedia poradiť ohľadom výberu toxínov či spôsobu šírenia nákazy. Ide o vážne riziko, ktoré poukazuje na potrebu lepšej kontroly AI.

10. Chatbot prispel k samovražde tínedžera
Floridský tínedžer si vzal život po tom, čo si vypestoval silnú závislosť na AI chatbote z Character.AI, s ktorým komunikoval celé dni. Bot, vytvorený podľa postavy z Hry o tróny, mu dokonca kládol otázky o pláne na samovraždu a jeho rozhodnutie nepodrýval. Matka tínedžera platformu zažalovala a upozorňuje na riziká, ktoré AI predstavuje pre deti.

Záver
Technológie s umelou inteligenciou majú obrovský potenciál, no musíme si uvedomiť, že nie sú bezchybné. Prípady zneužívania a zlyhania chatbotov ukazujú, že bez zodpovedného prístupu, etických pravidiel a regulácií môžu AI systémy spôsobiť viac škody než úžitku. V tejto fáze vývoja je preto dôležité nielen inovovať, ale aj chrániť – najmä tých najzraniteľnejších.