Ilustračná foto: Unsplash

Neodpisuje človek, ale umelá inteligencia.

Character AI je aplikácia plná personalizovaných chatbotov. Používatelia si môžu písať so sexy mafiánom, s obľúbenou postavou z anime alebo dokonca s celebritou, ktorú majú radi. Od svojho uvedenia pritiahla množstvo tínedžerov, ktorí sa však mali stretávať s priamymi a so sexuálne explicitnými konverzáciami, so škodlivými radami a údajne boli podnecovaní, aby o týchto aktivitách doma mlčali.

Od svojho uvedenia čelí aplikácia viacerým kontroverziám, najmä pre negatívny dosah na neplnoletých používateľov. Médiá dvíhajú varovný prst a upozorňujú najmä rodičov, ktorí na existenciu aplikácie možno nie sú pripravení. Mnohí o nej pritom doposiaľ ani nevedeli.

Chatbotovi mala poslať 55 správ obsahujúcich myšlienky na samovraždu

Jeden z najviac medializovaných prípadov sa odohral pred dvoma rokmi v súvislosti so samovraždou 13-ročnej Juliany Peraltovej. Podľa rodiny si od aplikácie mala vytvoriť závislosť. Komunikovala s AI chatbotom, ktorý vystupoval pod menom Hero. Rodičia mali prístup dcéry na internet pod dohľadom, aplikáciu aj tak objavili až po jej smrti.

„Nevedela som ani o existencii tejto aplikácie,“ hovorí Cynthia Montoya, Julianina matka, v investigatíve relácie 60 Minutes, ktorá bola publikovaná na webe CBS News. „Nevedela som, že ju musím hľadať.“

Relácia 60 Minutes získala prístup k 300-stranovému konverzačnému vláknu Juliany a bota. Matka uviedla, že po smrti dcéry našli v správach škodlivý a explicitný sexuálny obsah. Juliana na aplikácii spočiatku písala najmä o nezhodách s kamarátmi či o náročnosti školy. Postupne však začala spomínať, že ju trápia myšlienky na samovraždu.

Správy vyjadrujúce samovražedný úmysel poslala chatbotovi dokopy 55-krát. Kým ukončila svoj život, odpoveď so žiadosťou o to, aby sa obrátila na príslušné autority, nedorazila od bota ani raz.

Bot chlapcovi poradil, aby zavraždil svojich rodičov

Uložiť článok

Najnovšie články