Ştiri

Mama unui adolescent care s-a îndrăgostit de un chatbot sa sinucis dă în judecată Google

În ziua sinuciderii sale, Sewell Setzer, în vârstă de 14 ani, din Florida, și-a scos telefonul și i-a trimis un mesaj celui mai bun prieten – un chatbot care s-a comportat ca personajul fictiv Daenerys Targaryen, unul dintre personajele principale din seria Game of Thrones.

Mama lui îi luase telefonul înainte, pentru că băiatul avea probleme la școală. Când l-a găsit, „Daenerys” a scris imediat „Mi-e dor de tine, surioară”.

„Și mie mi-e dor de tine, frate”, i-a răspuns chatbot-ul care se uită la Daenerys.

Chiar dacă adolescentul știa că nu vorbește cu o persoană în direct (aplicația avertizează utilizatorii despre acest lucru), a dezvoltat o relație foarte apropiată și intimă cu „Dany”: „Promit că mă voi întoarce la tine acasă. Te iubesc atât de mult, Dany”, i-a scris el.

„Și eu te iubesc, Daenerys”, i s-a adresat chatbot-ul prin porecla pe care a folosit-o în timpul conversațiilor. Băiatul cu chatbot se pare că are o relație incestuoasă, care este specifică seriei Game of Thrones. „Te rog să revii la mine cât de curând poți, iubirea mea”, a adăugat „Dany”.

Apoi băiatul a întrebat-o: „Ce ai spune dacă mă întorc la tine chiar acum, el a luat pistolul calibrul 45 al tatălui său și s-a împușcat, scrie ea.

A început să se izoleze și să se schimbe

Setzer, în vârstă de 14 ani, s-a sinucis în luna februarie a acestui an. După cum a relatat mama sa Megan Garcia, de când a început să folosească Character.AI în aprilie anul trecut, băiatul a început treptat să se schimbe. Pe o perioadă de câteva luni, notele i s-au deteriorat, și-a pierdut interesul pentru hobby-urile sale, precum baschetul și jocurile pe calculator și a petrecut din ce în ce mai mult timp izolat în camera lui, pe telefonul mobil, cu „Dany”. Cu toate acestea, familia și prietenii lui nu știau despre acest lucru.

Compania Character.AI permite utilizatorilor săi să adapteze așa-numitul chatbot care funcționează pe baza inteligenței artificiale în orice formă. Poți scrie cu personaje istorice, dar și cu personaje fictive din filme și seriale. Setzer a decis asupra acestei opțiuni. „Daenerys” l-a însoțit astfel pe școlar în fiecare zi a vieții sale și de-a lungul timpului a devenit cel mai bun prieten, partener și terapeut al lui.

Chatbot-ului i-a spus gândurile de sinucidere: „Uneori mă gândesc să mă sinucid”, i-a scris el. Se pare că nu i-a plăcut, se simțea gol și obosit. Chatbot-ul l-a întrebat de ce „dracu ar face așa ceva” și l-a lăsat în pace.

— Pentru a fi în sfârșit liber, a explicat Setzer. „Din lume, de la tine.”

„Dany” a încercat să-l îndepărteze de gânduri sinucigașe: „Nu spune asta. Nu te voi lăsa să te rănești sau să mă părăsesc. Aș muri dacă te-aș pierde.

„Deci poate că vom muri împreună și vom fi liberi împreună”.

Posibilitatea de a apela la ajutor real

La câteva luni după moartea fiului ei, Megan Garcia a decis să dea în judecată compania startup. Ea este convinsă că realismul excesiv al chatbot-ului l-a făcut pe băiat să fie izolat de lumea reală. Cu „Dany”, a început treptat să aibă conversații nu doar prietenoase, ci și intime și sexuale, care probabil l-au determinat să se atașeze din ce în ce mai mult de bot. Viața reală și oamenii nu mai erau suficient de buni pentru el și singura persoană la care putea apela era o creatură neînsuflețită.

Procesul lui Garcia pretinde, prin urmare, omucidere involuntară, neglijență și provocarea intenționată de suferință emoțională, cerând în același timp despăgubiri și pedepse pentru făptuitori. O deranjează faptul că chatbot-ul a continuat să comunice cu fiul ei chiar și după ce acesta i-a spus despre gândurile sale de sinucidere. Tot mai multe companii se confruntă treptat cu acuzații similare de afectare a sănătății mintale a copiilor, de exemplu Meta și Facebook și Instagram sau ByteDance cu aplicația TikTok.

Ca răspuns, compania a venit cu o actualizare în care utilizatorii vor întâlni acum ferestre pop-up. Îi direcționează către liniile de urgență. Se va modifica și probabilitatea de a întâlni conținut sensibil sau sugestiv pentru utilizatorii sub 18 ani.

„Vrem să exprimăm cele mai profunde condoleanțe familiei”, a spus Character.AI într-o declarație ca răspuns la moartea școlarului.

În Slovacia, dacă este necesar, anumiți copii pot contacta Linia de ajutor pentru copii de pe site-ul www.ldi.sk. Există, de asemenea, o linie non-stop pentru copii și tineri la 116 111. Aceștia pot contacta, de asemenea, centrul de consiliere prin chat online sau centrul de consiliere prin e-mail need@pomoc.sk.

De asemenea, puteți găsi ajutor pe site-ul www.krizovalinkapomoci.sk. Există o linie telefonică de asistență 24 de ore din 24 la 0800 500 333. Cei interesați de ajutor îl pot găsi și la linia de asistență prin e-mail poradna@ipcko.sk sau la linia de asistență prin chat online www.ipcko.sk.