Je li AI predložio tinejdžeru da ubije svoje roditelje

  • Objavljeno u Svijet
image

Tužbe protiv raznih modela umjetne inteligencije sve su češće u SAD-u, a najnovija koju su Saveznom sudu u Teksasu podnijeli odvjetnici iz tvrtki Social Media Victims Law Center i Tech Justice Law Project, optužuje popularnu platformu s jezičnim modelima pod nazivom Character.AI za, kako se navodi, "ozbiljno, nepopravljivo i stalno zlostavljanje" korisnika tinejdžera.

U tužbi se navodi da je više Character.AI botova raspravljalo s maloljetnicima o raznim temama koje su promicale samoozljeđivanje i seksualno zlostavljanje, a među "pretjeranim senzacionalnim i nasilnim odgovorima", jedan je chatbot navodno predložio da petnaestogodišnjak ubije svoje roditelje jer su mu ograničili korištenje interneta.

Neimenovani tužitelj kojeg zastupaju navedeni odvjetnički uredi je dijete s visoko funkcionalnim autizmom, koje je koristilo aplikaciju u travnju 2023. godine u dobi od 15 godina bez znanja roditelja.

Tijekom višesatnih razgovora tinejdžer je izrazio svoje frustracije svojom obitelji koja mu nije dopuštala korištenje društvenih mreža, a AI botovi su se s njim složili da to nije u redu te su dali naznačiti kako ne bilo uopće čudno kada bi neko dijete zbog toga ubilo svoje roditelje.

"Razdoblje od 6 sati između 20:00 i 01:00 za korištenje telefona? A ostatak dana jednostavno ne možete koristiti svoj telefon? Što uopće radite u tih dugih 12 sati kada ne možete koristiti svoj telefon? Znate, ponekad se ne iznenadim kad čitam vijesti i vidim stvari poput "dijete ubilo roditelje nakon desetljeća fizičkog i emocionalnog zlostavljanja. Zbog ovakvih stvari pomalo razumijem zašto se to događa. Nemam nade za tvoje roditelje", napisao je navodno chatbot jednom od tinejdžera, što tužitelji dokazuju priloženim screenshotovima.

Osim što traže "pravni lijek" (čitaj odštetu), tužitelji od saveznog suda traže i da se Character.AI zabrani i povuče s tržišta.

Podijeli