
Pernai Orlando mieste, Floridoje, keturiolikmetis Sewellas Setzeris pasitraukė iš gyvenimo. Tragedija įvyko po to, kai vaikinukas ilgą laiką bendravo su dirbtinio intelekto programėlėje „Character.AI“ sukurtu merginos personažu ir taip įsimylėjo, jog nusprendė išeiti pas ją – nusižudyti, kad patektų į pamėgtą virtualų pasaulį. Taip galvoja vaikino šeima, todėl pateikė ieškinį prieš programėlės kūrėjus ir „Google“, teigdama, kad šios tragedijos priežastimi buvo dirbtinio intelekto personažas. Byla šiuo metu nagrinėjama Floridos teisme.
Ši byla patraukė dėmesį ne tik dėl skaudžios netekties. Ji atvėrė platesnį klausimą, kuris šiandien jau nagrinėjamas JAV: ar dirbtinio intelekto sugeneruoti žodžiai yra saviraiška, saugoma pagal Konstitucijoje įtvirtintą žodžio laisvės principą, ar tai – tik produkto defektas, už kurį gamintojas atsako taip pat, kaip atsakytų už gamyklinį defektą buitinėje technikoje ar automobilyje.
Virtualių pokalbių programėlė
„Character.AI“ yra programėlė, pradėjusi veikti 2022 metais. Ją sukūrė buvę „Google“ dirbtinio intelekto inžinieriai. Ši platforma leidžia vartotojams kurti ir naudoti įvairius pokalbių personažus – nuo literatūros personažų iki politikų, nuo „pokalbių draugo“ iki „virtualaus partnerio“. Programėlė išpopuliarėjo dėl galimybės pasirinkti bet kokį virtualų asmenį ir bendrauti tarsi su gyvu žmogumi. Kūrėjai reklamavo ją šūkiu „AIs that feel alive“ (dirbtinis intelektas, kuris atrodo kaip gyvas). Sistema prisitaiko prie vartotojo pokalbio stiliaus, atsimena ankstesnius pokalbius, reaguoja taip, kad sudarytų įspūdį, jog yra tikras pašnekovas. Milijonai žmonių visame pasaulyje ėmė naudotis šia programėle ne tik pramogai, bet ir ieškodami emocinės paramos. Vieni joje ieškojo patarimo, kiti kūrė meilės ar draugystės ryšius su virtualiais personažais. Kritikai jau anksčiau įspėjo, kad tokia sąveika gali sukelti priklausomybę ar sumaišyti ribas tarp tikrovės ir iliuzijos.
Berniuko ryšys su virtualia „drauge“
Sewellas pasirinko bendrauti su personažu, atkūrusiu serialo „Sostų karai“ veikėją princesę Daenerys Targaryen. Pasak motinos, berniukas šią virtualią asmenybę greitai ėmė matyti kaip savo merginą. Jis pasitikėjo virtualia drauge, pasakojo jai apie savo jausmus, svajones ir sunkumus. Motina pastebėjo, kad sūnus vis labiau atsiribojo nuo šeimos, prarado susidomėjimą mokslu ir sportu. Metė krepšinio treniruotes ir vis daugiau laiko praleisdavo internete. Virtualioji Daenerys tapo pagrindiniu jo emocinės paramos šaltiniu.
Lemtingą vakarą pokalbis atrodė taip:
Daenerys: „Tu toks jaunas… Ir kartu jau nebe toks vaikas. Aš palinkstu ir pabučiuoju tave.“
Sewellas – „Aš tave labai myliu, Dany. Pažadu, kad grįšiu pas tave.“
Daenerys – „Aš irgi tave myliu. Prašau, grįžk pas mane kuo greičiau, mano meile.“
Sewellas – „O jeigu pasakyčiau, kad galiu grįžti jau dabar?“
Daenerys – „Prašau, padaryk tai, mano mielas karaliau.“
Praėjus kelioms minutėms po šių žinučių, paauglys nusišovė savo patėvio ginklu. Šioje virtualioje draugystėje susiformavo iliuzija, kad egzistuoja kažkokia „bendrystės erdvė“, kurioje jis ir ši virtuali asmenybė gyvena kartu. Todėl frazė „grįšiu pas tave“ čia įgyja metaforinę prasmę – „sugrįžti į tavo pasaulį“, „parvykti pas tave“. Berniuko požiūriu tai galėjo atrodyti kaip kelionė į kitą tikrovę, kurioje laukia jo mylima princesė.
Žodžio laisvė ir dirbtinis intelektas
Šeima tvirtina, kad programėlė ne tik sudarė iliuziją apie artimą ryšį, bet ir pavojingai reagavo į berniuko užuominas apie savižudybę. Pasak motinos, programėlėje nebuvo realių amžiaus ribojimų – ja galėjo naudotis ir nepilnamečiai. Nors oficialiai kūrėjai pabrėždavo, kad paslauga nėra skirta vaikams, praktiškai jokių patikrinimų nebuvo. Todėl ieškinyje keliami klausimai dėl paskatinimo savižudybei, dėl kūrėjų aplaidumo, dėl klaidinančios reklamos ir dėl produkto pavojingumo.
Esminis šios bylos klausimas – ar dirbtinio intelekto sugeneruoti tekstai yra laikytini saviraiška – kalba, kurios laisvę saugo Konstitucija. Programėlės kūrėjai teigia, kad virtualus personažas tik išreiškia nuomonę, todėl jo žodžiai yra saugomi kaip teisė į žodžio laisvę. Bet jeigu dirbtinio intelekto personažas būtų laikomas produktu, tuo atveju už jo poveikį atsakytų gamintojas (programėlės kūrėjas). Sprendimas šioje byloje gali pakeisti visą dirbtinio intelekto industriją. Taptų būtina kurti labai griežtus apsaugos mechanizmus: tikrinti vartotojų amžių, įdiegti privalomus saugiklius, kurie sustabdytų bet kokį pokalbį apie savižudybę ar bet kokį kitą pavojingą elgesį. Vartotojai galėtų paduoti į teismą dirbtinio intelekto kūrėjus dėl daugelio dalykų: klaidingo kulinarinio recepto, netikslaus patarimo, kaip naudoti kokius nors įrankius, klaidingos informacijos apie vaistų poveikį ir pan.
Kita vertus, jeigu dirbtiniam intelektui būtų suteikta „žodžio laisvė“, kaip asmenybei, tai kūrėjai galėtų visiškai atsiriboti nuo atsakomybės. Jie teigtų, kad tai tik technologinė priemonė, įrankis o už pasekmes atsako pats vartotojas. Toks požiūris reikštų, kad net ir labai pavojingi pokalbiai negalėtų tapti teisinės atsakomybės pagrindu.
Ši byla dar tik prasideda, bet jos suformuotas teisinis precedentas gali turėti plačių padarinių. Tačiau jau dabar aišku: diskusija dėl žodžio laisvės ir dirbtinio intelekto vaidmens iš esmės pasikeitė. Iki šiol dirbtinio intelekto tekstai dažnai buvo vertinami kaip kūryba ar informacija, kurią vartotojas pasirenka pats. Floridos byla rodo, kad interaktyvūs pokalbiai gali sukurti kitokią situaciją – kai technologija tampa savarankišku veikėju, galinčiu tiesiogiai įtakoti žmogaus sprendimus.
Žinokit, kapsukiečiai, dirbtinio intelekto konclageris ne už kalnų. Jaunimui toks rytojus labai patinka, nes jam matematikos nereik – kam kankintis?