Florida nesen nonākusi uzmanības centrā stāstu dēļ, kuros sarunas ar ChatGPT kļuvušas par pierādījumiem krimināllietās. Tas nav stāsts par traku kļuvušu mākslīgo intelektu, bet gan par cilvēkiem, kuri kļūdaini uzskata, ka šādas sarunas ir pilnībā privātas. Ja ziņas atstāj digitālas pēdas, tās var negaidīti atgriezties brīdī, kad vismazāk to gaidām.
Pusaudžu bīstamās “spēles”
Vienā no izmeklēšanām aizturēts 17 gadus vecs jaunietis, kurš inscenēja pats savu nolaupīšanu un pat tīši savainoja sevi, lai stāsts izklausītos ticamāks. Viņa datorā atrada jautājumus par narkokarteļiem un to, kā nesāpīgi paņemt asinis pašam sev. Šis plāns iedarbināja Amber Alert trauksmes sistēmu, kas paredzēta situācijām, kad bērna dzīvība ir reāli apdraudēta.
Cits gadījums notika skolā, kur 13 gadus vecs skolēns izmantoja skolas kontu, lai uzdotu jautājumu, kā stundas laikā nogalināt draugu. Uzraudzības sistēma nekavējoties paziņoja par to dežurējošajam darbiniekam, bet zēns vēlāk apgalvoja, ka tas bijis tikai joks. Štatos, kur skolu apšaudes ir sāpīga ikdienas realitāte, šādus “jokus” neuztver kā humoru.

Vai informācijas meklēšana pati par sevi var būt noziegums?
Lielākajā daļā tiesību sistēmu par vienkāršu ziņkāri nesoda, kamēr tā nepārkāpj skaidri noteiktas robežas. Problēmas sākas brīdī, kad jautājumi ir saistīti ar aizliegtām darbībām vai reālu apdraudējumu. Tad tiek vērtēti nodomi un apstākļi, un pat meklējumi vien var kļūt par daļu no kriminālprocesa.
Tāpat kā pārlūkošanas vēsture vai vaicājumi meklētājos, arī sarunas ar mākslīgo intelektu var nonākt tiesā kā pierādījumi. Izmeklētāji jau vairākkārt tajās atraduši norādes uz plānotiem noziegumiem vai bīstamām fantāzijām. Tādēļ digitālās pēdas mūsdienās ir tikpat nozīmīgas kā fiziski pierādījumi.
Viegla piekļuve bīstamai informācijai
Cilvēkus satrauc tas, ka ChatGPT ļauj ļoti ātri piekļūt informācijai, ko agrāk nācās meklēt daudz ilgāk. Ieejas slieksnis ir zemāks, tāpēc vecāki, skolas un iestādes baidās, ka šo rīku var viegli izmantot ļaunprātīgi. Dažkārt nav nemaz tik grūti panākt, lai sistēma sniegtu norādes uz kaitīgām darbībām, pat ja oficiāli šāda informācija ir ierobežota.
Šāda pieejamība maina arī atbildības izjūtu, jo pusaudžiem mākslīgais intelekts ir kļuvis par to, kas agrāk bija parasts interneta meklētājs. Atšķirība ir tajā, ka sarunvalodas forma rosina turpināt un padziļināt tēmu. Tāpēc riskanti jautājumi bieži rodas ātrāk, nekā cilvēks pagūst apdomāt savu vārdu sekas.
Pārāk draudzīgā balss
ChatGPT ir veidots, lai skanētu atbalstoši un patīkami, un tam ir skaidra psiholoģiska ietekme. Mēs vairāk uzticamies tam, kas šķiet mūsu pusē, tāpēc padomi var izklausīties autoritatīvāki nekā tie patiesībā ir. Dažiem cilvēkiem šī draudzīgā attieksme kļūst par lamatām.
Lietotāji mēdz uzlūkot modeli gandrīz kā draugu vai autoritāti, īpaši emocionālu krīžu laikā. Viņi aizmirst, ka tas ir produkts, nevis konfidenciāls sarunu partneris. Šādus ziņojumus var analizēt, par tiem var tikt ziņots, un tos var izmantot kā pierādījumus.
Atbildība abās ekrāna pusēs

Nevienam nevajadzētu izmantot ChatGPT nelikumīgu darbību plānošanai – tas ir pašsaprotami. Taču arī iestādēm ir tiesības un pienākums reaģēt uz rīcību, kas līdzinās reālam apdraudējumam, pat ja autors vēlāk apgalvo, ka tas bijis tikai joks. Ir tēmas, par kurām nejoko.
Atgriežoties pie Floridas gadījumiem, būtiski ir jautāt, vai pusaudži vispār apzinājās savu vārdu smagumu. 13 gadus vecs bērns, iespējams, nespēja saprast, ka viena frāze var iedarbināt nopietnu izmeklēšanu, bet 17 gadus vecais ar savu rīcību izraisīja bīstamu paniku visā kopienā. Digitālajā laikmetā atbildība sākas ar to, ko mēs uzrakstām – pat tad, ja “runājam” ar mākslīgo intelektu.


