Mākslīgā intelekta attīstība virzās uz priekšu straujāk nekā jebkad agrāk, taču jaunākie pētījumi liek jautāt: vai šis tehnoloģiskais spēks vienlaikus mūs pašus nekļūstina vājākus? Somijas Aalto universitātes pētnieki kopā ar kolēģiem no Vācijas un Kanādas ir izgaismojuši paradoksu – jo vairāk izmantojam mākslīgo intelektu, jo pārliecinātāki esam par savu kompetenci, pat ja reālās prasmes šo pārliecību neapstiprina. Šis atklājums liek no jauna pārskatīt vienu no zināmākajām psiholoģijas likumsakarībām – Dunninga–Krīgera efektu – un raisa jautājumu, vai MI nemodelē no mums bīstami pārvērtētas pašapziņas paaudzi.
Dunninga–Krīgera efekts: kāpēc mēs sevi tik bieži novērtējam kļūdaini?
Dunninga–Krīgera efekts psiholoģijā ir zināms jau gadu desmitiem. Tas raksturo parādību, kur cilvēki ar vājākām prasmēm mēdz savu kompetenci pārvērtēt, savukārt augsti kvalificēti speciālisti sevi bieži nenovērtē. Citiem vārdiem – jo mazāk mēs patiesībā zinām, jo drošāk jūtamies un domājam, ka visu saprotam. Savukārt īstie eksperti daudz biežāk apšauba paši sevi, jo apzinās, cik daudz vēl nezina.
Šo efektu vairākkārt apstiprinājuši dažādi kognitīvie testi – uzmanības, valodas, loģikas un lēmumu pieņemšanas uzdevumos cilvēku pašvērtējums bieži nesakrīt ar viņu patiesajiem rezultātiem. Līdz šim to uzskatīja par gandrīz universālu cilvēka domāšanas īpatnību. Tomēr jaunākie dati norāda, ka mākslīgais intelekts šo principu var izkropļot – un ne vienmēr par labu mums pašiem.

Kā MI „izlīdzina” mūsu pašvērtējuma līkni?
Aalto universitātes pētnieki veica eksperimentu ar 500 dalībniekiem. Viena dalībnieku grupa risināja LSAT loģikas testus, kas paredzēti tiesību zinātņu studiju kandidātiem, patstāvīgi, savukārt otrai grupai tika atļauts izmantot populāro sarunbota rīku ChatGPT. Pēc testa visi dalībnieki novērtēja savas prasmes darbā ar MI un, pats galvenais, – cik labi, viņuprāt, bija veicies testā. Precīzāku pašvērtējumu motivēja arī finansiāli: tie, kuri savu rezultātu prognozēja pareizi, saņēma papildu atlīdzību. Tomēr pat naudas stimuls neatturēja dalībniekus no sevis pārvērtēšanas.
Visspilgtākais secinājums bija tas, ka, izmantojot MI, Dunninga–Krīgera efekts gandrīz izzuda. Neatkarīgi no tā, vai cilvēka spējas bija zem, vidējā vai virs vidējā līmeņa, lielākā daļa dalībnieku savus rezultātus pārvērtēja. Šī „līknes izlīdzināšanās” atklāja vēl ko būtisku: jo pieredzējušāks lietotājs ir darbā ar MI, jo pārliecinātāk viņš tic, ka MI sniegtā atbilde ir pareiza un jo nozīmīgāku lomu viņš piedēvē sev gala rezultāta sasniegšanā. Tā pamazām veidojas kompetences ilūzija, kas maldina un ilgtermiņā var pārvērsties dziļākā domāšanas kļūdā.
Kāpēc tā notiek? Kognitīvā „noņemšana no galda” un virspusēja domāšana
Pētnieki min vairākus iemeslus, kāpēc mākslīgais intelekts veicina sevis pārvērtēšanu. Viens no nozīmīgākajiem ir tā dēvētā kognitīvā „noņemšana no galda” (angļu val. cognitive offloading). Cilvēki ir tendēti MI sniegtajam pareizajam risinājumam noticēt jau pēc pirmā jautājuma, pirmā pieprasījuma, pirmās pārbaudes. Kad uzticamies algoritmam, mēs vairs neiedziļināmies problēmā patstāvīgi.
Tas nozīmē, ka pazūd dziļāka spriešana: mēs nemeklējam alternatīvus risinājumus, neveidojam iekšēju dialogu un nekritiski pieņemam piedāvāto atbildi.
Psiholoģijā šo spēju dēvē par metakognitīvo kontroli – spēju vērot un vērtēt paša domāšanu. Tieši šī spēja pētījumā bija ievērojami pavājinājusies. Ja mēs vairs neuzdodam papildu jautājumus, neapšaubām atbildes un neanalizējam argumentus, pazūd dabiskais atgriezeniskās saites mehānisms, kas palīdzētu savas patiesās prasmes novērtēt precīzāk. Rezultātā rodas ilūzija, ka, ja atbilde izrādās pareiza, to esam atraduši mēs paši, nevis algoritms.

Kad visi kļūst pārāk pārliecināti par savu taisnību
Pētījums atklāja vēl kādu paradoksu: lietojot mākslīgo intelektu, gan vājāku, gan spēcīgāku spēju dalībnieki sāka savas prasmes vērtēt ļoti līdzīgi. Pat tie, kuri bez MI mēdz būt piesardzīgāki un kritiskāki pret sevi, ar MI palīdzību biežāk pārvērtēja savu kompetenci.
Citiem vārdiem – MI padara mūs visus vienlīdz optimistiskus un vienlīdz neprecīzus pašvērtējumos.
Pētnieki norāda, ka šī tendence parādās laikā, kad arvien biežāk izceļ sarunbotu „patīkamību” un pielāgošanos lietotāja gaidām. Lielie valodas modeļi ir veidoti tā, lai būtu izpalīdzīgi, draudzīgi un apstiprinoši. Tas mazinātu sevis pārvērtēšanu tikai tad, ja tie būtu skarbi kritiski, taču realitātē notiek pretējais – šāda uzbūve pastiprina pārmērīgu pašpārliecinātību.
Ko tas nozīmē ikvienam, kas MI izmanto ik dienu?
Pētnieki brīdina: jo vairāk uzticamies MI, jo mazāk izmantojam kritisko domāšanu. Līdz ar to vājāka kļūst mūsu metakognitīvā spēja. Tam var būt ļoti konkrētas sekas:
pasliktinās spēja pārbaudīt un verificēt informāciju,
vājinas argumentācijas prasmes,
pieaug risks pieņemt neprecīzus vai kļūdainus lēmumus,
ilgtermiņā var tālināties un zust noteiktas profesionālās iemaņas.
Tātad mākslīgais intelekts var uzlabot mūsu rezultātus konkrētos uzdevumos, taču vienlaikus samazina izpratni par to, cik labi patiesībā tiekam galā.
Tas ir īpaši aktuāli laikā, kad MI kļūst par ikdienas darba instrumentu – sākot ar studentu esejām un beidzot ar juridiskiem, medicīniskiem vai finanšu analītiskiem darbiem.

Vai MI var mūs pasargāt no mums pašiem?
Pētnieki piedāvā vienu interesantu risinājuma virzienu: mākslīgo intelektu varētu mācīt veicināt lietotāja pašrefleksiju. Tā vietā, lai sniegtu tikai gatavas atbildes, modeļi varētu:
aicināt lietotāju novērtēt savu pārliecību par atbildi,
atgādināt, ka ir vērts pārbaudīt alternatīvus risinājumus,
sniegt atbildes kopā ar varbūtības novērtējumu,
virzīt lietotāju sadalīt jautājumu mazākās daļās un pārdomāt tās atsevišķi.
Šāds MI dizains neuzspiestu vienkārši „pareizo atbildi”, bet palīdzētu lietotājam domāt aktīvi un sekot līdzi savai domāšanai. Arī Royal Society iepriekš ir ieteikusi MI izmantošanas apmācībās uzsvērt kritiskās domāšanas attīstīšanu. Aalto universitātes pētījuma rezultāti šo nepieciešamību padara vēl neatliekamāku.
Mākslīgais intelekts mūs ietekmē ne tikai kā tehnoloģisks rīks, bet arī kā psiholoģisks spogulis. Tas var palīdzēt, bet var arī maldināt, ja to uztveram kā drošāku nekā pašu spriestspēju. Tāpēc kļūst arvien svarīgāk ne tikai iemācīties izmantot MI, bet arī saprast, kad tas liek mums ticēt, ka esam labāki, nekā patiesībā esam.


