Pēdējās dienās tehnoloģiju pasauli satricinājusi ziņa par bīstamu drošības kļūdu mākslīgā intelekta sistēmā Google Gemini. Kiberdrošības eksperti brīdina, ka šo ievainojamību iespējams izmantot gan datu zādzībām, gan manipulācijai ar informāciju.
Google neplāno kļūdu labot
Uzņēmums Google publiski paziņojis, ka neplāno šo drošības vājumu novērst. Par problēmu ziņoja kiberdrošības pētnieks Viktors Markopuls (Viktoras Markopoulos), kurš aprakstīja jauna tipa uzbrukumu, ko dēvē par “ASCII smuggling”.
Šī uzbrukuma būtība ir slēptos simbolos vai Unicode zīmēs, kas cilvēkam izskatās kā parasts teksts, taču mākslīgais intelekts (MI) tos interpretē kā slēptas komandas. Šādi simboli var būt paslēpti kalendāra ierakstos, e-pastos vai dokumentos, un, ja sistēma tos neatpazīst, tā var sākt rīkoties pavisam citādi, nekā lietotājs sagaida.

Kā darbojas šī drošības kļūda?
“ASCII smuggling” ļauj ļaunatūrim gandrīz nemanāmi iekļūt MI sistēmās. Piemēram, lietotājs var nokopēt tekstu, kurā ir iekļauts slēpts simbols, un ielīmēt to Gemini.
Mākslīgais intelekts, nepamanot, ka tas ir krāpniecisks saturs, var mainīt tikšanās informāciju, radīt maldinošas atbildes vai netīši atklāt konfidenciālus datus. Citi labi zināmi MI modeļi, piemēram, ChatGPT, Claude vai Copilot, šādus slēptus norādījumus parasti spēj atpazīt un noraidīt.
Diemžēl Gemini, kā arī modeļi DeepSeek un Grok ir šādiem uzbrukumiem ievainojami un šādu ievadi nenoraida. Tas ir īpaši bīstami, jo Gemini ir cieši integrēts ar daudziem Google pakalpojumiem – e-pastu, kalendāru un dokumentiem.
Google pārsteidzošā reakcija

Lai gan uzņēmums par problēmu ir informēts, tā reakcija daudzus ir pārsteigusi. Atbildot uz pētnieku brīdinājumiem, Google paziņoja, ka neplāno veikt nekādus pasākumus. Pēc uzņēmuma domām, tā neesot tehniska kļūda, bet gan sociālās inženierijas gadījums – tātad lietotāju maldināšana, nevis sistēmas iekšēja vaina.
Šādā veidā atbildība par drošību tiek pārlikta uz lietotāju pleciem, kas izpelnījies asu kritiku no ekspertiem. Viņuprāt, liela plaisa starp to, ko lietotājs redz ekrānā, un to, kā šo saturu patiesībā interpretē mākslīgais intelekts, rada ļoti labvēlīgu vidi ļaunprātīgai izmantošanai.
Šādus slēptus norādījumus var izmantot, lai radītu dezinformējošus ziņojumus, maldinošu saturu vai pat nozagtu datus. Tā kā Gemini strādā gan ar privātu, gan ar darba informāciju, šādi uzbrukumi var būt īpaši bīstami.
Drošības risku ir vēl vairāk

“ASCII smuggling” nebūt nav vienīgā Gemini problēma. Agrāk atklātas arī citas ievainojamības, kas saistītas ar meklēšanas vēstures un pieteikšanās datu aizsardzību. Lai gan Google daļu kļūdu regulāri novērš, šajā gadījumā uzņēmums nolēmis risinājumu nemeklēt.
Tas nozīmē, ka lietotājiem, izmantojot šīs funkcijas, jābūt īpaši piesardzīgiem. Eksperti iesaka:
- neizpildīt nezināmas izcelsmes teksta komandas,
- neielīmēt Gemini aizdomīgas izcelsmes tekstus,
- rūpīgi sekot līdzi tam, ko mākslīgais intelekts ģenerē un ko tas var mainīt.
Šis gadījums parāda, ka pat lielākie tehnoloģiju uzņēmumi ne vienmēr izvirza lietotāju drošību pirmajā vietā, un Gemini šobrīd paliek viens no ievainojamākajiem mākslīgā intelekta rīkiem tirgū.


