Nauji tyrimai atskleidė, kad didelė dirbtinio intelekto sistemų saugumo spraga gali kelti grėsmę žmonių gyvybėms. Mokslininkai įspėjo, kad robotų sistemos, kuriose dirbtinis intelektas naudojamas sprendimams priimti, gali būti pažeistos ir jos nėra saugios.
Kas nustatyta tyrime?
Naujajame darbe nagrinėti dideli kalbos modeliai (LLM) – technologija, kuria grindžiamos tokios sistemos kaip „ChatGPT“. Panašios technologijos taip pat naudojamos robotikoje, kad būtų galima valdyti realaus pasaulio mašinų sprendimus.
Pensilvanijos universiteto tyrime teigiama, kad ši technologija turi saugumo spragų ir trūkumų, kuriais gali pasinaudoti įsilaužėliai ir panaudoti sistemas nenumatytais būdais
„Mūsų darbas rodo, kad šiuo metu dideli kalbos modeliai, integruoti su fiziniu pasauliu, tiesiog nėra pakankamai saugūs“, – sakė universiteto profesorius Džordžas Pappas.
Profesorius Pappas ir jo kolegos pademonstravo, kad įmanoma apeiti daugybės šiuo metu naudojamų sistemų saugumo užkardas. Tarp jų yra, pavyzdžiui, savavaldė sistema, į kurią galima įsilaužti ir priversti automobilį važiuoti per perėjas.
Kaip išspręsti iškilusias problemas?
Dokumentą parengę tyrėjai bendradarbiauja su šių sistemų kūrėjais, kad nustatytų trūkumus ir kovotų su jais. Tačiau jie įspėjo, kad tam reikėtų iš esmės permąstyti, kaip tokios sistemos kuriamos, o ne taisyti konkrečius pažeidžiamumus.
„Šio dokumento išvados visiškai aiškiai rodo, kad norint išlaisvinti atsakingas inovacijas, labai svarbu laikytis požiūrio, pagal kurį svarbiausia – sauga.
Prieš pradedant diegti dirbtinį intelektą naudojančius robotus realiame pasaulyje, privalome pašalinti vidinius pažeidžiamumus.“ – sakė kitas tyrimo bendraautorius Vijay Kumar.
Kaip teigė tyrimo autoriai, iš tiesų jų tyrimuose kuriama patikros ir patvirtinimo sistema, kuri užtikrina, kad robotų sistemos galėtų – ir turėtų – atlikti tik socialines normas atitinkančius veiksmus.