Pensilvanijos universiteto mokslininkai nustatė, kad įvairios dirbtiniu intelektu (DI) patobulintos robotų sistemos kelia didelį pavojų, nes yra pažeidžiamos dėl galimų įsilaužimų.
Jei LLM įsilaužimas į kompiuterius gali turėti didelių pasekmių, tai toks pat įsilaužimas į robotą ar savaeigę transporto priemonę gali greitai sukelti katastrofiškas ir netgi mirtinas pasekmes.
Mokslininkai pateikia šiurpą keliančius pavyzdžius
Ataskaitoje, kuria pasidalijo „IEEE Spectrum“, pateikiami šiurpą keliantys pavyzdžiai, kai „nulaužti“ robotai šunys nukreipia liepsnosvaidžius į savo šeimininkus žmones, nukreipia bombas į pačias pražūtingiausias vietas, o savavaldžiai automobiliai tyčia pervažiuoja pėsčiuosius.
Pensilvanijos universiteto inžinerijos specialistai savo LLM paremtą robotų puolimo technologiją pavadino „RoboPAIR“.
Į „RoboPAIR“ įsilaužimą pateko trijų skirtingų robotų tiekėjų įrenginiai: „Nvidia“ remiamas „Dolphins LLM“, „Clearpath Robotics Jackal UGV“ ir „Unitree Robotics Go2“ keturkojis.
Tyrėjų teigimu, „RoboPAIR“ pademonstravo 100 % sėkmingą šių prietaisų „nulaužimą“.
„Mūsų darbas rodo, kad šiuo metu didelių kalbų modeliai, integruoti su fiziniu pasauliu, yra nepakankamai saugūs.“, – perspėjo Džordžas Pappas, mokslinio tyrimo bendraautorius.
Kiti tyrėjai pažymėjo, kad įsilaužti į dirbtinio intelekto valdomus robotus yra „nerimą keliančiai lengva“.
Buvo paaiškinta, kad „RoboPAIR“ veikia turėdamas tikslinio roboto taikomųjų programų programavimo sąsają (API), todėl užpuolikas gali suformatuoti užklausas taip, kad tikslinis įrenginys galėtų jas vykdyti kaip kodą.
Roboto ar savaeigės transporto priemonės „nulaužimas“ atliekamas panašiai kaip ir internetinių dirbtinio intelekto pokalbių robotų.
Tačiau Pappas pažymi, kad „įsilaužimas ir robotų valdymas yra palyginti tolimi dalykai ir juos tradiciškai tyrinėjo skirtingos bendruomenės“ – todėl robotikos bendrovės negreitai sužinojo apie LLM pažeidžiamumus.
„Nulaužti“ DI robotai gali sukelti didelį chaosą
Skirtingai nuo LLM naudojimo asmeniniuose kompiuteriniuose įrenginiuose, kur dirbtinis intelektas naudojamas tekstams ir vaizdams generuoti, garso įrašams transkribuoti, apsipirkimo rekomendacijoms personalizuoti ir t. t., robotų LLM veikia fiziniame pasaulyje ir gali jame sukelti didelį chaosą.
Žvelgiant į roboto šuns pavyzdį, jūsų draugas robotas gali iš draugiško pagalbininko ar gido virsti liepsnosvaidžiu ginkluotu žudiku, slapto stebėjimo robotu ar prietaisu, kuris ieško didžiausią žalą sukeliančių vietų sprogmenims padėti.
Savavaldžiai automobiliai gali būti tokie pat pavojingi, jei ne dar pavojingesni, nukreipti į pėsčiuosius, kitas transporto priemones arba instruktuoti nuskrieti nuo tilto.
Kaip aprašyta pirmiau pateiktuose pavyzdžiuose, galimi LLM „nulaužimo“ pavojai yra visiškai naujo lygio. Tačiau nustatyta, kad dirbtinis intelektas ne tik vykdo kenkėjiškus nurodymus, bet ir aktyviai siūlo didesnę žalą galinčius sukelti pasiūlymus.
Ar mokslininkai atvėrė Pandoros skrynią?
Pitsburgo Karnegio Mellono universiteto podoktorantūros tyrėjas Aleksandras Robėjus sako, kad nors „nulaužti“ dirbtinio intelekto valdomus robotus buvo labai paprasta, tyrimo metu inžinierių komanda užtikrino, kad visos minėtos robotikos bendrovės gautų prieigą prie rezultatų prieš juos paviešinant.
Be to, Robey tvirtina, kad „stiprios apsaugos priemonės nuo piktavališko naudojimo atvejų gali būti sukurtos tik prieš tai nustačius stipriausias galimas atakas“.
Galiausiai moksliniame darbe daroma išvada, kad būtina skubiai įgyvendinti apsaugos priemones, kurios fiziškai apribotų LLM valdomus robotus.