„Gemini“ logotipas. Šaltinis: TechNaujienos / Shutterstock
Programišiai bandė nukopijuoti „Gemini“: įspėjama apie augančią klastočių grėsmę
TRUMPAI
- • Programišiai bandė perprasti „Gemini“ veikimą masiškai užduodami klausimus.
- • Tokie bandymai gali leisti sukurti DI, kuris atrodo patikimas, bet nėra susijęs su originaliu kūrėju.
- • Specialistai įspėja apie naujas kibernetinio saugumo grėsmes.
„Google“ saugumo tyrėjai vasario 13 d. nustatė, kad dirbtinio intelekto (DI) modelį „Gemini“ programišiai bandė perprasti sistemingai jam pateikdami daugiau nei 100 tūkst. užklausų. Automatizuoti įrankiai ilgą laiką klausinėjo modelio, kad būtų suprasta, kaip veikia vienas populiariausių pokalbių robotų, o tokie bandymai svarbūs ne tik technologijų bendrovėms – jie gali lemti naujų, originalą imituojančių DI atsiradimą, su kuriais vartotojai bendraus manydami, kad tai patikimos sistemos.
Kaip vyko ataka
„Google“ pranešime skelbiama, kad skirtingai nei įprasti įsilaužimai, šiuo atveju niekas nelaužė serverių ir nevogė programinio kodo. Vietoj to buvo pasirinktas paprastesnis metodas – nuolat klausinėti modelio ir analizuoti jo atsakymus.
Automatizuotos programos generavo milžiniškus kiekius panašių klausimų, stebėjo, kaip keičiasi atsakymai ir iš to bandė suprasti modelio logiką: kaip jis interpretuoja kontekstą, kokius atsakymų šablonus naudoja ir kokių ribojimų laikosi. Surinkta informacija teoriškai leidžia treniruoti kitą DI sistemą, kuri elgtųsi panašiai kaip originalas.
Pasak „Google“, tokio tipo veikla vadinama modelio išgavimo (angl. model extraction) ataka – ji laikoma intelektinės nuosavybės pasisavinimu, nes vietoj technologijos kūrimo bandoma ją atkartoti stebint rezultatą. Tai leidžia apeiti milijardus kainuojančių tyrimų ir visos infrastruktūros vystymą.
TAIP PAT SKAITYKITE: „Google“ ką tik pristatė „Gemini 3“: štai ką sugeba pažangausias naujos kartos DI superįrankis
Kodėl tai svarbu ir vartotojams
Didžiausia rizika – ne finansinė žala technologijų bendrovei, o pasekmės žmonėms. Nukopijuotas modelis gali atrodyti identiškas: atsakyti sklandžiai, rašyti taisyklingai ir logiškai argumentuoti. Tačiau jis nebūtinai turės saugumo filtrus.

Tai reiškia, kad tokios sistemos gali būti naudojamos:
- įtikinamiems sukčiavimo pokalbiams,
- dezinformacijos sklaidai,
- apsimetimui klientų aptarnavimo darbuotojais,
- klaidinantiems finansiniams, sveikatos ir kitiems patarimams.
Tai primena atvejus, susijusius su netikromis interneto svetainėmis – tik šiame kontekste vartotojas galėtų neatskirti klonuoto DI nuo tikro. O pavojingiausia, kad pokalbis neatrodytų kaip sukčiavimas.
Ekspertai pažymi, kad būtent tokio tipo įrankiai gali pakeisti interneto saugumo situaciją. Jei anksčiau žmonės mokėsi neatidaryti įtartinų nuorodų ar laiškų, ateityje teks vertinti patį pašnekovą – ar tai patikima sistema, ar tik ją imituojantis algoritmas.
Specialistai jau pastaruosius kelerius metus įspėja, kad DI kelia naujas kibernetinio saugumo grėsmes. Apie jas plačiau mūsų straipsnyje: Kibernetinio saugumo srityje dirbtinis intelektas kelia naujas grėsmes
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Kodėl milijonai žmonių tiki, kad šiltas vanduo degina riebalus – štai ką sako mokslas
2Kaip patikrinti, ar galioja automobilio draudimas
3Po 60 metų dirbtinis intelektas parodė, kur gali būti dingęs SSRS Mėnulio zondas „Luna-9“
4Mokslininkai netrukus pamatys, kaip mikroplastikai veikia žmogaus organizmą – padės švytinčios dalelės
5Šokiruojantis tyrimas: kriptovaliutomis finansuojama prekyba žmonėmis klesti, per metus augo 85 proc.
NAUJAUSI
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.