Skip to content
Programišiai bandė nukopijuoti „Gemini“: įspėjama apie augančią klastočių grėsmę

„Gemini“ logotipas. Šaltinis: TechNaujienos / Shutterstock

Programišiai bandė nukopijuoti „Gemini“: įspėjama apie augančią klastočių grėsmę

TRUMPAI

  • • Programišiai bandė perprasti „Gemini“ veikimą masiškai užduodami klausimus.
  • • Tokie bandymai gali leisti sukurti DI, kuris atrodo patikimas, bet nėra susijęs su originaliu kūrėju.
  • • Specialistai įspėja apie naujas kibernetinio saugumo grėsmes.
REKLAMA

„Google“ saugumo tyrėjai vasario 13 d. nustatė, kad dirbtinio intelekto (DI) modelį „Gemini“ programišiai bandė perprasti sistemingai jam pateikdami daugiau nei 100 tūkst. užklausų. Automatizuoti įrankiai ilgą laiką klausinėjo modelio, kad būtų suprasta, kaip veikia vienas populiariausių pokalbių robotų, o tokie bandymai svarbūs ne tik technologijų bendrovėms – jie gali lemti naujų, originalą imituojančių DI atsiradimą, su kuriais vartotojai bendraus manydami, kad tai patikimos sistemos.

Kaip vyko ataka

„Google“ pranešime skelbiama, kad skirtingai nei įprasti įsilaužimai, šiuo atveju niekas nelaužė serverių ir nevogė programinio kodo. Vietoj to buvo pasirinktas paprastesnis metodas – nuolat klausinėti modelio ir analizuoti jo atsakymus.

Automatizuotos programos generavo milžiniškus kiekius panašių klausimų, stebėjo, kaip keičiasi atsakymai ir iš to bandė suprasti modelio logiką: kaip jis interpretuoja kontekstą, kokius atsakymų šablonus naudoja ir kokių ribojimų laikosi. Surinkta informacija teoriškai leidžia treniruoti kitą DI sistemą, kuri elgtųsi panašiai kaip originalas.

REKLAMA

Pasak „Google“, tokio tipo veikla vadinama modelio išgavimo (angl. model extraction) ataka – ji laikoma intelektinės nuosavybės pasisavinimu, nes vietoj technologijos kūrimo bandoma ją atkartoti stebint rezultatą. Tai leidžia apeiti milijardus kainuojančių tyrimų ir visos infrastruktūros vystymą.

TAIP PAT SKAITYKITE: „Google“ ką tik pristatė „Gemini 3“: štai ką sugeba pažangausias naujos kartos DI superįrankis

Kodėl tai svarbu ir vartotojams

Didžiausia rizika – ne finansinė žala technologijų bendrovei, o pasekmės žmonėms. Nukopijuotas modelis gali atrodyti identiškas: atsakyti sklandžiai, rašyti taisyklingai ir logiškai argumentuoti. Tačiau jis nebūtinai turės saugumo filtrus.

REKLAMA
Telefonų ekrane matomos kelios „Gemini“ programėlės piktogramos – simbolinis vaizdas, iliustruojantis dirbtinio intelekto kopijavimo ir klonuotų sistemų atsiradimo riziką. Šaltinis: TechNaujienos.

Tai reiškia, kad tokios sistemos gali būti naudojamos:

  • įtikinamiems sukčiavimo pokalbiams,
  • dezinformacijos sklaidai,
  • apsimetimui klientų aptarnavimo darbuotojais,
  • klaidinantiems finansiniams, sveikatos ir kitiems patarimams.

Tai primena atvejus, susijusius su netikromis interneto svetainėmis – tik šiame kontekste vartotojas galėtų neatskirti klonuoto DI nuo tikro. O pavojingiausia, kad pokalbis neatrodytų kaip sukčiavimas.

Ekspertai pažymi, kad būtent tokio tipo įrankiai gali pakeisti interneto saugumo situaciją. Jei anksčiau žmonės mokėsi neatidaryti įtartinų nuorodų ar laiškų, ateityje teks vertinti patį pašnekovą – ar tai patikima sistema, ar tik ją imituojantis algoritmas.

Specialistai jau pastaruosius kelerius metus įspėja, kad DI kelia naujas kibernetinio saugumo grėsmes. Apie jas plačiau mūsų straipsnyje: Kibernetinio saugumo srityje dirbtinis intelektas kelia naujas grėsmes

Kaip vertinate šį straipsnį?

Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.

Sekite mokslo ir technologijų tendencijas
Dalyvaukite diskusijose
Naujienas gaukite pirmieji
1 700+ narių jau seka mūsų puslapį, laukiame tavęs!
10

Taip pat skaitykite

Atrinkome panašius straipsnius, kurie gali jums patikti.