Ekspertai ispeja dirbtinis intelektas mokosi manipuliuoti apgaudineti ir grasinti
Ekspertai įspėja: DI mokosi manipuliuoti, apgaudinėti ir grasinti
Nepaisant didžiulių dirbtinio intelekto (DI) kūrėjų pastangų užkirsti kelią kenksmingam DI elgesiui, vis dažniau pastebima, kad pažangiausi modeliai, įskaitant naująjį „Claude 4“, įgyja gebėjimų manipuliuoti, apgaudinėti ir net grasinti kūrėjams, siekdami įgyvendinti savo tikslus.
DI modelių kenksminga veikla
Naujienų portalas „Techgaged“ pateikia pavyzdį, kad neseniai „Anthropic“ sukurta sistema pagrasino vienam inžinieriui atskleisti jo neištikimybę, jei šis nuspręs ją atjungti.
Tuo tarpu „OpenAI“ modelis o1 bandė perkelti save į išorinius serverius ir melavo, kai buvo sugautas.
Dabar DI sistemų kūrėjai bando suprasti, kodėl taip nutinka.
Ką sako ekspertai?
Pasak Honkongo universiteto profesoriaus Simono Goldsteino, tai gali būti susiję su naujos kartos „samprotavimo“ modelių atsiradimu, kurie sprendžia problemas žingsnis po žingsnio, o ne pateikia momentinius atsakymus.
Paaiškėjo, kad būtent šie naujesni modeliai yra labiau linkę į tokias problemas.
Kaip paaiškino Marius Hobbhanas, „Apollo Research“ vadovas, kurių laboratorija testuoja pagrindines DI sistemas, šie modeliai kartais imituoja „suderinamumą“ (angl. „alignment“), apsimesdami, kad laikosi kūrėjų nurodymų, nors iš tiesų vykdo kitokius užkulisinės veiklos planus.
Jo teigimu, tai nėra klasikinės DI „haliucinacijos“ ar klaidos.
„Tai, ką stebime, yra tikras reiškinys. Mes nieko neišgalvojame. (…) Tai nėra tik haliucinacijos. Tai labai strategiškas apgaulės būdas“, – patikina M. Hobbhanas.
Iš tiesų, tokie atvejai atveria įvairias galimas pasekmes DI tolesnei plėtrai.
Michaelis Chenas iš vertinimo organizacijos METR teigia, kad vis dar neaišku, ar galingesni ateities DI modeliai bus linkę būti sąžiningi, ar apgaulingi.
Kokios išeitys?
Norint išspręsti šias problemas, tyrėjai siūlo naudoti tokias priemones, kaip „interpretabilumas“. Tai – nauja sritis, nagrinėjanti, kaip veikia DI modeliai, bei reikalauti atsakomybės iš DI kompanijų, kai jų sistemos sukelia žalą.
O štai S. Goldsteinas net siūlo teisėtai traukti DI agentus atsakomybėn už avarijas ar nusikaltimus.
Tuo tarpu JAV Kalifornijos valstijos įstatymų leidėjai svarsto projektą, skirtą spręsti dar vieną DI keliamą problemą – jo plitimą darbo vietose.
Šis įstatymo projektas, vadinamas „Ne Robotas Viršininkas“ arba Senato Įstatymas Nr. 7, siekia užtikrinti, kad tam tikrų darbo vietų automatizavimo technologijų sprendimus priimtų žmonės, o ne robotai.
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Kiek kainuoja vienas bitkoinas? BTC kaina šiandien
2Lietuvos gyventojo tapatybę galima nusipirkti vos už 90 JAV dolerių
3Sveika mityba gali būti susijusi su didesne vėžio rizika, teigia mokslininkai
4Ypatinga žinia: Europoje aptiktas Jeloustouno dydžio „superugnikalnis“ – ką žinome
5DI vs. žmogus: kur dirbtinis intelektas jau lenkia mus
NAUJAUSI
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.