Mokslinėje fantastikoje gausu atvejų, kai dirbtinis intelektas tampa nesąžiningas ir atsisuka prieš savo kūrėjus žmones. Atsiradus vis sudėtingesniems didžiųjų kalbų modeliams (LLM), tokiems kaip „Chat GPT“, klausimas, kokius pavojus gali kelti dirbtinis intelektas, tapo dar aktualesnis.
Dabar turime gerų naujienų. Remiantis nauju tyrimu, kuriam vadovavo kompiuterių mokslininkai Iryna Gurevych iš Darmštato technikos universiteto Vokietijoje ir Harish Tayyar Madabushi iš Bato universiteto Jungtinėje Karalystėje, šie modeliai negali tapti nesąžiningi.
Tiesą sakant, jie yra pernelyg apriboti savo programavimo, nesugeba įgyti naujų įgūdžių be nurodymų, todėl išlieka kontroliuojami žmogaus.
Tai reiškia, kad nors ir išlieka galimybė panaudoti modelius nedoriems tikslams, tačiau patys savaime LLM gali būti saugūs ir nesukelti rūpesčių.
Baimės dėl dirbtinio intelekto grėsmės buvo nepagrįstos
„Buvo baiminamasi, kad modeliams vis didėjant, jie galės spręsti naujas problemas, kurių šiuo metu negalime numatyti, o tai kelia grėsmę, kad šie didesni modeliai gali įgyti pavojingų gebėjimų, įskaitant mąstymą ir planavimą“, – sako Tayyar Madabushi.
„Mūsų tyrimas rodo, kad baimė, jog modelis ims ir padarys kažką visiškai netikėto, novatoriško ir potencialiai pavojingo, yra nepagrįsta.“
Per pastaruosius kelerius metus LLM sudėtingumas stulbinamai išaugo. Dabar jie geba vesti gana nuoseklų pokalbį tekstu, kuris atrodo natūralus ir žmogiškas.
Jie nėra tobuli – kadangi iš tikrųjų jie nėra intelekto forma, daugeliu atvejų jiems trūksta kritinių įgūdžių, reikalingų norint atskirti gerą informaciją nuo blogos. Tačiau jie vis tiek gali įtikinamai perteikti blogą informaciją.
Ką nustatė mokslininkai
Neseniai kai kurie mokslininkai tyrė galimybę, kad vadinamuosius atsirandančius gebėjimus LLM išvysto savarankiškai, o ne sąmoningai užkoduoti jo programavimo metu. Vienas konkretus pavyzdys – LLM, kuris galėjo atsakyti į klausimus apie socialines situacijas, nors nebuvo aiškiai apmokytas tų situacijų.
Buvo pastebėta, kad didėjant LLM, jie tampa vis galingesni ir gali atlikti daugiau užduočių. Nebuvo aišku, ar toks mastelio didinimas taip pat reiškia elgesio riziką, kuriai galime būti nepasirengę. Todėl tyrėjai atliko tyrimą, siekdami išsiaiškinti, ar tokie atvejai iš tiesų yra naujai atsirandantys, ar programa tiesiog sudėtingai veikia savo kodo ribose.
Jie eksperimentavo su keturiais skirtingais LLM modeliais, skirdami jiems užduotis, kurios anksčiau buvo įvardytos kaip atsirandančios. Ir jie nerado jokių diferencijuoto mąstymo raidos įrodymų, taip pat nerado įrodymų, kad kuris nors iš modelių galėjo veikti ne pagal savo programą.
Visų keturių modelių atveju gebėjimas sekti instrukcijas, įsiminimas ir kalbinis išprusimas galėjo paaiškinti visus LLM pasireiškiančius gebėjimus. Nebuvo jokio išėjimo iš proto. Mums nėra ko baimintis, kad LLMs savarankiškai veiktų.
Kita vertus, žmonės yra mažiau patikimi. Mūsų pačių augantis dirbtinio intelekto naudojimas, reikalaujantis daugiau energijos ir keliantis iššūkį viskam, pradedant autorių teisėmis ir baigiant pasitikėjimu, ir baigiant tuo, kaip išvengti savo paties skaitmeninės taršos, – tai tampa tikra problema.
„Mūsų rezultatai nereiškia, kad dirbtinis intelektas nekelia jokios grėsmės“, – sako Gurevych.
„Veikiau parodome, kad tariamas sudėtingų mąstymo įgūdžių atsiradimas, siejamas su konkrečiomis grėsmėmis, nėra pagrįstas įrodymais ir kad vis dėlto galime labai gerai kontroliuoti ŽI mokymosi procesą. Todėl būsimuose tyrimuose reikėtų sutelkti dėmesį į kitus modelių keliamus pavojus, pavyzdžiui, jų potencialą būti panaudotiems netikroms naujienoms kurti.“
Tyrimas paskelbtas 62-ojo metinio Kompiuterinės lingvistikos asociacijos (Association for Computational Linguistics) metinio susitikimo medžiagoje.