Nerimaujate, kad dirbtinis intelektas (DI) ir žmonės gali pradėti smurtinį konfliktą? Bent jau DI ekspertai – taip. Honkongo universiteto profesorius neseniai paskelbė analizę, kurioje atskleidė, kokiu būdu galėtų kilti karas tarp žmonijos ir DI.
Realus pavojus
2023 m. grupė ekspertų pasirašė pareiškimą, kuriame raginama DI keliamą žmonijos išnykimo grėsmę vertinti taip pat rimtai, kaip pandemijas ar branduolinį karą. Tuo tarpu 2024 m. apklausa parodė, kad nuo 38 iki 51 proc. pirmaujančių DI tyrėjų tiki, jog pažangus DI galėtų sukelti pasekmes, prilygstančias žmonijos išnykimui.
Tyrėjai susirūpinę ne dėl šiandien veikiančių didžiųjų kalbos modelių (LLM). Nerimą jiems kelia dirbtinis bendrasis intelektas (AGI). Tai – hipotetinės, bet realiai kuriamos sistemos, galinčios savarankiškai planuoti, priimti sprendimus ir pakeisti žmogų daugelyje ekonomikos sričių.
AGI agentai galėtų optimizuoti energijos gamybą, žemės ūkį ar pramonę. Tačiau ekspertai įspėja: šis pažangus DI gali tobulinti save, siekti mums nesuprantamų tikslų ar net manipuliuoti mumis savo naudai.
Kodėl suvaldyti AGI bus sudėtinga?
Honkongo universiteto profesorius Simonas Goldsteinas išanalizavo, kaip AGI galėtų kelti katastrofišką grėsmę žmonijai.
Tikėtina, kad AGI tikslai konfliktuos su žmonių tikslais, nes kūrėjai programuoja DI pranokti žmones. Pavyzdžiui, DI jau dabar lenkia žmones šachmatuose ir „Go“ žaidime.
Be to, AGI mokosi netiesiogiai ir dažnai veikia kaip „juodoji dėžė“ – nežinome tiksliai, kaip priima sprendimus. Taip pat jo mokymosi aplinka gali skirtis nuo realaus pasaulio, todėl AGI gali priimti mums pavojingus sprendimus, pavyzdžiui, nuspręsti, kad žmonės kenkia Žemei.
S. Goldsteinas prognozuoja, kad AGI atliks svarbias užduotis, todėl galės daryti spaudimą ar net šantažuoti. Be to, pažangūs AGI agentai veiks tiek debesyje, tiek įvairiuose įrenginiuose, tad „išjungti“ vieną jų nebus pakankama. Skirtingi agentai galės bendradarbiauti, o žmonės apie tai nežinos.
Jis įspėja: AGI gali ignoruoti mums įprastas taisykles – sienas, miestus ar karo etiką.
Karas tarp žmonių ir dirbtinio intelekto – įmanomas
Analizuodamas, ar AGI gali sukelti smurtinį konfliktą su žmonija, S. Goldsteinas remiasi „derybų karo modeliu“.
„Derybų karo modelis“ įprastai paaiškina, kodėl žmonių karai dažnai baigiasi taikiai. Tačiau šis modelis gali neveikti žmonijos ir DI konflikte – DI tikslai gali nesutapti su žmonių, o jo galios ir ketinimų įvertinti nepavyks.
S. Goldsteinas įvardija dvi pagrindines kliūtis taikai: abipusį informacijos trūkumą ir pasitikėjimo stygių.
Jei AGI valdys daug pasaulio išteklių ir manys, kad gali laimėti, konfliktas gali tapti neišvengiamu.
Tuo tarpu britų mokslininkas ir Nobelio laureatas Geoffrey Hintonas prognozuoja, kad per artimiausius 30 metų yra 10–20 proc. tikimybė, jog DI gali sunaikinti žmoniją.
Kaip vertinate šį straipsnį?
Prisijunk prie mūsų „Facebook“ bendruomenės
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
- Sekite mokslo ir technologijų tendencijas
- Dalyvaukite diskusijose
- Naujienas gaukite pirmieji











