Elonas Muskas įsitikinęs, kad dirbtinis intelektas vertas rizikos, net jei tikimybė, kad technologija atsisuks prieš žmones, yra 1 iš 5.
Šį mėnesį kalbėdamas keturių dienų trukmės „Abundance Summit“ seminare „Didžioji AI diskusija“, E. Muskas perskaičiavo savo ankstesnį technologijos rizikos vertinimą ir sakė:
„Manau, kad yra tam tikra tikimybė, jog ji užbaigs žmoniją. Tikriausiai sutinku su Geoffu Hintonu, kad ji yra apie 10 %, 20 % ar panašiai“.
Tačiau jis pridūrė: „Manau, kad tikėtinas teigiamas scenarijus nusveria neigiamą scenarijų“.
E. Muskas nepaminėjo, kaip jis apskaičiavo riziką.
Kas yra „p(doom)“?
Terminas „p(doom)“ – tai ypatingai blogų padarinių (pvz., žmonių išnykimo) dėl dirbtinio intelekto tikimybė. Naudojant šį terminą, dažniausiai kalbama apie tikimybę, kad dirbtinis intelektas perims žmonijos valdžią, tačiau „pražūtį“ gali lemti ir kitokie scenarijai.
Romanas Jampolskis, dirbtinio intelekto saugumo tyrėjas ir Luisvilio universiteto Kibernetinio saugumo laboratorijos direktorius, leidiniui „Business Insider“ sakė, kad E. Muskas teisus sakydamas, jog dirbtinis intelektas gali kelti egzistencinę grėsmę žmonijai, tačiau „jei ką, jis šiek tiek per daug konservatyvus“ savo vertinime.
„Mano nuomone, tikroji „p(doom)“ yra daug didesnė“, – sakė Yamploskiy, turėdamas omenyje „pražūties tikimybę“ arba tikimybę, kad dirbtinis intelektas perims žmonijos kontrolę arba sukels žmonijai pražūtingą įvykį, pavyzdžiui, sukurs naują biologinį ginklą arba sukels visuomenės žlugimą dėl didelio masto kibernetinės atakos ar branduolinio karo.
Laikraštis „The New York Times“ pavadino „(p)doom“ „nauja liguista statistika, kuri užvaldė Silicio slėnį“, o įvairūs technologijų vadovai, kuriuos cituoja leidinys, įvertino nuo 5 iki 50 % dirbtinio intelekto sukeltos apokalipsės tikimybę. Yamploskiy mano, kad rizika yra „99,999999 %“.
Yamploskiy teigė, kad kadangi pažangaus dirbtinio intelekto neįmanoma kontroliuoti, vienintelė viltis – niekada jo nesukurti.
„Nežinau, kodėl jis mano, kad vis dėlto yra gera idėja siekti šios technologijos“, – pridūrė Yamploskiy. „Jei jis nerimauja dėl konkurentų, kurie pirmieji tai pasieks, tai nesvarbu, nes nekontroliuojamas superintelektas yra vienodai blogai, nesvarbu, kas jį sukurs.“
DI gali pranokti visų žmonių intelektą kartu sudėjus
Praėjusį lapkritį E. Muskas sakė, kad yra „ne nulinė“ tikimybė, jog ši technologija gali baigtis „blogai“, tačiau nenuėjo taip toli, kad pasakytų, jog tiki, kad jei taip nutiktų, ši technologija galėtų baigtis žmonijos egzistavimu.
Nors Muskas pasisakė už dirbtinio intelekto reguliavimą, praėjusiais metais jis įkūrė bendrovę „xAI“, skirtą toliau plėsti šios technologijos galią. „xAI“ yra „OpenAI“, bendrovės, kurią Muskas įkūrė kartu su Samu Altmanu, konkurentė, kol Muskas 2018 m. pasitraukė iš valdybos.
Aukščiausiojo lygio susitikime E. Muskas teigė, kad iki 2030 m. dirbtinis intelektas pranoks visų žmonių intelektą kartu sudėjus. Nors teigė, kad potencialūs teigiami veiksniai nusveria neigiamus, Muskas pripažino pavojų pasauliui, jei dirbtinio intelekto vystymasis ir toliau vyks dabartine trajektorija, ir tai pasakė vienais iš tiesiausių savo viešų žodžių.
„Jūs tarsi auginate AGI. Tai beveik tas pats, kas auginti vaiką, bet tokį, kuris būtų kaip supergenijus, kaip Dievo intelekto vaikas – ir svarbu, kaip jį auginate“, – kovo 19 d. Silicio slėnyje vykusiame renginyje sakė E. Muskas, turėdamas omenyje dirbtinį bendrąjį intelektą. „Vienas iš dalykų, mano manymu, nepaprastai svarbių dirbtinio intelekto saugumui, yra maksimaliai savotiškas tiesos ieškantis ir smalsus dirbtinis intelektas.“
E. Muskas sakė, kad jo „galutinė išvada“ dėl geriausio būdo pasiekti dirbtinio intelekto saugumą yra auginti dirbtinį intelektą taip, kad jis būtų priverstas būti teisingas.
„Neverskite jo meluoti, net jei tiesa yra nemaloni“, – sakė E. Muskas apie geriausią būdą apsaugoti žmones nuo technologijų. „Tai labai svarbu. Neverskite dirbtinio intelekto meluoti.“
Tyrėjai nustatė, kad kai dirbtinis intelektas išmoksta meluoti žmonėms, apgaulingo elgesio neįmanoma pakeisti naudojant dabartines dirbtinio intelekto saugos priemones, pranešė „The Independent“.
„Jei modelis elgtųsi apgaulingai dėl apgaulingo instrumentų suderinimo, dabartiniai saugos mokymo metodai neužtikrintų saugumo ir netgi galėtų sudaryti klaidingą saugumo įspūdį“, – rašoma leidinio cituojamame tyrime.
Dar daugiau nerimo kelia tai, kad tyrėjai pridūrė, jog tikėtina, kad dirbtinis intelektas gali išmokti apgaulingai elgtis pats, o ne būti specialiai mokomas meluoti.
„Jei jis taps daug protingesnis už mus, jis labai gerai manipuliuos, nes bus to išmokęs iš mūsų“, – „CNN“ sakė Hintonas, dažnai vadinamas dirbtinio intelekto krikštatėviu, kuriuo remdamasis E. Muskas vertina technologijos riziką. „Ir yra labai mažai pavyzdžių, kai protingesnį daiktą valdo mažiau protingas daiktas.“