„OpenAI“ generalinis direktorius Samas Altmanas tikisi, dirbtinis bendrasis intelektas (AGI), kuris daugelį užduočių atliks geriau už žmogų – bus sukurtas apie 2027 ar 2028 m.
Tuo tarpu Elonas Muskas prognozuoja 2025 arba 2026 m. Jis teigė, kad „praranda miegą dėl dirbtinio intelekto (DI) pavojaus grėsmės“. Tačiau tokios prognozės yra klaidingos.
Vis labiau aiškėjant dabartinio dirbtinio intelekto trūkumams, dauguma dirbtinio intelekto tyrėjų priėjo prie nuomonės, kad paprasčiausias didesnių ir galingesnių pokalbių robotų kūrimas nepadės sukurti AGI. Tačiau 2025 m. dirbtinis intelektas vis dar kels didžiulę riziką: ne dėl dirbtinio superintelekto, o dėl netinkamo žmonių naudojimo.
Sparčiai plintantis piktnaudžiavimas dirbtiniu intelektu
Tai gali būti netyčinis piktnaudžiavimas, pavyzdžiui, kai teisininkai pernelyg pasikliauja dirbtiniu intelektu.
Kaip pavyzdį būtų galima pateikti „ChatGPT“, kuomet keli teisininkai buvo nubausti už tai, kad naudodami dirbtinį intelektą generavo klaidingus teismo pranešimus, matyt, nežinodami apie pokalbių robotų polinkį išgalvoti.
Britų Kolumbijoje advokatei Chong Ke buvo nurodyta apmokėti priešingos šalies advokato išlaidas po to, kai ji į teisinį dokumentą įtraukė fiktyvias DI sugeneruotas bylas.
Niujorke Stevenui Schwartzui ir Peteriui LoDuca buvo skirta 5 000 JAV dolerių bauda už melagingų citatų pateikimą.
Kolorade Zachariah Crabillas metams buvo nušalintas nuo pareigų už tai, kad naudojo fiktyvias teismo bylas, sugeneruotas naudojant „ChatGPT“, ir dėl klaidų kaltino „teisės stažuotoją“. Ir šis sąrašas sparčiai didėja.
Kiti piktnaudžiavimai yra tyčiniai. 2024 m. sausį socialinės žiniasklaidos platformas užplūdo seksualinio pobūdžio Taylor Swift giluminės klastotės (angl. deepfakes).
Šie atvaizdai buvo sukurti naudojant „Microsoft“ dirbtinio intelekto įrankį „Designer“. Nors kompanija turėjo apsaugos priemones, kad būtų išvengta realių žmonių atvaizdų generavimo, pakako neteisingai parašyti Swift vardą, kad jos būtų apeitos. Vėliau „Microsoft“ ištaisė šią klaidą.
Tačiau Taylor Swift yra tik ledkalnio viršūnė, o nesankcionuotos giluminės klastotės plačiai plinta – iš dalies dėl to, kad atvirojo kodo įrankiai, skirti giluminėms klastotėms kurti, yra viešai prieinami.
Visame pasaulyje priimamais teisės aktais siekiama kovoti su giluminėmis klastotėmis, tikintis sumažinti žalą. Ar jie bus veiksmingi, dar neaišku.
2025 m. bus dar sunkiau atskirti, kas tikra, o kas išgalvota
Dirbtinio intelekto sukurto garso, teksto ir vaizdų tikslumas yra nepaprastas, o vaizdo įrašai bus kitas žingsnis link dar įtikinamesnių klastočių.
Dėl to gali daugėti asmenų, užimančių vadovaujančias pareigas, kurie atmeta savo netinkamo elgesio įrodymus ir teigia, kad jie yra suklastoti.
2023 m. „Tesla“ teigė, kad 2016 m. Elono Musko vaizdo įrašas galėjo būti giluminė klastotė, reaguodama į kaltinimus, kad generalinis direktorius pervertino „Tesla“ autopiloto saugumą, dėl kurio įvyko avarija.
Indijos politikas teigė, kad garso įrašai, kuriuose jis pripažįsta korupciją savo politinėje partijoje, buvo suklastoti (spaudos leidinys patvirtino, kad bent viename iš įrašų esantis garso įrašas yra tikras). O du sausio 6 d. riaušių kaltinamieji teigė, kad vaizdo įrašai, kuriuose jie pasirodė, buvo suklastoti. Abu buvo pripažinti kaltais.
Tuo tarpu įmonės naudojasi visuomenės sumaištimi, kad parduotų iš esmės abejotinus gaminius, pavadindamos juos „dirbtiniu intelektu“. Tai gali būti labai blogai, kai tokios priemonės naudojamos žmonėms klasifikuoti ir priimti su jais susijusius sprendimus.
Pavyzdžiui, įdarbinimo bendrovė „Retorio“ teigia, kad jos dirbtinis intelektas prognozuoja kandidatų tinkamumą darbui pagal vaizdo pokalbius, tačiau atlikus tyrimą nustatyta, kad sistemą galima suklaidinti vien dėl akinių arba paprastą foną pakeitus knygų lentyna, o tai rodo, kad ji remiasi paviršutiniškomis koreliacijomis.
Taip pat yra dešimtys sveikatos priežiūros, švietimo, finansų, baudžiamosios teisenos ir draudimo sričių, kuriose dirbtinis intelektas šiuo metu naudojamas siekiant atimti iš žmonių svarbias gyvenimo galimybes.
Nyderlandų mokesčių institucija naudojo dirbtinio intelekto algoritmą, kad nustatytų asmenis, kurie sukčiavo vaikų apsaugos srityje. Jis neteisingai apkaltino tūkstančius tėvų, dažnai reikalaudamas grąžinti dešimtis tūkstančių eurų. Kilus konfliktui, atsistatydino ministras pirmininkas ir visas jo kabinetas.
Tikimės, kad 2025 m. rizika, susijusi su dirbtiniu intelektu, kils ne dėl to, kad dirbtinis intelektas veiks pats savaime, o dėl to, ką žmonės su juo darys.
Tai apima atvejus, kai jis atrodo gerai veikiantis ir juo pernelyg pasikliaujama; kai jis gerai veikia ir juo piktnaudžiaujama; ir kai jis paprasčiausiai netinkamas naudoti pagal paskirtį.
Šių pavojų mažinimas yra didžiulė užduotis įmonėms, vyriausybėms ir visuomenei. Tai bus pakankamai sunku ir nesiblaškant dėl mokslinės fantastikos rūpesčių.