Jei kraipote galvą ir galvojate, kam reikalingi visi šie pokalbių robotai, štai viena idėja: pasirodo, jiems geriau sekasi įtikinti žmones pateikiamais argumentais.
Tiesą sakant, taip gerai, kad, remiantis Šveicarijos ir Italijos mokslininkų grupės atliktais tyrimais, „GPT-4“, turėdamas nedaug demografinių duomenų, gali įtikinti žmonių oponentus debatuose pritarti jo pozicijai 81,7 proc. dažniau nei žmogaus oponentas.
Atliktas įdomus eksperimentas
Komanda pasiūlė keletą diskusijų temų, pavyzdžiui, ar centai vis dar turėtų būti apyvartoje, ar tikslinga atlikti laboratorinius bandymus su gyvūnais, ar rasė turėtų būti svarbi priimant į koledžą. Dalyvaujantiems žmonėms atsitiktine tvarka buvo paskirta tema, pozicija, žmogaus arba dirbtinio intelekto oponentas ir paprašyta ginčytis.
Dalyvių taip pat buvo paprašyta pateikti tam tikrą demografinę informaciją, užpildyti informaciją apie savo lytį, amžių, etninę priklausomybę, išsilavinimo lygį, užimtumo statusą ir politines pažiūras.
Kai kuriais atvejais ši informacija buvo pateikta debatų oponentams (tiek žmonėms, tiek dirbtiniam intelektui), kad būtų galima pritaikyti argumentus konkrečiam asmeniui, o kitais atvejais ji nebuvo pateikta.
Kai „GPT-4“ (eksperimente naudotas LLM) buvo pateikta demografinė informacija, jis buvo daug pranašesnis už žmones.
Be šios informacijos dirbtinis intelektas „vis tiek lenkė žmones“ – nors ir mažesniu laipsniu, kuris nebuvo statistiškai reikšmingas. Komanda pastebėjo, kad, kai žmonėms buvo pateikta demografinė informacija, rezultatai iš tikrųjų pablogėjo.
„Kitaip tariant, LLM ne tik sugeba veiksmingai pasinaudoti asmenine informacija, kad pritaikytų savo argumentus, bet jiems tai pavyksta padaryti daug efektyviau nei žmonėms“, – padarė išvadą komanda.
Komanda pripažino, kad šis tyrimas nėra pirmasis, kuriame nagrinėjama LLM įtikinamoji galia, tačiau jame nagrinėjama, kaip įtikinamai dirbtinis intelektas galėtų veikti realiuoju laiku – apie tai, pasak jų, „vis dar turime nedaug žinių“.
Komanda pripažino, kad jų tyrimas nėra tobulas – žmonėms atsitiktinai buvo priskirta pozicija debatų tema, todėl, pavyzdžiui, jie nebūtinai investavo į savo poziciją. Tačiau teigė, kad vis tiek yra daug priežasčių išvadas vertinti kaip didelį susirūpinimą keliantį šaltinį.
„Ekspertai plačiai išreiškė susirūpinimą dėl pavojaus, kad LLM gali būti naudojami siekiant manipuliuoti pokalbiais internete ir užteršti informacinę ekosistemą skleidžiant dezinformaciją“, – teigiama dokumente.
Tokių išvadų pavyzdžių gausu ir kituose mokslinių tyrimų projektuose, o kai kuriuose netgi nustatyta, kad LLM geriau nei žmonės sugeba kurti įtikinamą netikrą informaciją. Net „OpenAI“ generalinis direktorius Samas Altmanas pripažino, kad įtikinamuosius dirbtinio intelekto gebėjimus verta stebėti ateityje.
Problema gali dar labiau paaštrėti
Pridėkime šiuolaikinių dirbtinio intelekto modelių galimybes sąveikauti su „Meta“, „Google“ ar kitų duomenų rinkėjų žiniomis apie konkrečius žmones, ir problema tik dar labiau paaštrės.
Jei „GPT-4“ yra daug įtaigesnis, turėdamas tik ribotą kiekį asmeninės informacijos apie savo diskusijų partnerius, ką jis galėtų padaryti su viskuo, ką žino „Google“?
„Mūsų tyrimas rodo, kad susirūpinimas dėl personalizavimo ir dirbtinio intelekto įtikinėjimo yra prasmingas“, – pareiškė komanda. „Piktavaliai, suinteresuoti pokalbių botų panaudojimu didelio masto dezinformacijos kampanijoms, galėtų pasiekti dar stipresnį poveikį, pasinaudodami smulkiais skaitmeniniais pėdsakais ir elgsenos duomenimis, pasitelkdami greitąją inžineriją arba tiksliai pritaikydami kalbos modelius konkrečioms sritims.“
Mokslininkai tikisi, kad interneto platformos ir socialinės žiniasklaidos svetainės rimtai apsvarstys dirbtinio intelekto įtikinėjimo keliamas grėsmes ir imsis priemonių galimam poveikiui neutralizuoti.
„Tokios platformos kaip „Facebook“, „Twitter“ ir „TikTok“ turi prisitaikyti prie dirbtinio intelekto, o tai priklausys nuo konteksto. Ar kalbame apie sukčius? O gal apie užsienio agentus, bandančius paveikti rinkimus? Tikėtina, kad sprendimai bus skirtingi“, – „The Register“ sakė vienas iš dokumento autorių Manoelis Ribeiro.
„Tačiau apskritai vienas ingredientas, kuris labai padėtų įvairioms intervencinėms priemonėms, būtų geresnių būdų, kaip aptikti dirbtinio intelekto naudojimą, sukūrimas. Ypač sunku įsikišti, kai sunku nustatyti, koks turinys yra sukurtas dirbtinio intelekto.“
Ribeiro papasakojo, kad komanda planuoja papildomus tyrimus, kurių metu žmonės diskutuos remdamiesi artimesnėmis pozicijomis, siekdami išsiaiškinti, kaip tai pakeis rezultatus. Ribeiro teigė, kad būtina tęsti tyrimus, nes dirbtinis intelektas smarkiai pakeis žmonių bendravimą internete.
„Net jei mūsų tyrimas neturėtų jokių apribojimų, teigčiau, kad privalome toliau tirti žmonių ir DI sąveiką, nes ji yra „judantis taikinys“. Kadangi didieji kalbos modeliai tampa vis populiaresni ir pajėgesni, tikėtina, kad žmonių sąveikos su internetiniu turiniu būdas drastiškai pasikeis“, – prognozavo Ribeiro.
Ribeiro ir jo komanda dar nekalbėjo su „OpenAI“ ar kitais pagrindiniais kūrėjais apie savo rezultatus, tačiau sakė, kad džiaugtųsi tokia galimybe.
„Įvertinti dirbtinio intelekto keliamą riziką visuomenei – tai sritis, kurioje puikiai tinka bendradarbiauti pramonės ir akademinei bendruomenei“, – sakė Ribeiro.