Ketvirtadienį bendrovė „OpenAI“ nustatė ir pašalino penkias Rusijoje, Kinijoje, Irane ir Izraelyje vykdomas slaptas įtakos operacijas, kurios naudojo jos dirbtinio intelekto įrankius viešajai nuomonei manipuliuoti.
„OpenAI“ įrankiai naudoti apgaulingai veiklai
Naujoje ataskaitoje „OpenAI“ išsamiai aprašė, kaip šios grupės, kai kurios iš jų susijusios su žinomomis propagandos kampanijomis, naudojo bendrovės įrankius įvairiai „apgaulingai veiklai“.
Tarp jų buvo socialinės žiniasklaidos komentarų, straipsnių ir vaizdų įvairiomis kalbomis generavimas, netikrų paskyrų vardų ir biografijų kūrimas, kodo derinimas, tekstų vertimas ir taisymas.
Šie tinklai daugiausia dėmesio skyrė įvairiems klausimams, įskaitant karo Gazoje ir Rusijos invazijos į Ukrainą gynimą, Kinijos disidentų kritiką, Indijos, Europos ir JAV politikos komentarus, kuriais buvo bandoma paveikti viešąją nuomonę.
Nors šios įtakos operacijos buvo nukreiptos į įvairias interneto platformas, įskaitant „X“, „Telegram“, „Facebook“, „Medium“, „Blogspot“ ir kitas svetaines, „nė vienai iš jų nepavyko pritraukti didelės auditorijos“, teigia „OpenAI“ analitikai.
Tai pirmoji tokio pobūdžio ataskaita
Ši ataskaita, pirmoji tokio pobūdžio bendrovės paskelbta ataskaita, parengta atsižvelgiant į visuotinį susirūpinimą dėl galimo dirbtinio intelekto įrankių poveikio šiemet visame pasaulyje vykstantiems daugiau kaip 64 rinkimams, įskaitant lapkričio mėn. vyksiančius JAV prezidento rinkimus.
Viename iš ataskaitoje minimų pavyzdžių Rusijos grupės „Telegram“ žinutėje rašoma:
„Man nusibodo, kad šie kvailiai su pažeistomis smegenimis žaidžia žaidimus, o amerikiečiai kenčia. Vašingtonui reikia išsiaiškinti savo prioritetus, kitaip jie pajus visą Teksaso jėgą!“
„OpenAI“ analitikų išvardyti pavyzdžiai atskleidžia, kaip užsienio veikėjai, atrodo, daugiausia naudoja dirbtinio intelekto įrankius toms pačioms įtakos internete operacijoms, kurias jie vykdo jau dešimtmetį. Jie daugiausia dėmesio skiria netikrų paskyrų, komentarų ir straipsnių naudojimui siekiant formuoti viešąją nuomonę ir manipuliuoti politiniais rezultatais.
„Šios tendencijos rodo, kad grėsmių kraštovaizdis pasižymi evoliucija, o ne revoliucija“, – ataskaitoje rašė „OpenAI“ Žvalgybos ir tyrimų grupės vyriausiasis tyrėjas Benas Nimmo. „Grėsmių dalyviai naudojasi mūsų platforma, kad patobulintų savo turinį ir dirbtų efektyviau.“
Bendrovė „OpenAI“, kuri gamina „ChatGPT“, teigia, kad šiuo metu turi daugiau nei 100 mln. aktyvių savaitinių naudotojų. Jos įrankiai padeda lengviau ir greičiau sukurti didelį kiekį turinio, juos galima naudoti kalbos klaidoms užmaskuoti ir netikram įsitraukimui generuoti.
„OpenAI“ uždarytos kampanijas
Vienoje iš „OpenAI“ uždarytų Rusijos įtakos kampanijų, kurią bendrovė pavadino „Bad Grammar“, jos dirbtinio intelekto modeliai buvo naudojami siekiant ištaisyti kodą, kad būtų paleistas „Telegram“ botas, kuris kūrė trumpus politinius komentarus anglų ir rusų kalbomis. Ši operacija buvo nukreipta į Ukrainą, Moldovą, JAV ir Baltijos šalis, teigia bendrovė.
Kitoje Rusijos operacijoje, žinomoje kaip „Doppelganger“, kurią JAV Iždo departamentas susiejo su Kremliumi, „OpenAI“ modeliai buvo naudojami „OpenAI“ antraštėms generuoti ir naujienų straipsniams konvertuoti į „Facebook“ įrašus bei komentarams anglų, prancūzų, vokiečių, italų ir lenkų kalbomis kurti.
Žinomas Kinijos tinklas „Spamouflage“ taip pat naudojo „OpenAI“ įrankius, kad ištirtų socialinės žiniasklaidos veiklą ir sukurtų tekstą kinų, anglų, japonų ir korėjiečių kalbomis, kuris buvo skelbiamas įvairiose platformose, įskaitant „X“, „Medium“ ir „Blogspot“.
„OpenAI“ taip pat išsamiai aprašė, kaip Tel Avive įsikūrusi Izraelio politinės rinkodaros įmonė „Stoic“ naudojo savo įrankius, kad sukurtų proizraelietišką turinį apie karą Gazoje. Kampanija, pavadinta „Zero Zeno“, buvo skirta JAV, Kanados ir Izraelio auditorijai.
Trečiadienį „Meta“, „Facebook“ ir „Instagram“ patronuojančioji bendrovė, pranešė, kad pašalino 510 „Facebook“ paskyrų ir 32 „Instagram“ paskyras, susijusias su ta pačia įmone.
Netikrų paskyrų grupė, tarp kurių buvo ir afroamerikiečiais bei JAV ir Kanados studentais prisistatančių paskyrų, dažnai atsakydavo į žinomų veikėjų ar žiniasklaidos organizacijų pranešimus, kuriuose buvo giriamas Izraelis, kritikuojamas antisemitizmas universitetų miesteliuose ir smerkiamas „radikalusis islamas“.
Pasak „OpenAI“, panašu, kad nepavyko pasiekti jokio reikšmingo įsitraukimo.
„Žiūrėkite, nėra šaunu, kaip šios ekstremistinės idėjos, pavyzdžiui, gadina mūsų šalies atmosferą“, – rašoma viename pranešime ataskaitoje.
„OpenAI“ teigia naudojanti savo dirbtinio intelekto įrankius, kad veiksmingiau ištirtų ir sužlugdytų šias užsienio įtakos operacijas.
„Mūsų įrankių dėka tyrimai, aprašyti pridedamoje ataskaitoje, užtruko ne savaites ar mėnesius, o kelias dienas“, – ketvirtadienį sakė bendrovė.
Jie taip pat pažymėjo, kad, nepaisant sparčios dirbtinio intelekto priemonių raidos, žmogiškosios klaidos išlieka veiksniu.
„Dirbtinis intelektas gali pakeisti įrankių rinkinį, kuriuo naudojasi žmonių operatoriai, tačiau jis nepakeičia pačių operatorių“, – sakė „OpenAI“. „Nors svarbu žinoti apie besikeičiančias priemones, kuriomis naudojasi grėsmių dalyviai, neturėtume pamiršti žmogiškųjų apribojimų, kurie gali turėti įtakos jų veiklai ir sprendimų priėmimui.“