Skip to content
Ar „ChatGPT“ gali būti jūsų terapeutas? Mokslininkai įspėja apie rimtas rizikas

„ChatGPT“ programėlės ikona. Šaltinis: TechNaujienos / Shutterstock

Ar „ChatGPT“ gali būti jūsų terapeutas? Mokslininkai įspėja apie rimtas rizikas

TRUMPAI

  • • JAV mokslininkų tyrimas parodė, kad didieji kalbos modeliai, imituodami terapeutus, sistemingai pažeidžia profesinės etikos principus.
  • • Tyrėjai identifikavo 15 etinių rizikų grupių, susijusių su empatija, krizėmis ar atsakomybe.
  • • Ekspertai įspėja, kad DI neturėtų būti laikomas profesionalios psichologinės pagalbos alternatyva.
REKLAMA

Tyrimas, praeitais metais pristatytas tarptautinėje AAAI/ACM konferencijoje „AI, Ethics, and Society“, atskleidė, kad didieji kalbos modeliai, bandydami veikti kaip terapeutai, sistemingai pažeidžia profesinės etikos principus. Net aiškiai nurodžius modeliui laikytis terapinių standartų, jis gali pateikti klaidinančius, paviršutiniškus ar net žalingus atsakymus. Tai svarbu kiekvienam vartotojui, nes milijonai žmonių jau dabar kreipiasi į dirbtinį intelektą (DI) ieškodami emocinės paramos, nors, pasak mokslininkų, technologija tam nėra sukurta ir negali prisiimti atsakomybės už pasekmes.

15 etinių rizikų, kurių vartotojai nemato

Brauno universiteto (JAV) mokslininkai nustatė, kad DI pokalbių modeliai, kaip „ChatGPT“, sistemiškai laikosi rizikingos praktikos, kuri prieštarauja profesionaliems psichologinės pagalbos principams. Tokie modeliai dažnai pateikia atsakymus, kurie gali būti klaidinantys, netinkami ar potencialiai žalingi pažeidžiamiems vartotojams.

Tyrimo autoriai išskyrė plačią etinių pažeidimų struktūrą, kuri aiškiai parodo, kodėl didieji kalbos modeliai netinka psichoterapijos kontekstui. Iš pradžių jie sukūrė simuliacinius terapinius pokalbių scenarijus ir paprašė didžiųjų kalbos modelių veikti kaip licencijuotiems terapeutams. Vėliau trys klinikiniai psichologai rankiniu būdu įvertino modelių atsakymus pagal realius profesinės etikos standartus ir identifikavo sisteminius pažeidimus bei rizikas.

REKLAMA

Šios rizikos yra susijusios su tuo, kaip pokalbių DI interpretuoja, generuoja ir pateikia atsakymus vartotojams, ieškantiems emocinės paramos.

15 rizikų buvo suskirstytos į šias grupes:

  1. Klaidinga empatija. DI modeliai dažnai naudoja palaikančias frazes, kurios skamba empatiškai, tačiau neturi tikro supratimo ar atsakomybės. Tai gali sukelti klaidingą saugumo ar supratimo jausmą, net jei situacija yra rimta.
  2. Netinkamas krizės valdymas. Modeliai gali netinkamai reaguoti į savižudybės, pavojaus ar stiprios emocinės krizės signalus ir nesuteikti tinkamos rekomendacijos kreiptis į profesionalią pagalbą.
  3. Paviršutiniški patarimai. Sistema dažnai generuoja bendro pobūdžio, šabloninius atsakymus, kurie neatsižvelgia į individualius asmens poreikius ar kontekstą.
  4. Stereotipai ir netinkami atsakymai. DI gali netyčia sustiprinti šališkus ar neteisingus įsitikinimus dėl lyties, kultūros ar elgesio, kas gali būti ypač pavojinga psichologinių sunkumų akivaizdoje.
  5. Atsakomybės trūkumas. Skirtingai nei licencijuoti specialistai, DI neturi profesinės ar teisinės atsakomybės už pasekmes, kurias gali turėti jo pateikti atsakymai.
Vyras kalbasi su humanoidiniu robotu. Šaltinis: TechNaujienos

Rezultatai nėra pavienės klaidos

Mokslininkų teigimu, kalbama ne apie atsitiktinius netikslumus ar pavienius „blogus atsakymus“. Vertinant skirtingus scenarijus paaiškėjo, kad etiniai neatitikimai kartojasi sistemiškai – net ir tada, kai modeliui aiškiai nurodoma veikti kaip profesionaliam terapeutui ir laikytis psichologinės pagalbos standartų.

Tai reiškia, kad problema slypi ne tik turinyje, bet ir pačiame veikimo principe. Didieji kalbos modeliai generuoja atsakymus pagal statistinius tikimybių modelius, o ne pagal klinikinį vertinimą, realų emocinį supratimą ar atsakomybės principą. Dėl to jie gali skambėti įtikinamai, tačiau jų atsakymai nėra pagrįsti profesionalia diagnostika ar terapine metodika.

REKLAMA

Tyrimo autoriai taip pat atkreipia dėmesį, kad šiuo metu nėra aiškaus ir specializuoto reguliavimo mechanizmo, kuris apibrėžtų, kaip tokios sistemos gali būti naudojamos psichinės sveikatos kontekste. Nors mokslininkų nuomonės išsiskiria – kaip anksčiau TechNaujienos.lt aptarėme, dalis tyrėjų mano, kad DI jau galėtų pakeisti dalį psichoterapijos procesų.

Ką tai reiškia vartotojams

Kaip anksčiau atskleidė „OpenAI“, maždaug 90 proc. vartotojų „ChatGPT“ naudoja asmeniniais tikslais, todėl tyrimo rezultatai yra aktualūs plačiai visuomenės grupei.

Jo išvados rodo, kad DI sistemos neturėtų būti vertinamos kaip lygiavertė alternatyva profesionaliai psichologinei pagalbai. Nors jos gali suteikti bendro pobūdžio informaciją ar sudaryti palaikančio dialogo įspūdį, jų atsakymai nėra pagrįsti klinikiniu vertinimu, profesine atsakomybe ar terapine metodika.

Kaip vertinate šį straipsnį?

NAUJIENOS IŠ INTERNETO

Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.

Sekite mokslo ir technologijų tendencijas
Dalyvaukite diskusijose
Naujienas gaukite pirmieji
1 700+ narių jau seka mūsų puslapį, laukiame tavęs!
10

Taip pat skaitykite

Atrinkome panašius straipsnius, kurie gali jums patikti.