„ChatGPT“ programėlės ikona. Šaltinis: TechNaujienos / Shutterstock
Ar „ChatGPT“ gali būti jūsų terapeutas? Mokslininkai įspėja apie rimtas rizikas
TRUMPAI
- • JAV mokslininkų tyrimas parodė, kad didieji kalbos modeliai, imituodami terapeutus, sistemingai pažeidžia profesinės etikos principus.
- • Tyrėjai identifikavo 15 etinių rizikų grupių, susijusių su empatija, krizėmis ar atsakomybe.
- • Ekspertai įspėja, kad DI neturėtų būti laikomas profesionalios psichologinės pagalbos alternatyva.
Tyrimas, praeitais metais pristatytas tarptautinėje AAAI/ACM konferencijoje „AI, Ethics, and Society“, atskleidė, kad didieji kalbos modeliai, bandydami veikti kaip terapeutai, sistemingai pažeidžia profesinės etikos principus. Net aiškiai nurodžius modeliui laikytis terapinių standartų, jis gali pateikti klaidinančius, paviršutiniškus ar net žalingus atsakymus. Tai svarbu kiekvienam vartotojui, nes milijonai žmonių jau dabar kreipiasi į dirbtinį intelektą (DI) ieškodami emocinės paramos, nors, pasak mokslininkų, technologija tam nėra sukurta ir negali prisiimti atsakomybės už pasekmes.
15 etinių rizikų, kurių vartotojai nemato
Brauno universiteto (JAV) mokslininkai nustatė, kad DI pokalbių modeliai, kaip „ChatGPT“, sistemiškai laikosi rizikingos praktikos, kuri prieštarauja profesionaliems psichologinės pagalbos principams. Tokie modeliai dažnai pateikia atsakymus, kurie gali būti klaidinantys, netinkami ar potencialiai žalingi pažeidžiamiems vartotojams.
Tyrimo autoriai išskyrė plačią etinių pažeidimų struktūrą, kuri aiškiai parodo, kodėl didieji kalbos modeliai netinka psichoterapijos kontekstui. Iš pradžių jie sukūrė simuliacinius terapinius pokalbių scenarijus ir paprašė didžiųjų kalbos modelių veikti kaip licencijuotiems terapeutams. Vėliau trys klinikiniai psichologai rankiniu būdu įvertino modelių atsakymus pagal realius profesinės etikos standartus ir identifikavo sisteminius pažeidimus bei rizikas.
Šios rizikos yra susijusios su tuo, kaip pokalbių DI interpretuoja, generuoja ir pateikia atsakymus vartotojams, ieškantiems emocinės paramos.
15 rizikų buvo suskirstytos į šias grupes:
- Klaidinga empatija. DI modeliai dažnai naudoja palaikančias frazes, kurios skamba empatiškai, tačiau neturi tikro supratimo ar atsakomybės. Tai gali sukelti klaidingą saugumo ar supratimo jausmą, net jei situacija yra rimta.
- Netinkamas krizės valdymas. Modeliai gali netinkamai reaguoti į savižudybės, pavojaus ar stiprios emocinės krizės signalus ir nesuteikti tinkamos rekomendacijos kreiptis į profesionalią pagalbą.
- Paviršutiniški patarimai. Sistema dažnai generuoja bendro pobūdžio, šabloninius atsakymus, kurie neatsižvelgia į individualius asmens poreikius ar kontekstą.
- Stereotipai ir netinkami atsakymai. DI gali netyčia sustiprinti šališkus ar neteisingus įsitikinimus dėl lyties, kultūros ar elgesio, kas gali būti ypač pavojinga psichologinių sunkumų akivaizdoje.
- Atsakomybės trūkumas. Skirtingai nei licencijuoti specialistai, DI neturi profesinės ar teisinės atsakomybės už pasekmes, kurias gali turėti jo pateikti atsakymai.

Rezultatai nėra pavienės klaidos
Mokslininkų teigimu, kalbama ne apie atsitiktinius netikslumus ar pavienius „blogus atsakymus“. Vertinant skirtingus scenarijus paaiškėjo, kad etiniai neatitikimai kartojasi sistemiškai – net ir tada, kai modeliui aiškiai nurodoma veikti kaip profesionaliam terapeutui ir laikytis psichologinės pagalbos standartų.
Tai reiškia, kad problema slypi ne tik turinyje, bet ir pačiame veikimo principe. Didieji kalbos modeliai generuoja atsakymus pagal statistinius tikimybių modelius, o ne pagal klinikinį vertinimą, realų emocinį supratimą ar atsakomybės principą. Dėl to jie gali skambėti įtikinamai, tačiau jų atsakymai nėra pagrįsti profesionalia diagnostika ar terapine metodika.
Tyrimo autoriai taip pat atkreipia dėmesį, kad šiuo metu nėra aiškaus ir specializuoto reguliavimo mechanizmo, kuris apibrėžtų, kaip tokios sistemos gali būti naudojamos psichinės sveikatos kontekste. Nors mokslininkų nuomonės išsiskiria – kaip anksčiau TechNaujienos.lt aptarėme, dalis tyrėjų mano, kad DI jau galėtų pakeisti dalį psichoterapijos procesų.
Ką tai reiškia vartotojams
Kaip anksčiau atskleidė „OpenAI“, maždaug 90 proc. vartotojų „ChatGPT“ naudoja asmeniniais tikslais, todėl tyrimo rezultatai yra aktualūs plačiai visuomenės grupei.
Jo išvados rodo, kad DI sistemos neturėtų būti vertinamos kaip lygiavertė alternatyva profesionaliai psichologinei pagalbai. Nors jos gali suteikti bendro pobūdžio informaciją ar sudaryti palaikančio dialogo įspūdį, jų atsakymai nėra pagrįsti klinikiniu vertinimu, profesine atsakomybe ar terapine metodika.
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Lietuviams gerai pažįstamas produktas per 48 valandas sumažino cholesterolį – poveikis išliko savaitėms
27 milijonų ląstelių tyrimas atskleidė, kaip iš tikrųjų sensta žmogaus kūnas
3Prostatos vėžiui galas? Naujas vaistas demonstruoja išskirtinį efektyvumą
4Patobulintos nanodalelės gali padėti gydyti vėžį: sveiki audiniai lieka beveik nepažeisti
5Europos raketinis variklis „Greta“ žengia į naują etapą: tobulins skrydžiams į kosmosą
NAUJAUSI
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.