Laikesi ChatGPT sudaryto dietos plano baigesi retu XIX a psichikos sutrikimu
Laikėsi „ChatGPT“ sudaryto dietos plano – baigėsi retu XIX a. psichikos sutrikimu
Paviešinta liūdnai pasibaigusi vyro istorija, aklai pasitikėjusio pokalbių roboto „ChatGPT“ sugeneruotais rezultatais. Juose – mitybos patarimai dėl vienos maistinės medžiagos atsisakymo, kurie asmenį privedė prie reto psichinio sutrikimo.
Norėjo pakeisti vieną mitybos įprotį
„Annals of Internal Medicine: Clinical Cases“ moksliniame žurnale aprašomas atvejis, kurio metu vyras, perskaitęs apie neigiamą per didelio natrio chlorido – paprastosios valgomosios druskos, kiekio poveikį organizmui, panoro jos atsisakyti iš savo raciono.
Ieškodamas sprendimo, kaip visiškai atsisakyti druskos, jis kreipėsi į „ChatGPT“, kuris jam sugeneravo naujos dietos planą. Jos asmuo laikėsi tris mėnesius, kol galiausiai pateko į gydymo įstaigą, kaltindamas kaimyną dėl jo apnuodijimo. Vyras skundėsi ant veido atsiradusiu bėrimu, nuovargiu, nemiga, prasta koordinacija ir pasireiškusiais paranojos ir haliucinacijos epizodais.
Šalutinį poveikį sukėlė viena medžiaga
Kiek vėliau išaiškėjo, kad vyrui dirbtinio intelekto modelis pateikė medžiagų sąrašą, kurios galėtų pakeisti įprastą druską. Sąraše paminėtas ir natrio bromidas – nors teoriškai tai yra druskos pakaitalas, tačiau jis netinkamas įtraukimui į žmogaus mitybos racioną.
Ekspertai teigia, kad dėl to asmeniui išsivystė bromizmas – lėtinis apsinuodijimas bromidu, kuris buvo ypatingai paplitęs XIX a. pabaigoje ir XX a. pradžioje. Tuo laikotarpiu jis buvo plačiai naudojamas raminamuosiuose, migdomuosiuose vaistuose ir net nereceptiniuose milteliuose nuo galvos skausmo.
Kiek vėliau išsiaiškinta apie neigiamą lėtinį jo poveikį ir toksinių medžiagų kaupimąsi organizme, kurios nulemia ir atsirandančius psichikos sutrikimus.
Kodėl „ChatGPT“ ir vėl paslydo?
Ataskaitoje teigiama, kad tyrėjai neturėjo galimybės perskaityti originalių pokalbio išrašų, todėl bandė imituoti įvykusią vyro „konsultaciją“ dėl mitybos. Pasak jų, jis galėjo naudoti senesnį „3.5” ar „4.0“ modelį, o juose galimai nebuvo pateikti ir konkretūs įspėjimai apie pavojų sveikatai.
Tuo tarpu „OpenAI“ atsakomybės atsisako ir teigia, kad bendrovės paslaugų teikimo sąlygose yra aiškiai numatyta, kad bendrovės tiekiamos paslaugos nėra skirtos diagnozuoti ar gydyti bet kokius sveikatos sutrikimus. Taip pat užsimenama ir apie nuolatines pastangas apmokyti modelius taip, kad šie visai atvejais paskatintų vartotoją kreiptis į profesionalius sveikatos specialistus.
Tai ne pirmas atvejis, kai pokalbių robotas turi neigiamų pasekmių jo vartotojų sveikatai. Kiek anksčiau buvo kalbama ir apie tai, kad pokalbis su „ChatGPT“ paskatino iki tol visiškai sveiką asmenį patikėti savo siurrealistine idėja apie keliones, greitesnes už šviesą.
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Tyrimas: beveik pusė europiečių nebegali ar nebenori pirkti būsto – kas vyksta Lietuvoje?
2Vėl peržengta riba: „ChatGPT“ privedė studentą prie psichozės
3Šalia namų nušautas žymus NASA astrofizikas: tyrė Žemei pavojingus asteroidus ir kometas
4Nutekintos „Galaxy S26“ serijos kainos: „Ultra“ bus pigesnis nei prognozuota
5Mokslininkai ištyrė 81 ausinių modelį – visuose rasta medžiagų, pavojingų žmogaus sveikatai
NAUJAUSI
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.