Skip to content
Laikėsi „ChatGPT“ sudaryto dietos plano – baigėsi retu XIX a. psichikos sutrikimu

Laikesi ChatGPT sudaryto dietos plano baigesi retu XIX a psichikos sutrikimu

Laikėsi „ChatGPT“ sudaryto dietos plano – baigėsi retu XIX a. psichikos sutrikimu

REKLAMA

Paviešinta liūdnai pasibaigusi vyro istorija, aklai pasitikėjusio pokalbių robotoChatGPT“ sugeneruotais rezultatais. Juose – mitybos patarimai dėl vienos maistinės medžiagos atsisakymo, kurie asmenį privedė prie reto psichinio sutrikimo.

Norėjo pakeisti vieną mitybos įprotį

„Annals of Internal Medicine: Clinical Cases“ moksliniame žurnale aprašomas atvejis, kurio metu vyras, perskaitęs apie neigiamą per didelio natrio chlorido – paprastosios valgomosios druskos, kiekio poveikį organizmui, panoro jos atsisakyti iš savo raciono.

Ieškodamas sprendimo, kaip visiškai atsisakyti druskos, jis kreipėsi į „ChatGPT“, kuris jam sugeneravo naujos dietos planą. Jos asmuo laikėsi tris mėnesius, kol galiausiai pateko į gydymo įstaigą, kaltindamas kaimyną dėl jo apnuodijimo. Vyras skundėsi ant veido atsiradusiu bėrimu, nuovargiu, nemiga, prasta koordinacija ir pasireiškusiais paranojos ir haliucinacijos epizodais.

REKLAMA

Šalutinį poveikį sukėlė viena medžiaga

Kiek vėliau išaiškėjo, kad vyrui dirbtinio intelekto modelis pateikė medžiagų sąrašą, kurios galėtų pakeisti įprastą druską. Sąraše paminėtas ir natrio bromidas – nors teoriškai tai yra druskos pakaitalas, tačiau jis netinkamas įtraukimui į žmogaus mitybos racioną.

Ekspertai teigia, kad dėl to asmeniui išsivystė bromizmas – lėtinis apsinuodijimas bromidu, kuris buvo ypatingai paplitęs XIX a. pabaigoje ir XX a. pradžioje. Tuo laikotarpiu jis buvo plačiai naudojamas raminamuosiuose, migdomuosiuose vaistuose ir net nereceptiniuose milteliuose nuo galvos skausmo.

Kiek vėliau išsiaiškinta apie neigiamą lėtinį jo poveikį ir toksinių medžiagų kaupimąsi organizme, kurios nulemia ir atsirandančius psichikos sutrikimus.

REKLAMA

Kodėl „ChatGPT“ ir vėl paslydo?

Ataskaitoje teigiama, kad tyrėjai neturėjo galimybės perskaityti originalių pokalbio išrašų, todėl bandė imituoti įvykusią vyro „konsultaciją“ dėl mitybos. Pasak jų, jis galėjo naudoti senesnį „3.5” ar „4.0“ modelį, o juose galimai nebuvo pateikti ir konkretūs įspėjimai apie pavojų sveikatai.

Tuo tarpu „OpenAI“ atsakomybės atsisako ir teigia, kad bendrovės paslaugų teikimo sąlygose yra aiškiai numatyta, kad bendrovės tiekiamos paslaugos nėra skirtos diagnozuoti ar gydyti bet kokius sveikatos sutrikimus. Taip pat užsimenama ir apie nuolatines pastangas apmokyti modelius taip, kad šie visai atvejais paskatintų vartotoją kreiptis į profesionalius sveikatos specialistus.

Tai ne pirmas atvejis, kai pokalbių robotas turi neigiamų pasekmių jo vartotojų sveikatai. Kiek anksčiau buvo kalbama ir apie tai, kad pokalbis su „ChatGPT“ paskatino iki tol visiškai sveiką asmenį patikėti savo siurrealistine idėja apie keliones, greitesnes už šviesą.

Kaip vertinate šį straipsnį?

NAUJIENOS IŠ INTERNETO

Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.

Sekite mokslo ir technologijų tendencijas
Dalyvaukite diskusijose
Naujienas gaukite pirmieji
1 700+ narių jau seka mūsų puslapį, laukiame tavęs!
10

Taip pat skaitykite

Atrinkome panašius straipsnius, kurie gali jums patikti.