Laikesi ChatGPT sudaryto dietos plano baigesi retu XIX a psichikos sutrikimu
Laikėsi „ChatGPT“ sudaryto dietos plano – baigėsi retu XIX a. psichikos sutrikimu
Paviešinta liūdnai pasibaigusi vyro istorija, aklai pasitikėjusio pokalbių roboto „ChatGPT“ sugeneruotais rezultatais. Juose – mitybos patarimai dėl vienos maistinės medžiagos atsisakymo, kurie asmenį privedė prie reto psichinio sutrikimo.
Norėjo pakeisti vieną mitybos įprotį
„Annals of Internal Medicine: Clinical Cases“ moksliniame žurnale aprašomas atvejis, kurio metu vyras, perskaitęs apie neigiamą per didelio natrio chlorido – paprastosios valgomosios druskos, kiekio poveikį organizmui, panoro jos atsisakyti iš savo raciono.
Ieškodamas sprendimo, kaip visiškai atsisakyti druskos, jis kreipėsi į „ChatGPT“, kuris jam sugeneravo naujos dietos planą. Jos asmuo laikėsi tris mėnesius, kol galiausiai pateko į gydymo įstaigą, kaltindamas kaimyną dėl jo apnuodijimo. Vyras skundėsi ant veido atsiradusiu bėrimu, nuovargiu, nemiga, prasta koordinacija ir pasireiškusiais paranojos ir haliucinacijos epizodais.
Šalutinį poveikį sukėlė viena medžiaga
Kiek vėliau išaiškėjo, kad vyrui dirbtinio intelekto modelis pateikė medžiagų sąrašą, kurios galėtų pakeisti įprastą druską. Sąraše paminėtas ir natrio bromidas – nors teoriškai tai yra druskos pakaitalas, tačiau jis netinkamas įtraukimui į žmogaus mitybos racioną.
Ekspertai teigia, kad dėl to asmeniui išsivystė bromizmas – lėtinis apsinuodijimas bromidu, kuris buvo ypatingai paplitęs XIX a. pabaigoje ir XX a. pradžioje. Tuo laikotarpiu jis buvo plačiai naudojamas raminamuosiuose, migdomuosiuose vaistuose ir net nereceptiniuose milteliuose nuo galvos skausmo.
Kiek vėliau išsiaiškinta apie neigiamą lėtinį jo poveikį ir toksinių medžiagų kaupimąsi organizme, kurios nulemia ir atsirandančius psichikos sutrikimus.
Kodėl „ChatGPT“ ir vėl paslydo?
Ataskaitoje teigiama, kad tyrėjai neturėjo galimybės perskaityti originalių pokalbio išrašų, todėl bandė imituoti įvykusią vyro „konsultaciją“ dėl mitybos. Pasak jų, jis galėjo naudoti senesnį „3.5” ar „4.0“ modelį, o juose galimai nebuvo pateikti ir konkretūs įspėjimai apie pavojų sveikatai.
Tuo tarpu „OpenAI“ atsakomybės atsisako ir teigia, kad bendrovės paslaugų teikimo sąlygose yra aiškiai numatyta, kad bendrovės tiekiamos paslaugos nėra skirtos diagnozuoti ar gydyti bet kokius sveikatos sutrikimus. Taip pat užsimenama ir apie nuolatines pastangas apmokyti modelius taip, kad šie visai atvejais paskatintų vartotoją kreiptis į profesionalius sveikatos specialistus.
Tai ne pirmas atvejis, kai pokalbių robotas turi neigiamų pasekmių jo vartotojų sveikatai. Kiek anksčiau buvo kalbama ir apie tai, kad pokalbis su „ChatGPT“ paskatino iki tol visiškai sveiką asmenį patikėti savo siurrealistine idėja apie keliones, greitesnes už šviesą.
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Šie įpročiai gali sumažinti Alzheimerio riziką beveik 40 proc., rodo tyrimas
2Mokslininkai skelbia proveržį: sulėtino smegenų senėjimą su nosies purškalu
3Vos 10 minučių naudojimosi DI jau gali silpninti jūsų mąstymą, rodo tyrimas
4Etikos dilema: žuvus sūnui, šeima nuslėpė jo mirtį nuo motinos, sukūrusi DI kloną
5Dvi juodosios skylės artėja prie susidūrimo: kas įvyks po jo
NAUJAUSI
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.