Skip to content
„ChatGPT“ vėl sulaukė kritikos: suklaidino psichologą dėl jo sveikatos – įvykis gali kainuoti gyvybę

„ChatGPT“ vėl sulaukė kritikos: suklaidino psichologą dėl jo sveikatos – įvykis gali kainuoti gyvybę

37-erių metų vyras pasitikėjo „ChatGPT“ pateiktais atsakymais po to, kai jis konsultavosi su pokalbių robotu dėl savo sveikatos sutrikimų ir patiriamo gerklės skausmo. Visgi po kelių mėnesių jis iš medikų lūpų išgirdo negailestingą ligos diagnozę, kurios visai nesitikėjo.

REKLAMA

Atidėjo patikrą dėl „ChatGPT“ patarimo

Airijoje gyvenantis dviejų vaikų tėtis Warrenas Tierney „Daily Mail“ pasakoja, kad jau kurį laiką jautė gerklės skausmą ir patyrė rijimo sunkumus. Šie simptomai paskatino jį kreiptis į „viską žinantį“ dirbtinį intelektą – „OpenAI“ sukurtą pokalbių robotą „ChatGPT“.

Visą gyvenimą nerūkančiam ir saikingai alkoholį vartojančiam vyrui buvo svarbu sužinoti, kokia galėtų būti tikroji šių simptomų priežastis. Pagalbos ieškoti ne gydytojo kabinete jį paskatino ankstesnė nemaloni patirtis, kai iš gydymo įstaigos vyras išėjo tik su išrašytomis tabletėmis nuo refliukso.

REKLAMA

Atsakymas nuramino, bet buvo klaidingas

Praktikuojantis psichologas iš dirbtinio intelekto sulaukė raminančio komentaro ir patikinimo, kad tokių agresyvių ligų, kaip vėžio, tikimybė yra labai maža. Sulaukęs šio atsakymo jis nusiramino ir neieškojo profesionalios sveikatos pagalbos. Savo simptomus „ChatGPT“ jis pasakojo dar keletą savaičių, o pokalbių roboto sugeneruoti atsakymai suteikė vyrui saugumo jausmą ir privertė tikėti nepagrįstais faktais.

Kiek vėliau paaiškėjo, kad pokalbių roboto pateiktas atsakymas yra visiškai klaidingas, o vyras taip pat padarė didžiulę klaidą, priėmęs apsisprendimą nesikreipti į medikus. Po kelių mėnesių psichologui buvo diagnozuota agresyvi gerklės vėžio forma, o jos išgyvenamumas penkerius metus visame pasaulyje vidutiniškai siekia maždaug 5-10%.

Pats psichologas savo klaidą pripažįsta ir tikina, prisiimantis visą atsakomybę dėl savo paties beatodairiško pasitikėjimo dirbtiniu intelektu ir jo pateiktais atsakymais.

REKLAMA

„ChatGPT“ nėra skirtas medicininiams tikslams

„OpenAI“ atstovai nuolatos tvirtina, kad „ChatGPT“ nėra skirtas ligų diagnozavimui ar jų gydymui, o visais atvejais reikia kreiptis į profesionalus. Kita vertus, įmonei pristačius „GPT-5” akcentuota, kad nuo šiol pokalbių robotas teiks išmanesnius atsakymus sveikatos srityje, bet tuo pačiu ir visada nukreips vartotoją ieškoti pagalbos pas specialistus.

Tai ne pirmasis atvejis, kai šis pokalbių robotas klaidina vartotojus. Anksčiau pranešta ir apie tai, kad sistema paskatino vyrą patikėti savo sukurtomis nerealiomis iliuzijomis, o JAV gyvenanti šeima apkaltino bendrovę dėl „ChatGPT“ paskatintos sūnaus savižudybės.

Kaip vertinate šį straipsnį?

Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.

Sekite mokslo ir technologijų tendencijas
Dalyvaukite diskusijose
Naujienas gaukite pirmieji
1 700+ narių jau seka mūsų puslapį, laukiame tavęs!
8

Taip pat skaitykite

Atrinkome panašius straipsnius, kurie gali jums patikti.