Skip to content
Mokslininkai perspėja: daugiau nei pusė DI sveikatos patarimų – klaidingi

Gydytojas su stetoskopu ant kaklo. Šaltinis: TechNaujienos

Mokslininkai perspėja: daugiau nei pusė DI sveikatos patarimų – klaidingi

TRUMPAI

  • • Oksfordo tyrimas parodė, kad realiose situacijose daugiau nei pusė DI sveikatos sprendimų būna netikslūs.
  • • Laboratorinis modelių tikslumas smarkiai skiriasi nuo jų veikimo kasdienėse vartotojų sąveikose.
  • • Mokslininkai įspėja, kad pasitikėjimas DI sprendžiant sveikatos klausimus gali turėti rimtų pasekmių.
REKLAMA

Naujas mokslinis tyrimas parodė, kad dirbtinio intelekto (DI) pokalbių robotai, naudojami sprendžiant sveikatos klausimus, realiose situacijose dažnai pateikia neteisingus ar klaidinančius atsakymus. Vasario 9 d. Oksfordo mokslininkų paviešintuose rezultatuose matyti, kad praktikoje tai sudaro daugiau nei pusę visų atvejų.

Testavo DI modelius

Atliktame tyrime, paskelbtame „Nature Medicine“, dalyvavo 1 300 žmonių, kurie turėjo skirtingas medicinines situacijas ir įvairiais būdais – DI modelių pagalba, tradicine paieška ar spręsdami savarankiškai, aiškinosi galimą diagnozę ir reikiamo gydymo ypatumus.

Oksfordo mokslininkų atlikto tyrimo rezultatuose matyti, kad nors laboratoriniuose testuose tie patys modeliai demonstravo labai aukštą teorinį tikslumą – kai kuriais atvejais virš 90 proc., realiose vartotojų sąveikose rezultatai buvo gerokai prastesni. Teisinga diagnozė buvo nustatyta tik apie 34 proc. atvejų, o tinkama rekomendacija dėl veiksmų – apie 44 proc. atvejų.

REKLAMA

Tai reiškia, kad daugiau nei pusė sprendimų buvo netikslūs arba klaidingi ir jie nepranoksta tradicinių paieškos metodų.

„Nepaisant viso ažiotažo, dirbtinis intelektas dar nėra pasirengęs perimti gydytojo vaidmens. Pacientai turi suprasti, kad klausimų apie savo simptomus uždavimas didiesiems kalbos modeliams gali būti pavojingas – tai gali lemti neteisingas diagnozes ir nesugebėjimą atpažinti, kada reikalinga skubi pagalba,“ – rezultatus aptarė prie tyrimo prisidėjusi dr. Rebecca Payne.

Kas lemia rezultatų skirtumą

Pasak tyrėjų, pagrindinė problema slypi ne vien pačiuose DI modeliuose, bet ir žmogaus bei sistemos sąveikoje. Laboratoriniuose testuose modeliai gauna aiškiai suformuluotus, struktūruotus klausimus su pakankamu kontekstu, tačiau realiame gyvenime pokalbiai vyksta kitaip – žmonės simptomus aprašo fragmentiškai, ne visada tiksliai ar nuosekliai.

REKLAMA

Tyrimo autoriai pažymi, kad naudotojai dažnai nepateikia visos svarbios medicininės informacijos, kuri būtina tikslesnei analizei. Be to, dalis žmonių klaidingai interpretuoja DI pateiktus atsakymus arba pasirenka tik tas rekomendacijas, kurios jiems atrodo priimtinos. Tai didina netikslių sprendimų tikimybę.

Įrenginio ekrane atidaryta „ChatGPT“ svetainė su aktyvia paieškos funkcija. Šaltinis: TechNaujienos / Shutterstock

Dar viena svarbi problema – perteklinis pasitikėjimas. Dalyviai buvo linkę manyti, kad DI atsakymai yra autoritetingi ir patikimi, net jei jie buvo pernelyg bendro pobūdžio ar nepakankamai konkretūs individualios situacijos kontekste.

Pasitikėjimas lemia skaudžias pasekmes

Aktyvus pokalbių robotų naudojimas, kaip „ChatGPT“, jau ne vieną kartą įrodė, kad yra ne tik pozityvios naudos, bet ir nemažai neigiamų pasekmių. Kaip anksčiau aptarėme TechNaujienos.lt, „ChatGPT“ sukūrusi bendrovė jau turi 11 ieškinių, susijusių su kaltinimais prisidedant prie vartotojų psichikos sveikatos sutrikimų.

Nepaisant to, sveikatos srityje DI sprendimai ir toliau testuojami – nuo to, kad algoritmai žmogui miegant gali nustatyti dešimtis ligų iki paties „ChatGPT“ neseniai pristačiusio atskirą funkciją pokalbiams apie sveikatą.

Kaip vertinate šį straipsnį?

NAUJIENOS IŠ INTERNETO

Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.

Sekite mokslo ir technologijų tendencijas
Dalyvaukite diskusijose
Naujienas gaukite pirmieji
1 700+ narių jau seka mūsų puslapį, laukiame tavęs!
10

Taip pat skaitykite

Atrinkome panašius straipsnius, kurie gali jums patikti.