Naujas tyrimas atskleidė, kad tėvai mano, jog dirbtinio intelekto sukurtas tekstas yra patikimas, vertas pasitikėjimo ir moralus, todėl jie „ChatGPT“ pasitiki labiau nei tikrais gydytojais.
„Kai pradėjome šį tyrimą, tai buvo iškart po to, kai „ChatGPT“ pirmą kartą pradėjo veikti – nerimavome dėl to, kaip tėvai naudosis šiuo nauju, paprastu būdu rinkti informaciją apie savo vaikų sveikatą.
Tėvai dažnai kreipiasi į internetą ieškodami patarimų, todėl norėjome suprasti, kaip atrodys naudojimasis „ChatGPT“ ir dėl ko turėtume nerimauti.“ – teigė pagrindinė autorė ir doktorantūros studentė Calissa Leslie-Miller.
Kaip vyko tyrimas?
Kad padarytų šias išvadas, Leslie-Miller ir jos kolegos iš Kanzaso universiteto atliko tyrimą, kuriame dalyvavo 116 tėvų, kurių amžius buvo nuo 18 iki 65 metų.
Dalyviams buvo pateikiami su sveikata susiję tekstai, peržiūrimas sveikatos priežiūros specialistų ir „OpenAI“ pokalbių roboto „ChatGPT“ sukurtas turinys.
Jiems nebuvo pasakyta, kas ir ko yra tekstų autoriai. Jų buvo paprašyta įvertinti tekstus pagal penkis kriterijus – suvokiamą moralumą, patikimumą, kompetenciją, tikslumą ir tai, kiek tikėtina, kad jie pasikliautų informacija.
Daugeliu atvejų tėvai negalėjo pasakyti, kurį turinį sukūrė „ChatGPT“, o kurį – ekspertai. Kai vertinimai reikšmingai skyrėsi, „ChatGPT“ buvo vertinama kaip tikslesnė ir patikimesnė už ekspertų sukurtą turinį.
„Šis rezultatas mus nustebino, ypač dėl to, kad tyrimas buvo atliktas „ChatGPT“ naudojimo pradžioje.
Pradedame pastebėti, kad dirbtinis intelektas integruojamas būdais, kurie gali būti ne iš karto akivaizdūs, ir žmonės gali net neatpažinti, kada jie skaito dirbtinio intelekto sukurtą tekstą, o kada – ekspertų turinį.“ – pasakojo Leslie-Miller.
Programa „ChatGPT“ buvo išleista 2022 m. lapkričio mėn. Ketvirtadienį „OpenAI“ paskelbė, kad į savo programų rinkinį įtraukė paieškos variklį, vadinamą „ChatGPT Search“. Šiuo metu „ChatGPT“ turi daugiau nei 250 mln. aktyvių mėnesio naudotojų.
Dirbtinio intelekto įrankiais reikia naudotis atsargiai
Nors „ChatGPT“ gerai veikia daugelyje scenarijų ir galėtų būti naudingas įrankis, dirbtinio intelekto modelis gali pateikti neteisingą informaciją. Jis nėra ekspertas. Naudotojai turi elgtis atsargiai.
„Tyrimo metu kai kuriose ankstyvose dirbtinio intelekto išvesties iteracijose buvo pateikta neteisinga informacija.
Tai kelia nerimą, nes, kaip žinome, tokios dirbtinio intelekto priemonės kaip „ChatGPT“ yra linkusios į „haliucinacijas“ – klaidas, kurios atsiranda, kai sistemai trūksta pakankamo konteksto.“ – sakė Leslie-Miller.
Leslie-Miller taip pat pridūrė, kad vaikų sveikatos srityje, kur pasekmės gali būti labai rimtos, labai svarbu spręsti šią problemą. Mokslininkai nerimauja, kad žmonės vis dažniau gali pasikliauti dirbtinio intelekto patarimais sveikatos klausimais be tinkamos ekspertų priežiūros.