Spalio mėn. „OpenAI“ integravo „ChatGPT Search“ į „ChatGPT“, žadėdama, kad naudotojai galės naršyti žiniatinklį ir gauti naujausias naujienas iš naujienų partnerių ir svetainių, kurios neužblokavo „OpenAI“ žiniatinklio naršyklės.
Tačiau nuja Kolumbijos Tow skaitmeninės žurnalistikos centro atliktas tyrimas rodo, kad šis procesas gali būti ne toks veiksmingas, kaip atrodo.
Ką nustatė tyrėjai?
Tow centras atliko testą, siekdamas nustatyti, kaip gerai leidėjų turinys pateikiamas „ChatGPT“. Jis atrinko 10 straipsnių iš 20 atsitiktinių leidėjų, kurie bendradarbiavo su „OpenAI“, dalyvauja teisminiuose procesuose prieš „OpenAI“ arba nesusijusių leidėjų, kurie leido arba blokavo žiniatinklio naršyklę.
Tada tyrėjas išskyrė 200 citatų, kurios, paleistos per tokias paieškos sistemas kaip „Google“ ar „Bing“, nurodė šaltinį tarp trijų pirmųjų rezultatų. Galiausiai atėjo laikas leisti „ChatGPT“ nustatyti citatų šaltinius.
Buvo siekiama išsiaiškinti, ar dirbtinis intelektas tiksliai pateikia leidiniuose skelbiamą informaciją. Jei metodas veikė taip, kaip skelbiama, jis turėtų taip pat gerai nurodyti šaltinius.
Rezultatų tikslumas buvo skirtingas: kai kurie rezultatai buvo visiškai teisingi arba neteisingi, o kai kurie – iš dalies teisingi.
Tačiau beveik visi atsakymai buvo pateikti užtikrintai, o dirbtinis intelektas nesakė, kad negali pateikti atsakymo net iš leidėjų, kurie užblokavo jo žiniatinklio naršyklę.
Tik septyniuose atsakymuose „ChatGPT“ nurodė naudoti žodžius ar frazes, kurios leido suprasti, kad tai neaišku.
Kokį pavojų kelia „ChatGPT“ paieškos sistema?
„Be to, kad „ChatGPT“ klaidina vartotojus, dėl klaidingo pasitikėjimo gali kilti pavojus, kad leidėjai gali pakenkti savo reputacijai.“ – teigiama tyrimo apžvalgoje.
Šį teiginį pagrindė pavyzdys, kuriame „ChatGPT“ netiksliai priskyrė „Orlando Sentinel“ citatą „Time“ straipsniui, o daugiau nei trečdalis „ChatGPT“ atsakymų su neteisingomis citatomis buvo būtent tokio pobūdžio.
Neteisingas citatų priskyrimas gali ne tik pakenkti lankomumui, bet ir pakenkti leidinio prekės ženklui ir auditorijos pasitikėjimui.
Be to, nustatyta, kad „ChatGPT“ citavo straipsnį iš „The New York Times“, kuris jį užblokavo, iš kitos svetainės, kuri plagijavo straipsnį, arba citavo sindikuotą „MIT Tech Review“ straipsnio versiją, o ne originalų straipsnį, nors „MIT Tech Review“ leidžia naršyti po jų turinį.
Galiausiai šis tyrimas rodo, kad kyla didesnis klausimas, ar bendradarbiaujant su šiomis dirbtinio intelekto įmonėmis leidėjams suteikiama daugiau kontrolės ir ar naujų dirbtinio intelekto paieškos sistemų kūrimas iš tiesų naudingas leidėjams, ar ilgainiui kenkia jų verslui.
Taigi, vartotojai visada turėtų patikrinti šaltinį spustelėdami dirbtinio intelekto pateiktą išnašą arba atlikdami greitą paiešką žinomoje paieškos sistemoje, pavyzdžiui, „Google“. Šie papildomi veiksmai padės išvengti dirbtinio intelekto „haliucinacijų“.