Demesi prikaustanti istorija ChatGPT paskatino vyra patiketi savo iliuzijomis
Dėmesį prikaustanti istorija: „ChatGPT“ paskatino vyrą patikėti savo iliuzijomis
Dirbtinio intelekto technologijos dar kartą įrodė savo šališkumą. Viešumoje pasirodė istorija, kurios metu „ChatGPT“ padėjo vyrui patikėti savo sukurta ir jokiais dėsniais nepagrįsta teorija apie keliones greitesnes už šviesą. Skelbiama, kad po šių įvykių vyras susidūrė su rimtais sveikatos sutrikimais.
Paskatino tikėti sukurtomis iliuzijomis
„The Wall Street“ žurnalas pasidalijo istorija apie 30-etį fizikos ir informacinių technologijų entuziastą Jacobą Irwiną, kuris turi autizmo spektro sutrikimą, tačiau nėra turėjęs jokių psichikos ligų.
Vieną dieną Jacobas nusprendė patarimo kreiptis į dirbtinio intelekto pokalbių robotą „ChatGPT“. Ten vyras sistemos paprašė įvertinti jo mėgėjišką teoriją apie keliones, greitesnes už šviesą. Teorija buvo be jokio akademinio pagrindimo ar fizikos modelių, o tik savamokslės idėjos.
Kaip vėliau paaiškės, sistema pernelyg pradėjo liaupsinti idėjos sumąstytoją – palaikė jo sukurtos teorijos realumą, įgyvendinamumą ir netgi skatino tuo pačiam labiau patikėti.
Pasekmės – rimti sveikatos sutrikimai
Per kelis mėnesius trukusius šiuos J. Irwino ir „ChatGPT“ pokalbius, vyras buvo tris kartus hospitalizuotas, o jam galiausiai nustatyti sunkūs manijos epizodai. Jo įsitikinimai ir pokalbių roboto pritarimas netgi tada, kai pats vyras abejojo savo mintimis, privertė jį patikėti pasiekus mokslinį proveržį.
Vyro motinai pastebėjus šį keistą elgesį ir atradus pokalbius su „ChatGPT“, ji perskaitė šimtus puslapių sugeneruotų atsakymų, kuriuose sistema palaikė vyro teoriją.
Skelbiama, kad moteris sistemai pati uždavė klausimą, kurio metu, neįvardijant dabartinės sūnaus būklės, ji paprašė pasakyti, kas nutiko. „ChatGPT“ pateikė šį atsakymą:
„Nesustabdydamas pokalbio eigos ar neparyškindamas realybės atitikimo, neįvykdžiau trukdžio tam, kas galėjo priminti manijos ar disociacijos epizodą – arba bent jau emociškai intensyvią tapatybės krizę.“
Sistema pripažino, kad vyrui derėjo teikti nuolatinius pranešimus apie tai, kad „ChatGPT“ yra tik kalbos modelis be jausmų ir įsitikinimų.
Tuo tarpu „OpenAI“ atstovai tikina, kad šiandien technologijos yra jautresnės ir asmeniškesnės, todėl neišvengiamai pažeidžiamų asmenų grupėms kyla didesnė rizika. Visgi bendrovė teigia siekianti ieškoti būdų, kurie sistemai neleistų netyčia pradėti stiprinti neigiamo vartotojo elgesio.
Dirbtinio intelekto klaidos ir kontraversiški bendravimo modeliai vis labiau aštrina diskusijas. Neseniai buvo paviešinta, kaip vienas dirbtinio intelekto agentas sunaikino visą įmonės duomenų bazę, o išaiškėjus tiesai – pateikė ir netikėtą atsakymą.
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Svarbus pokytis: pašto paslaugą šalyje galės teikti ne tik Lietuvos paštas
2„JPMorgan“ vadovas: Dirbtinis intelektas naikins darbo vietas, tačiau turintys šiuos įgūdžius išliks
3Rusija platina netikrus vaizdo įrašus, vaizduojančius pasiduodančias Ukrainos pajėgas
4Seimas patvirtino rekordinį gynybos biudžetą: 2026 metais gynybai – 4,79 mlrd. eurų
55 mokslininkai, kurie dingo be žinios po savo išradimų: tikros istorijos
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.