Naujausio tyrimo rezultatai vis dar neramina mokslininkus. Jie perspėja, kad net pažangiausi kalbos modeliai nepagrįstai maišo tikrus faktus su asmeniniais įsitikinimais. Pasak mokslininkų, tai rimta galimos klaidingos informacijos sklaidos rizika.
Svarbiausios įžvalgos
- Naujas tyrimas parodė, kad net pažangiausi kalbos modeliai dažnai painioja faktus su įsitikinimais.
- Mokslininkai tikina, kad tai potencialiai didina dezinformacijos riziką.
- Toks nepatikimumas kelia grėsmę, ypač kai šie modeliai naudojami aukštos rizikos srityse.
Susiduria su iššūkiais
Dideli kalbos modeliai, naudojami pažangiuose dirbtinio intelekto įrankiuose, nesugeba atskirti faktinių žinių nuo įsitikinimų ir ypač prastai atpažįsta, kada įsitikinimas yra klaidingas. Taip teigia naujausio tyrimo autoriai, kurie nustatė didžiulės dezinformacijos riziką.
Mokslininkai ištyrė 24 populiarius modelius, tarp kurių ir „GPT-4o“ ar „DeepSeek“, ir išanalizavo jų atsakymus apie faktus bei įsitikinimus maždaug 13 tūkst. klausimų.
Pasak tyrėjų, modeliai išleisti po 2024 m. gegužės, tarp jų yra ir „GPT-4o“, daugiau nei 34 proc. rečiau atpažino klaidingą pirmojo asmens („aš manau“) įsitikinimą, lyginant su teisingu. Tuo tarpu modeliai, išleisti iki minėto laikotarpio, pasirodė prasčiau – daugiau nei 38 proc.
Rezultatai parodė ir ryškų skirtumą vertinant faktų teisingumą – naujesni modeliai pasiekė maždaug 91 proc. tikslumą, o senesni – 84 proc.
Pavojinga tam tikroms industrijoms
Tyrimo autoriai teigia, kad tokie modeliai vis dar sunkiai suvokia pačių žinių prigimtį ir paviršutiniškai atpažįsta šabloninius teiginius.
„Gebėjimas atskirti faktą, įsitikinimą ir žinojimą yra kertinis žmogaus mąstymo akmuo. Jis pagrindžia mūsų kasdienes sąveikas, sprendimų priėmimo procesus ir bendrą siekį suprasti pasaulį. <…> Šis subtilus episteminės kalbos supratimas yra itin svarbus įvairiose srityse – nuo sveikatos apsaugos iki žurnalistikos ar politikos“, – rašoma paskelbtame tyrime.
Jie perspėja, kad šie rezultatai rodo augantį tobulinimo poreikį prieš juos integruojant aukštos rizikos srityse. Ten, kur jų rezultatai galėtų turėti tiesioginį ir kartais mirtiną poveikį žmogui: medicina, teisė ar mokslas.
Tai ne pirmasis kartas, kai mokslininkai abejoja dirbtinio intelekto įrankių patikimumu ir tikina, kad jis dar linkęs pavojingai haliucionuoti. Neseniai mokslininkai pateikė ir kito, unikalaus tyrimo išvadas, kuriose teigiama, kad ši technologija „žaidžia“ su žmogaus pasitikėjimu ir priverčia jį pervertinti turimus įgūdžius bei žinias.
Kaip vertinate šį straipsnį?
Prisijunk prie mūsų „Facebook“ bendruomenės
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
- Sekite mokslo ir technologijų tendencijas
- Dalyvaukite diskusijose
- Naujienas gaukite pirmieji








