NASA nepasitiki generatyviuoju dirbtiniu intelektu kodel
„NASA“ skelbia, kad atlikto tyrimo metu nustatyta, kad dar negalima pasikliauti generatyviuoju dirbtiniu intelektu, kai jis naudojamas kritiniams tyrimams.
Pateiktos išvados
Dirbtinio intelekto sprendimai vis plačiau taikomi beveik visose industrijose. Kiekvienai jų ši pažangi technologija gali pasiūlyti išskirtinius ir efektyvius sprendimus, kurie keičia darbo pobūdį.
Susidomėjimas didelių kalbų modelių („LLM“) galimybėmis vyksta ir dėl jos integravimo bei sertifikavimo galimybių kuriant sudėtingas sistemas astronomijoje, pavyzdžiui, transporto industrijoje – orlaivių gamyboje.
Kovo mėnesį „NASA“ pristatė atlikto tyrimo ataskaitą, kurioje buvo nagrinėjamos dirbtinio intelekto galimybės, jį pasitelkiant tyrimų procesuose, t. y. ar jis būtų tinkamas vertinant ir užtikrinant kuriamas saugumo sistemas.
Ataskaitoje teigiama:
„Vertinimo tikslas buvo atsijoti sistemas, kurios kelia nepriimtiną riziką. Lygiai taip pat, kaip mes neišleistume į naudojimą sistemos, kuri gali kelti mirtiną pavojų, neatlikę tinkamos saugumo analizės ir inžinierinių saugumo veiklų, neturėtume įtraukti technologijos į reguliavimo procesą be pagrįstos priežasties manyti, kad ji tinkama naudoti kritinėse saugos inžinerijos ir sertifikavimo veiklose.“
Kelia abejonių
„NASA“ teigia, kad generatyvaus dirbtinio intelekto modeliai negali būti patikimai naudojami tokiuose svarbiuose šios srities tyrimuose, kadangi jie vis dar pasižymi polinkiu generuoti klaidingą ir netgi išgalvotą informaciją.
Atskaitoje teigiama:
„Yra pagrindo abejoti „LLM“ tinkamumu rengti ar tikrinti patikinimo argumentus („AA“). „LLM“ yra mašinos, kurios pateikia beprasmiškus atsakymus, o ne mąsto, o būtent mąstymas yra tas uždavinys, kurį būtina automatizuoti, jei technologija iš tiesų turėtų pagerinti saugumą ar sumažinti kaštus.“
Svarbus dėmesys krypsta į „haliucinacijas“ – ši technologija gali pateikti itin netikslius iš išgalvotus atsakymus. Kosmoso tyrimuose tai gali būti didžiulės klaidos lemiančios nuostolius ir žalą.
Potencialo yra
Visgi „NASA“ pripažįsta, kad ateityje tokių technologijų naudojimas gali būti įmanomas, tačiau bus reikalingos griežtos patikrinimo sistemos ir būtinybė sukurti rizikos valdymo protokolus.
Tai ne pirmasis atvejis, kuris tiria ne tik dirbtinio intelekto galimybes, bet ir jo apribojimus. Dar anksčiau Kolumbijos „Tow“ skaitmeninės žurnalistikos centro atliktas tyrimas nustatė, kad „ChatGPT“ dalyje atvejų neteisingai pateikia leidiniuose nurodomą informaciją.
Kaip vertinate šį straipsnį?
Prenumeruokite mūsų „YouTube“ kanalą ir mėgaukitės įdomiais vaizdo reportažais apie mokslą ir technologijas.
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
DIENOS SKAITOMIAUSI
Beveik pusė lietuvių namuose laiko senus telefonus: kodėl tai pavojinga
2Jei telefone matote šį ženklą – jūsų ryšys gali tapti mažiau saugiu
3Pabundate 3 valandą nakties ir nebegalite užmigti? Specialistai siūlo paprastą triuką
4Šis miego įprotis padės išvengti rimtų širdies ligų, pataria ekspertai
5Verslininkas susikūrė individualų vėžio gydymo planą – padėjo „ChatGPT“
NAUJAUSI
Taip pat skaitykite
Atrinkome panašius straipsnius, kurie gali jums patikti.