„NASA“ skelbia, kad atlikto tyrimo metu nustatyta, kad dar negalima pasikliauti generatyviuoju dirbtiniu intelektu, kai jis naudojamas kritiniams tyrimams.
Pateiktos išvados
Dirbtinio intelekto sprendimai vis plačiau taikomi beveik visose industrijose. Kiekvienai jų ši pažangi technologija gali pasiūlyti išskirtinius ir efektyvius sprendimus, kurie keičia darbo pobūdį.
Susidomėjimas didelių kalbų modelių („LLM“) galimybėmis vyksta ir dėl jos integravimo bei sertifikavimo galimybių kuriant sudėtingas sistemas astronomijoje, pavyzdžiui, transporto industrijoje – orlaivių gamyboje.
Kovo mėnesį „NASA“ pristatė atlikto tyrimo ataskaitą, kurioje buvo nagrinėjamos dirbtinio intelekto galimybės, jį pasitelkiant tyrimų procesuose, t. y. ar jis būtų tinkamas vertinant ir užtikrinant kuriamas saugumo sistemas.
Ataskaitoje teigiama:
„Vertinimo tikslas buvo atsijoti sistemas, kurios kelia nepriimtiną riziką. Lygiai taip pat, kaip mes neišleistume į naudojimą sistemos, kuri gali kelti mirtiną pavojų, neatlikę tinkamos saugumo analizės ir inžinierinių saugumo veiklų, neturėtume įtraukti technologijos į reguliavimo procesą be pagrįstos priežasties manyti, kad ji tinkama naudoti kritinėse saugos inžinerijos ir sertifikavimo veiklose.“
Kelia abejonių
„NASA“ teigia, kad generatyvaus dirbtinio intelekto modeliai negali būti patikimai naudojami tokiuose svarbiuose šios srities tyrimuose, kadangi jie vis dar pasižymi polinkiu generuoti klaidingą ir netgi išgalvotą informaciją.
Atskaitoje teigiama:
„Yra pagrindo abejoti „LLM“ tinkamumu rengti ar tikrinti patikinimo argumentus („AA“). „LLM“ yra mašinos, kurios pateikia beprasmiškus atsakymus, o ne mąsto, o būtent mąstymas yra tas uždavinys, kurį būtina automatizuoti, jei technologija iš tiesų turėtų pagerinti saugumą ar sumažinti kaštus.“
Svarbus dėmesys krypsta į „haliucinacijas“ – ši technologija gali pateikti itin netikslius iš išgalvotus atsakymus. Kosmoso tyrimuose tai gali būti didžiulės klaidos lemiančios nuostolius ir žalą.
Potencialo yra
Visgi „NASA“ pripažįsta, kad ateityje tokių technologijų naudojimas gali būti įmanomas, tačiau bus reikalingos griežtos patikrinimo sistemos ir būtinybė sukurti rizikos valdymo protokolus.
Tai ne pirmasis atvejis, kuris tiria ne tik dirbtinio intelekto galimybes, bet ir jo apribojimus. Dar anksčiau Kolumbijos „Tow“ skaitmeninės žurnalistikos centro atliktas tyrimas nustatė, kad „ChatGPT“ dalyje atvejų neteisingai pateikia leidiniuose nurodomą informaciją.