Atsiradus generatyviniam dirbtiniam intelektui, jo potencialas padidinti su privatumu ir kibernetiniu saugumu susijusius iššūkius tapo dideliu rūpesčiu. Todėl vyriausybinės institucijos ir pramonės ekspertai karštai diskutuoja, kaip reguliuoti dirbtinio intelekto pramonę.
Kur link einame?
Taigi, kur link einame ir kaip gali pasireikšti dirbtinio intelekto ir kibernetinio saugumo susikirtimas?
Žvelgiant į ankstesnių pastangų reguliuoti kibernetinio saugumo rinką per pastaruosius kelis dešimtmečius pamokas, panašių rezultatų pasiekti dirbtinio intelekto srityje yra nelengva perspektyva. Tačiau pokyčiai yra būtini, jei norime sukurti reguliavimo sistemą, kuri apsaugotų nuo neigiamo DI potencialo ir kartu neužkirstų kelio teigiamam DI panaudojimui.
Dalis iššūkių kyla dėl to, kad esama atitikties aplinka jau dabar tampa vis sudėtingesnė. Pavyzdžiui, Jungtinės Karalystės tarptautinėms bendrovėms tenka daug darbo, kad atitiktų tokius reglamentus, kaip GDPR, PSN, DORA ir NIS. Į šį skaičių neįtraukti klientų ar vyriausybės reikalavimai laikytis informacinių standartų, tokių kaip ISO 27001, ISO 22301, ISO 9001 ir „Cyber Essentials“.
Prie to galima pridėti atskirų įmonių nustatytas taisykles, pavyzdžiui, technologijų pardavėjų ir jų klientų atliekamus kibernetinio saugumo auditus. Abiejose situacijose organizacijos nori užduoti konkrečius ir kartais unikalius klausimus, o kai kuriais atvejais reikalauja įrodymų ir įrodymų. Todėl bendra atitikties užtikrinimo užduotis tampa dar labiau niuansuota ir sudėtinga – šiuo metu tikėtina, kad šis iššūkis tik didės.
Savaime suprantama, kad šios taisyklės ir reglamentai yra labai svarbūs siekiant užtikrinti minimalius veiklos standartus ir apsaugoti tiek asmenų, tiek įmonių teises. Tačiau dėl tarptautinio koordinavimo ir vienodo požiūrio trūkumo kyla pavojus, kad atitikties užtikrinimo užduotis gali tapti neįveikiama.
Naujos taisyklės
Pavyzdžiui, šių metų kovo mėn. priimtas ES Dirbtinio intelekto įstatymas, kuriuo siekiama užtikrinti „saugumą ir pagrindinių teisių laikymąsi, kartu skatinant inovacijas“. Jis apima daugybę svarbių kibernetinio saugumo klausimų, pradedant teisėsaugos institucijų taikomais biometrinių atpažinimo sistemų naudojimo apribojimais ir draudimu naudoti socialinį vertinimą ir dirbtinį intelektinį intelektą, naudojamą siekiant manipuliuoti naudotojų pažeidžiamumu ar juo pasinaudoti, ir baigiant vartotojų teisėmis teikti skundus ir gauti prasmingus paaiškinimus.
Už reikalavimų laikymosi pažeidimus gali būti skiriamos didelės baudos – iki 35 mln. eurų arba 7 proc. pasaulinės metinės apyvartos už uždraustas dirbtinio intelekto programas, 15 mln. eurų arba 3 proc. apyvartos už dirbtinio intelekto įstatyme nustatytų pareigų pažeidimus ir 7,5 mln. eurų arba 1,5 proc. apyvartos už neteisingos informacijos pateikimą.
Be to, ja siekiama spręsti kibernetinio saugumo problemas, su kuriomis susiduria dirbtinio intelekto sistemų kūrėjai. 15 straipsnyje teigiama, kad „didelės rizikos dirbtinio intelekto sistemos turi būti atsparios neįgaliotų trečiųjų šalių bandymams pakeisti jų naudojimą, rezultatus ar veikimą pasinaudojant sistemos pažeidžiamumu“.
Nors Jungtinėje Karalystėje ši nuostata taip pat taikoma ES prekiaujančioms organizacijoms, čia taip pat siekiama priimti papildomus teisės aktus, kurie dar labiau lokalizuotų taisykles.
Vasario mėn. JK vyriausybė paskelbė savo atsakymą į konsultacijas dėl Baltosios knygos, kuria siekiama nustatyti dirbtinio intelekto reguliavimo šioje šalyje kryptį, įskaitant kibernetinį saugumą.
Atsižvelgiant į rinkimų rezultatus, dar neaišku, kokia bus tolesnė šio proceso eiga, tačiau, kad ir kas būtų valdžioje, tolesnis reguliavimas neišvengiamas. Kitur teisės aktų leidėjai taip pat vadovaujasi požiūriu į tai, kaip turėtų būti reguliuojamas dirbtinis intelektas, o nuo JAV ir Kanados iki Kinijos, Japonijos ir Indijos sparčiai besikeičiančioje aplinkoje atsiranda naujų taisyklių.
Reguliavimo iššūkiai
Įsigaliojus įvairiems vietos ir regioniniams įstatymams, sudėtingėja ir organizacijų, kuriančių, naudojančių ar saugančių dirbtinio intelekto technologijas, veikla. Praktinių sunkumų kyla nemažai ir dėl to, kad DI sprendimų priėmimo procesai yra neskaidrūs, todėl sunku paaiškinti ar patikrinti, kaip jie buvo priimti, o tai jau yra kai kurių reguliavimo aplinkų reikalavimas.
Kai kurie žmonės taip pat nerimauja, kad griežtas dirbtinio intelekto reguliavimas gali slopinti inovacijas, ypač mažesnėse įmonėse ir atvirojo kodo iniciatyvose, o didesnės suinteresuotosios šalys gali palaikyti reguliavimą, kuriuo siekiama apriboti konkurenciją.
Taip pat spėliojama, kad tokiomis aplinkybėmis dirbtinio intelekto startuoliai gali persikelti į šalis, kuriose taikomi mažesni reguliavimo reikalavimai, o tai gali lemti reguliavimo standartų „lenktynes žemyn“ ir su tuo susijusią saugumo riziką.
Pridėjus faktą, kad dirbtinis intelektas naudoja daug išteklių – tai kelia susirūpinimą dėl tvarumo ir energijos suvartojimo ir gali būti dar labiau prižiūrimas reguliavimo institucijų – gali atrodyti, kad sąrašas tęsiasi ir tęsiasi.
Tačiau galiausiai vienas iš svarbiausių veiksmingo dirbtinio intelekto reguliavimo reikalavimų yra tas, kad vyriausybės, kai tik įmanoma, turėtų bendradarbiauti, kad parengtų vieningus ir nuoseklius reglamentus. Pavyzdžiui, galiojantys privatumo įstatymai ir nuostatos skiriasi priklausomai nuo regiono, tačiau pagrindiniai saugumo principai turėtų išlikti tokie patys.
Jei šie klausimai nebus sprendžiami, labiau tikėtina, kad matysime organizacijas, nuolat pažeidinėjančias taisykles, ir, kas taip pat kelia nerimą, atsiras su dirbtiniu intelektu susijusių kibernetinio saugumo spragų, kuriomis grėsmių sukėlėjai bus pernelyg pasirengę pasinaudoti.