Dirbtinis intelektas suteikdamas didžiules galimybes atsineša ir rizikas, kurios tampa pažangių sprendimų kaina. Tuo tarpu „OpenAI“ atskleidžia kompromituojantį faktą – nors duomenų saugumą užtikrina ir pokalbių neseka, bet gali identifikuoti „ChatGPT“ susirašinėjimus kenksmingais tikslais, kurių per pastaruosius metus buvo 40.
Stebi saugumo tikslais
Technologijų skeptikai ir saugumu susirūpinę asmenys visada pataria naudojant pokalbių robotą nesuteikti prieigos jam naudoti duomenis dirbtiniam intelektui apmokyti – taip jūsų susirašinėjimai analizuojami nebus. Nepaisant šių galimybių ir privatumo apsaugos priemonių, tokios įmonės kaip „OpenAI“ stebi pokalbius nacionalinio saugumo tikslais.
Jos naudoja automatinius įrankius ir žmonių atliekamą peržiūrą, kad užkirstų kelią netinkamam „ChatGPT“ naudojimui. Tai apima sritis, kurios gali pakenkti kitiems žmonėms, įskaitant masinio šnipinėjimo planus, kenkėjiškas programas ir kt.
Per metus aptiko 40
„OpenAI“ susirūpinimo saugumu neslepia, o viešai pateikė ir ataskaitą, kurioje tikina, kad jos sukurta sistema aptiko ir sustabdė keletą dešimčių piktavališkiems tikslams naudotų dirbtinio intelekto atvejų.
Buvo aptikta kiek daugiau nei 40 pavojingų tinklų, kurie pažeidinėjo pokalbių roboto privatumo politiką. Tarp nustatytų asmenų buvo tų, kurie rėmėsi autoritariškais režimais, siekiantys kontroliuoti savo gyventojus ar daryti spaudimą kitoms valstybėms, taip pat sukčiavimo atvejai ar kenksminga kibernetinė veikla.
Konkretūs pavyzdžiai apima keletą aukšto lygio grėsmių. Tarp jų yra organizuoto nusikalstamumo tinklas Kambodžoje, bandęs pasitelkti „ChatGPT“ ir supaprastinti savo operacijas.
Taip pat Rusijos politinės įtakos aferos, kuriose ji bandė naudoti „ChatGPT“ kuriant užklausas trečiųjų šalių dirbtinio intelekto vaizdo generavimo modeliams, kad skleistų propagandą bei kenkėjišką programinę įrangą.
Buvo aptiktos ir paskyros susijusios su Kinijos vyriausybe, kurios siekė pagalbos kuriant sistemas, skirtas stebėti socialinių tinklų pokalbius.
Sistema dar nėra pakankamai patikima
„OpenAI“ paskelbtoje ataskaitoje dėmesį sutelkė į kenkėjišką veiklą, tačiau neįtraukė itin liūdnų savižudybės atvejų. Sukurtos apsaugos sistemos patikimumas dar kritiškai vertinamas, kai ši nesugebėjo užkirsti, o „ChatGPT“ kaip tik padėjo paaugliui nusižudyti.
Nors „OpenAI“ į kaltinimus reaguoja dviprasmiškai – pripažįsta modelio silpnybes, tačiau teigia, kad apsaugos priemonių imasi, bet jos dar nepakankamos. Atsižvelgiant į tai, įmonė jau ėmėsi jos stiprinimo iniciatyvų tobulindami modelio atsakymus, kai kalbama apie savižudybę, taip pat pristatė kontrolės funkciją tėvams.
„OpenAI“ primena, kad šis stebėjimas nenukreiptas į kiekvieno vartotojo privatumo pažeidimą, o yra skirtas aptikti grėsmes ir užtikrinti visuomenės saugumą nuo neteisėto dirbtinio intelekto naudojimo.
Tuo tarpu Rusija dirbtinį intelektą pasitelkia ir pramogų pasaulyje. Kviečiame skaityti: Rusijoje – pirmoji pasaulyje dirbtinio intelekto sukurta satyrinė laida su pasaulio lyderiais
Kaip vertinate šį straipsnį?
Prisijunk prie mūsų „Facebook“ bendruomenės
Trumpai, aiškiai ir be triukšmo – gaukite svarbiausias technologijų ir mokslo naujienas pirmieji.
- Sekite mokslo ir technologijų tendencijas
- Dalyvaukite diskusijose
- Naujienas gaukite pirmieji











