Dirbtinio intelekto įrankiai slapta mokomi pagal tikras vaikų nuotraukas

Dirbtinio intelekto irankiai slapta mokomi pagal tikras vaiku nuotraukas

Dirbtinio intelekto įrankiai slapta mokomi pagal tikras vaikų nuotraukas

Pirmadienį paskelbtoje naujoje „Human Rights Watch“ ataskaitoje teigiama, kad daugiau kaip 170 Brazilijos vaikų atvaizdų ir asmeninių duomenų buvo paimti iš atviro duomenų rinkinio be jų žinios ar sutikimo ir naudojami dirbtiniam intelektui mokyti.

Kas teigiama ataskaitoje?

Ataskaitoje teigiama, kad vaizdai buvo paimti iš turinio, paskelbto ne anksčiau kaip 2023 m. ir dar dešimtojo dešimtmečio viduryje, t. y. gerokai anksčiau, nei bet kuris interneto naudotojas galėjo numanyti, kad jo turinys gali būti naudojamas dirbtiniam intelektui mokyti.

Žmogaus teisių stebėjimo organizacija teigia, kad šių vaikų asmeniniai duomenys ir URL nuorodos į jų nuotraukas buvo įtraukti į LAION-5B – duomenų rinkinį, kuris buvo populiarus dirbtinio intelekto startuolių mokymo duomenų šaltinis.

„Jų privatumas pažeidžiamas pirmiausia tada, kai jų nuotraukos iškerpamos ir įtraukiamos į šiuos duomenų rinkinius. O paskui šie dirbtinio intelekto įrankiai apmokomi pagal šiuos duomenis, todėl gali sukurti tikroviškus vaikų atvaizdus“, – sako „Human Rights Watch“ vaikų teisių ir technologijų tyrėja Hye Jung Han ir šias nuotraukas radusi tyrėja.

„Technologija sukurta taip, kad bet kuriam vaikui, kuris turi bet kokią savo nuotrauką ar vaizdo įrašą internete, dabar gresia pavojus, nes bet kuris piktavalis gali paimti tą nuotrauką, o paskui pasinaudoti šiais įrankiais ir manipuliuoti ja kaip tik nori.“

LAION-5B pagrįstas „Common Crawl“ duomenų saugykla ir buvo naudojamas keliems dirbtinio intelekto modeliams, įskaitant „Stability AI“ sukurtą stabilios difuzijos vaizdų generavimo įrankį, apmokyti.

Vokietijos ne pelno siekiančios organizacijos LAION sukurtas duomenų rinkinys yra atvirai prieinamas ir, kaip teigiama jo svetainėje, dabar apima daugiau nei 5,85 mlrd. vaizdų ir antraščių porų.

Tyrėjų rasti vaikų atvaizdai buvo iš mamų tinklaraščių ir kitų asmeninių, motinystės ar tėvystės tinklaraščių, taip pat kadrai iš „YouTube“ vaizdo įrašų su nedideliu peržiūrų skaičiumi, matyt, įkeltų tam, kad jais būtų galima pasidalyti su šeima ir draugais.

„Žiūrint tik į kontekstą, kur jie buvo patalpinti, galima teigti, kad jie tikėjosi privatumo ir jo užtikrinimo“, – sako M. Hye. „Daugumos šių vaizdų nebuvo įmanoma rasti internete atliekant atvirkštinę vaizdų paiešką.“

Organizacija jau ėmėsi veiksmų

LAION atstovas spaudai Nate’as Tyleris sako, kad organizacija jau ėmėsi veiksmų. LAION-5B buvo pašalinta reaguojant į Stanfordo ataskaitą, kurioje nustatyta, kad duomenų rinkinyje yra nuorodų į neteisėtą turinį viešajame internete.

Šiuo metu organizacija bendradarbiauja su „Internet Watch Foundation“, Kanados vaikų apsaugos centru, Stanfordu ir Žmogaus teisių stebėjimo organizacija, kad pašalintų visas žinomas nuorodas į neteisėtą turinį.

„YouTube“ paslaugų teikimo sąlygose neleidžiama naudoti informacijos, išskyrus tam tikras aplinkybes; atrodo, kad šie atvejai prieštarauja šioms taisyklėms.

„Mes aiškiai nurodėme, kad neteisėtas „YouTube“ turinio nuskaitymas yra mūsų paslaugų teikimo sąlygų pažeidimas“, – sako „YouTube“ atstovas spaudai Jackas Maonas, – ir toliau imamės veiksmų prieš tokio pobūdžio piktnaudžiavimą.“

DI mokymo duomenyse buvo seksualinės prievartos prieš vaikus medžiagos

Gruodžio mėnesį Stanfordo universiteto mokslininkai nustatė, kad LAION-5B surinktuose dirbtinio intelekto mokymo duomenyse buvo seksualinės prievartos prieš vaikus medžiagos.

Aiškių giluminių klastočių problema didėja net tarp mokinių JAV mokyklose, kur jomis naudojamasi tyčiojantis iš bendraklasių, ypač mergaičių. Hye nerimauja, kad, be to, kad CSAM generuoti naudojamos vaikų nuotraukos, duomenų bazėje gali būti atskleista ne tik galimai neskelbtina informacija, pavyzdžiui, buvimo vietos ar medicininiai duomenys.

2022 m. JAV gyvenanti menininkė LAION duomenų rinkinyje rado savo pačios atvaizdą ir suprato, kad jis yra iš jos privačių medicininių įrašų.

„Vaikai neturėtų bijoti, kad jų nuotraukos gali būti pavogtos ir panaudotos prieš juos“, – sako Hye.

Ji nerimauja, kad tai, ką jai pavyko rasti, yra tik pradžia. Ji sako, kad tai buvo „mažytė dalis“ duomenų, kuriuos nagrinėjo jos komanda – mažiau nei 0,0001 proc. visų LAION-5B esančių duomenų. Ji įtaria, kad tikėtina, jog panašūs vaizdai į duomenų rinkinį galėjo patekti iš viso pasaulio.

Praėjusiais metais Vokietijos reklaminėje kampanijoje buvo naudojamas dirbtinio intelekto sukurtas giliojo klastojimo metodas, siekiant įspėti tėvus neskelbti vaikų nuotraukų internete, perspėjant, kad jų vaikų atvaizdai gali būti panaudoti patyčioms iš jų arba CSAM kurti. Tačiau tai nesprendžia jau paskelbtų arba dešimtmečių senumo, bet vis dar egzistuojančių internete vaizdų problemos.

„Pašalinus nuorodas iš LAION duomenų rinkinio, šis turinys nebus pašalintas iš žiniatinklio“, – sako Tyleris.

„Šiuos vaizdus vis dar galima rasti ir naudoti, net jei tai daroma ne per LAION. Tai platesnė ir labai aktuali problema, ir mes, kaip ne pelno siekianti savanoriška organizacija, prisidėsime prie jos sprendimo.“

Hye sako, kad atsakomybė apsaugoti vaikus ir jų tėvus nuo tokio pobūdžio piktnaudžiavimo tenka vyriausybėms ir reguliavimo institucijoms.

Brazilijos įstatymų leidžiamoji valdžia šiuo metu svarsto įstatymus, reglamentuojančius suklastotų vaizdų kūrimą, o JAV atstovė Alexandria Ocasio-Cortez iš Niujorko pasiūlė DEFIANCE įstatymą, kuris leistų žmonėms pateikti ieškinį, jei jie galėtų įrodyti, kad suklastotos nuotraukos su jų atvaizdu buvo sukurtas nesąmoningai.

„Manau, kad vaikai ir jų tėvai neturėtų būti verčiami prisiimti atsakomybės už vaikų apsaugą nuo technologijos, nuo kurios iš esmės neįmanoma apsisaugoti“, – sako Hye. „Tai ne jų kaltė.“

Patiko? Nusiųsk draugui: