USVOJEN EUROPSKI AKT

Ivana Kunda o izazovima digitalnog doba: ‘Netransparentnost algoritama umjetne inteligencije veliki je problem’

Vladimir Mrvoš

SNIMIO - MILAN DEKIC

SNIMIO - MILAN DEKIC

Netransparentnost algoritama i neobjašnjivost rada sustava UI-ja jedan je od temeljnih problema, kojem EU želi stati na kraj Aktom o umjetnoj inteligenciji



Daleko smo odmakli od vremena kad je umjetna inteligencija (UI) šokirala javnost pobjedom Garyja Kasparova u partiji šaha. Danas je ona sve prisutnija u životu svih građana. Upravo o rizicima UI-ja i načinima na koje nas od njih štiti pravo EU-a, građanima je u sklopu manifestacije Dana Europe, kao dijela YUFE akademije Sveučilišta u Rijeci, predavanje održala prof. dr. sc. Ivana Kunda s Pravnog fakulteta u Rijeci. Da su građani željni informacija, ali i zabrinuti zbog mogućeg utjecaja sustava UI-ja na njihove živote, potvrdio je njihov odaziv na ovo predavanje održano u prostoru Gradske knjižnice Rijeka.


– Među prvima u svijetu, EU pokušava kontrolirati te rizike donošenjem Akta o umjetnoj inteligenciji, objasnila je Kunda, te najavila da nas čeka još nekoliko godina do trenutka kad će taj propis u potpunosti zaživjeti u praksi.


Regulacijom UI-ja, europski zakonodavac namjerava osigurati bolje uvjete za razvoj i upotrebu te inovativne tehnologije. UI nam može donijeti brojne koristi, kao što je bolja zdravstvena skrb i obrazovanje, sigurniji i čišći prijevoz, učinkovitija proizvodnja te jeftinija i održiva energija. UI može biti od pomoći liječnicima u dijagnostici raznih bolesti, kao što može pomoći meteorolozima u predviđanju pojave, intenziteta i tijeka razornih pojava poput ciklona, oluja ili uragana. Nisu zanemariva ni brojna mala poboljšanja u svakodnevnom životu od kojih neka već i koristimo, kao što su preporuke filmova ili glazbe na internetskim servisima, autonomni usisivači ili napredne aplikacije za fotografiranje. Potencijalne koristi koje društvo može imati od UI-ja u budućnosti su još izraženije te je za očekivati da ćemo redovito biti svjedocima napretka ove tehnologije.




S druge strane, tu su i brojni rizici koji mogu biti posljedica samih svojstava UI tehnologije ili njezine (zlo)uporabe od strane čovjeka. Sustavi UI-ja danas nastaju na način da se osmišljavaju algoritmi koji se potom opskrbljuju velikim količinama podataka kako bih iz njih »učili«. Budući da se rizici za čovjeka kriju u samoj arhitekturi algoritma ili u kvaliteti podataka za »učenje«, potrebno je već u samom nastanku novih sustava UI-ja ugraditi u njega elemente koji osiguravaju poštivanje pravnih propisa, npr. o zabrani diskriminacije, zaštiti privatnosti, osobnih podataka i autorskih prava. Stoga je u timove koji osmišljavaju nove sustave UI-ja potrebno uključiti i pravnike, smatra Kunda i pojašnjava nekoliko osnovnih rizika.


Temeljna prava


– Netransparentnost algoritama i neobjašnjivost rada sustava UI-ja jedan je od temeljnih problema. Čak i kada nam je kao korisnicima dostupan računalni kod, ako ne razumijemo način na koji je sustav UI-ja proizveo neki rezultat na temelju ulaznih podataka, ne možemo racionalno vrednovati taj rezultat, a kamoli ga kritički prosuđivati. To znači da nam preostaje slijepo vjerovati da je rezultat rada sustava UI-ja točan i pošten, što može biti izuzetno opasno jer ostavlja golemi prostor za pogreške, ali i manipulacije, upozorava Kunda. U kontekstu pravosuđa, primjerice, netransparentnost i neobjašnjivost posve su neprihvatljivi jer svaka sudska odluka mora biti jasno i potpuno obrazložena i provjerljiva. To je dio naših zajamčenih temeljnih prava, koja su zaštićena Poveljom EU-a o temeljnim pravima i Ustavom RH. Zbog toga u Hrvatskoj danas ne bi bilo pravno dopušteno da sudac robot autonomno donosi odluke u pravnim predmetima umjesto suca čovjeka.


Kunda nadalje navodi da je netransparentnost sustava UI-ja, međutim, veliki izazov u komercijalnom i političkom planu već neko vrijeme. Algoritmi su osmišljeni da profiliraju pojedince na temelju podataka o njihovom ponašanju na internetu i drugih, i to bez njihova znanja, a s namjerom utjecanja na njihove odluke. Pružatelj internetske usluge koristi UI da bi predvidio, primjerice, koliko je neka osoba spremna platiti za neku robu ili uslugu pa sukladno tomu nudi različitu cijenu, ili ako je riječ o političkom kontekstu, može prilagoditi poruku u političkoj kampanji. Štoviše, alati generativnog UI-ja koriste se katkad za stvaranje realističnih – ali lažnih filmova, zvučnih zapisa i slika, kako bi manipulirali odlukama birača. Počinitelje takvih nezakonitih postupanja teško je pravno sankcionirati jer su često skriveni iza lažnih profila, dok su internetski pružatelji usluga vrlo vješti u izbjegavanju odgovornosti kao što je pokazalo dosadašnje iskustvo, primjerice u skandalu Cambridge Analytica koji je uključivao zlouporabu osobnih podataka korisnika Facebooka.


Nadležna tijela


Ne bi li se ovi i drugi rizici stavili pod nadzor, EU je odabrao regulatorni pristup koji se temelji na riziku, definirajući četiri razine rizika koji prijete od sustava UI-ja, kao i specifične rizike od modela opće namjene kao što je OpenAI na kojem se temelji svima nam poznati ChatGPT. U kategoriju minimalnih rizika pripada veći dio sustava UI-ja koji se danas koriste, poput filtera neželjene e-pošte, koji nisu dužni primjenjivati zahtjeve za pouzdani UI. Sustavi UI-ja u kategoriji ograničenog rizika morat će ispuniti zahtjev transparentnosti, što uključuje primjerice jasnu oznaku da su video ili slika generirani uz pomoć sustava ili da korisnik komunicira s autonomnim sustavom (npr. chatbotom), a ne čovjekom. Visokorizični sustavi UI-ja mogu biti prijetnja temeljnim pravima, kao primjerice oni koji se koriste u opskrbi strujom ili vodom te koji su integrirani u robote za izvođenje medicinskih zahvata, pa su podvrgnuti bitno strožim standardima sigurnosti i kvalitete čije ispunjavanje se nadzire prije njihova stavljanja na tržište, odnosno u uporabu, što čine nadležna tijela.


– U neprihvatljive rizike spada vrlo ograničen skup posebno štetnih primjena UI-ja koje su u suprotnosti s vrijednostima EU-a jer se njima krše temeljna prava pa će takvi sustavi biti u režimu zabrane. To su, primjerice, društveno bodovanje ili praćenje emocionalnih stanja osobe na poslu ili obrazovanju (za koje je poznato da se primjenjuju u Kini), iskorištavanje ranjivosti osoba, korištenje subliminalnih tehnika ili manipulacija radi navođenja na odluku koju osoba ne bi donijela, biometrijska kategorizacija pojedinaca na osnovi biometrijskih podataka kako bi se saznala njihova rasa, politička mišljenja, članstvo u sindikatu, vjerska ili filozofska uvjerenja ili spolna orijentacija, daljinska biometrijska identifikacija u stvarnom vremenu na javnim mjestima, što čine tijela za kazneni progon, objašnjava Kunda.


Odgoda datuma primjene Akta o UI-ju


Akt o umjetnoj inteligenciji stupit će na snagu 20 dana od objave u Službenom listu, što se još uvijek nije dogodilo. Njegova je primjena odgođena za 24 mjeseca nakon stupanja na snagu, dok će se neke njegove odredbe početi primjenjivati postupno. Šest mjeseci nakon stupanja na snagu države članice moraju ukinuti zabranjene sustave. Nakon 12 mjeseci počinju se primjenjivati obveze u pogledu UI-ja opće namjene, a nakon 24 mjeseca počinju se primjenjivati sva pravila Akta o UI-ju, uključujući obveze za visokorizične sustave. Dulji rokovi, od primjerice 36 mjeseci ili šest godina od stupanja na snagu, predviđeni su radi usklađivanja sa zahtjevima sustava UI-ja koji su već u primjeni.


Biometrijska identifikacija


Upotreba daljinske biometrijske identifikacije u stvarnom vremenu na javnim mjestima prepoznavanjem lica putem CCTV-a zabranjena je za potrebe kaznenog progona, osim u nekoliko najtežih nabrojanih kaznenih djela, poput ubojstva, terorizma, otmice, trgovanja ljudima, drogom, oružjem, ljudskim organima, nuklearnim tvarima, silovanja, seksualnog iskorištavanja djece, otmice zrakoplova, sabotaže, zločinačke organizacije, oružane pljačke, kaznenih djela u nadležnosti Međunarodnog kaznenog suda, kao i djela protiv okoliša. Preciznost sustava UI-ja za prepoznavanje lica razlikuje se u ovisnosti o više čimbenika. Premda točnost od 99 posto može zvučati sasvim prihvatljivo, riječ je o znatnom riziku ako greška može dovesti do uhićenja ili primjena sile protiv nedužne osobe. I mali postotak pogreške od 0,1 posto, postaje velik ako se taj postotak izračunava na bazi milijuna ljudi koji žive u EU-u.