četvrtak, 11. apr 2024.
Home Pravo Blog AI ACT – REGULATIVA VEŠTAČKE INTELIGENCIJE

AI ACT – REGULATIVA VEŠTAČKE INTELIGENCIJE

0
AI ACT – REGULATIVA VEŠTAČKE INTELIGENCIJE

Kako će veštačka inteligencija (Artificial Intelligence – AI) biti regulisana prema AI Act-u? Šta
to od rešenja donosi AI Act? I šta možemo očekivati od budućnosti veštačke inteligencije?

AI ACT je tu!

EU je 13.03.2024. godine USVOJILA AI Act (stupa na snagu maja). Ovaj akt je prvi pravni akt u svetu koji na obavezujući način reguliše oblast veštačke inteligencije (dalje: VI), a sa ciljem da obezbedi napredak društva, i istovremeno poštovanje prava i osiguravanje bezbednosti pojedinca.

Sa AI Actom, nakon zauzetog stava o etičkim principima kojima se ova tehnologija mora voditi, prešli smo u fazu regulacije, pretvaranja etičkih principa u načela i stvaranje konkretnih pravila.

AI Act temelji digitalni prostor AI ekosistema na tri stuba:

  1. 1. Transparentnost i odgovornost;
  2. 2. Inovativni razvoj;
  3. 3. Sistem NIVOA RIZIKA.

AI Act se opredelio da reguliše oblast VI uspostavljajući sistem različitih NIVOA RIZIKA po društvo i prava pojedinca. Dakle, prvo, ovaj akt deli sve aplikacije VI prema nivou rizika, a zatim po funkcionalnostima svrstava različite pojavne oblike VI u date kategorije. Sistemi VI koje predviđa AI Act su sledeći:

  1. NEPRIHVATLJIVI rizik – To su prakse VI koje se smatraju previše štetnima da bi bile dozvoljene, poput onih kojima se manipuliše ponašanjem ljudi na njihovu štetu (prevarne tehnike za iskrivljavanje ponašanja i ometanje informisanog donošenja odluka) ili poput sistema koji nepravedno kategoriziraju pojedince (social scoring), pa i softvera za prepoznavanje lica u stvarnom vremenu na javnim mestima – Zabranjeni su;
  • VISOK rizik – Ova kategorija deli se na dve podkategorije: Sistemi sigurnosnih komponenti (igračke, medicinski uređaji) i sistemi za osetljivu upotrebu (biometrija, kritična infrastruktura, obrazovanje, zapošljavanje, osnovne usluge, sprovođenje zakona, migracije, pravosuđe). Dakle, ova kategorija uključuje sisteme VI koji bi mogli značajno uticati na sigurnost ljudi ili na fundamentalna prava. – Potrebna je stroga usklađenost i procena sigurnosti ovih sistema, nadgledanje, upravljanje podacima, čuvanje zapisa, sajberbezbednost, sistem prijavljivanja ozbiljnijih incidenata i dr. (ovde će prekršaje pratiti ozbiljne kazne);
  • OGRANIČENI rizik – Sistemi VI koji direktno komuniciraju s korisnicima, poput chatbota. – Moraju biti transparentni u pogledu toga da njima upravlja VI kako bi korisnici bili svesni da ne komuniciraju s ljudima.;
  • MINIMALNI rizik – Većina aplikacija VI spada u ovu kategoriju, gde se sloboda inovacija održava uz minimalnu regulatornu intervenciju. To su sistemi koji predstavljaju zanemariv rizik za prava ili sigurnost pojedinaca. – Mogu se koristiti uz minimalan nadzor.

Veštačka inteligencija – DEMISTIFIKACIJA

Veštačka inteligencija nije inteligencija, jer joj fali dobar broj komponenti i karakteristika koje poseduje ljudska inteligencija. Jedna od komponenti koja je razvijena jeste memorija, ili pamćenje, obzorom na LLM tehnologiju i big data.


Zapravo evo formule VI:

LLM + Big data + Probabilities (verovatnoće) = AI (VI)

Tehnologija koja obrađuje veliki broj podataka i zatim matematičkim izračunima dolazi do najveće verovatnoće kako na određeno pitanje treba složiti rečenicu, odnosno šta je sledeća reč u nizu.

Zbog obima podataka koje je u stanju da pročita VI često ima dubinu većeg broja podataka od čoveka, te njeni odgovori izgledaju veoma elokventno. Ipak, kada bude pitana na temu gde nema dovoljno izbora literature, može u nedostatku podataka početi da „halucinira“, odnosno da dodaje i izmišlja podatke samo da bi nešto rekla (lagati).

Ipak, VI nije samo ono što mi vidimo, četbotovi. VI se deli u dve velike grupe, prema funkcionalnosti:

  1. 1. Generativni VI;
  2. 2. VI za automatizaciju procesa i donošenja odluka.

Iako je prosečnom čoveku, pogotovo sa dešavanjima iz decembra 2022. godine bliža tematika generativne VI, regulacija je više usmerena na VI za automatizaciju procesa i donošenja odluka. Ova druga kategorija je mnogo opasnija po naša prava.

Šta ovo menja za pojedinca?

CILJ svake tehnologije je da unapredi društvo, da pojedinac oseti benefite tehnologije. Ipak, često se desi da benefit osete samo velike kompanije. Ovaj akt ograničava kompanije, odnosno postavlja pred njih neke regulacije, a kako bi smanjio rizik po povredu ličnih prava pojedinca.

Pre svega za pojedinca će biti transparentno i jasno kada je u interakciji sa VI. Sadržaj koji nazivamo deepfake moraće biti obeležen, a ljudi će biti obavešteni kada su u interakciji s chatbotom ili drugim sistemom VI. Teži se smanjenju mogućnosti manipulacije.

Dodatak: Ovo nije deo AI Act-a, ali postoje i tendencije da se radna nedelja smanji na četiri radna dana, odnosno 32 radna sata, obzirom na to da su konglomerati profitirali na produktivnosti znatno, a sa druge strane otpuštaju zaposlene. Ovo bi stvorilo malo veći balans u industrijama u kojima VI smanjuje obim posla za ljude, a umnogostručuje produktivnost.

Šta AI Act menja za kompaniju?

Kompanije koje razvijaju VI sisteme moraju ispoštovati pravila, a pre svega transparentnost. Veći broj sistema neće imati potrebe biti usklađen sa AI Act-om, jer ne ulazi u rizične grupe. Opet, mimimum zahteva će sve kompanije morati poštovati. I dalje u momentima kolizije AI Act-a i GDPR-a, kompanije će morati paziti, kao i do sada na lične podatke i uskladiti se sa ovom regulativom.

Kompanije koje razvijaju sisteme zasnovane na VI moraju ispratiti MIM5 (Minimal Interoperability Mechanisms 5 – Fair AI) kao i sve tehničke mere sajberbezbednosti NIS2 direktive o sajberbezbednosti.

Kompanijama prete i ozbiljne KAZNE:

  • 35 miliona evra ili 7% globalnog godišnjeg prometa – Za korišćenje zabranjenih sistema;
  • 15 miliona evra ili 3% globalnog godišnjeg prometa – Za nesprovođenje adekvatne procene rizika.

Pored svega navedenog, svest kompanija postoji, te po nekim istraživanjima 96% organizacija koje razvijaju i koriste VI podržava neki nivo regulacije VI. Nasuprot tome, svega 2% organizacija razvija i koristi u potpunosti operacionalizavanu odgovornu VI (responsible AI). – ODGOVORNA VI podrazumeva preduzimanje namernih radnji dizajniranja, primene i korišćenja VI za stvaranje vrednosti i izgradnju poverenja štiteći korisnike, sugrađane, društvo, od potencijalnih rizika VI.

Šta su sledeći koraci?

Potrebno je uspostaviti REGULATORNO TELO (odnosno tela), kako na nivou EU, tako i u pojedinačnim državama. Ova regulatorna tela bi imala obavezu da pružaju pomoć u primeni AI Act-a, ali i da vrše nadzor nad primenom istog.

Kompanije će imati i do 36 meseci period da se usklade sa zakonom. Različiti vremenski periodi predviđeni su za različite kategorije rizika, zapravo (6 meseci za zabranjene sisteme, 12 meseci, 24 meseca i 36 meseci)

Fer VI je pojam koji bi trebao da obuhvati to da VI mora biti fer, odgovorna, inkluzivna i da nastupa sa poštovanjem.

Sadržina AI Act-a:

  1. 1. Preambula (obimna);
  2. 2. SADRŽINA: I Opšte odredbe; II Zabranjene AI prakse; III AI sistemi visokog rizika; IV Obaveze transparentnosti za provajdere AI sistema; VIIIa AI modeli opšte namene; V Mere u cilju podrške inovacijama; VI Upravljanje; VII Baza podataka EU za visokorizične sisteme AI iz aneksa III; VIII Post-tržišni monitoring, deljenje informacija i nadzor tržišta; IX Kodeks ponašanja; X Poverljivost i kazne; XI Delegiranje ovlašćenja i postupanje organa; XII Završne odredbe.
  3. 3. Aneksi.

Umesto zaključka

Kako ulazimo u novu eru upravljanja VI, a AI Act predstavlja ključni presek tehnologije, zakona i etike. Ovaj akt nudi nacrt za balansiranje između inovacija i odgovornosti, postavljajući globalni standard za legislativu VI. Uloga prostora podataka u ovom novom regulatornom okruženju biće ključna u oblikovanju budućnosti VI u Evropi i šire.

AI Act je pravni akt kojim Evropa prva reguliše ozbiljno VI, kao što smo rekli na početku. To ima dvostruke implikacije. Sa jedne strane, Evropa je lider u regulaciji VI i svojim građanima garantuje visok stepen prava, dok sa druge strane, kompanije koje razvijaju sisteme VI predstavljaju više-milijarderski biznis, i preregulacija i stroga pravila mogu uticati na njihov razvoj, konkurentnost na svetskom tržištu ili preseljenje kompanija čak. AI Act levitira između slobodne inovacije i regulacije inovacije.

Videćemo kada će Srbija pokrenuti radnu grupu za pisanje Zakona o veštačkoj inteligenciji, ali znamo da bi zakon zbog poslovnih odnosa naših kompanija sa kompanijama u EU trebao biti usklađen sa ovim pravnim aktom. To je glavni razlog zašto i nas ovde zanima ovaj pravni akt.

Uskoro nas očekuje i AI Convention Saveta Evrope, koji pravni akt će se baviti odnosom ljudskih prava i tehnologije, a u okviru Saveta Evrope je članica i Srbija, pa to nas dodatno interesuje.

Napomene: Ovaj tekst ne predstavlja zamenu za angažovanje pravnog stručnjaka u oblasti IT prava ili AI prava radi usaglašavanja vašeg poslovanja, niti advokata u slučaju sudskog postupka. Ovaj tekst je mišljenje autora povodom date teme i poziv na dalje razlaganje pojmova iz AI Act-a i dalje rasprave na ovu temu. Autor je voljan da prihvati svaki vid komunikacije putem bilo kojeg kanala u cilju boljeg zajedničkog razumevanja ove oblasti.

Autor teksta: Denis Tul