umetna inteligenca
Tina Baznik
Tina Baznik
18. January 2024

Katere novosti prinaša novi akt o umetni inteligenci in kako se lahko podjetja nanj pripravijo?

8.december 2023 označuje prelomni trenutek na področju regulacije umetne inteligence. Evropske institucije so namreč takrat dosegle začasni politični dogovor glede prvega evropskega akta o umetni inteligenci. Po obsežnem trilogu[1], v katerem so sodelovali EU komisija, Svet in Parlament, ta zakonodajni mejnik predstavlja pomemben korak v regulaciji tehnologij umetne inteligence. Čeprav dogovor označuje napredek, se končno besedilo še vedno prečiščuje, preden ga uradno sprejmeta tako Parlament kot Svet, kar se pričakuje leta 2024. Ko bosta akt potrdila Evropski parlament in Evropski svet, bo pri Evropski komisiji deloval tudi nov “Urad za umetno inteligenco”.  Medtem ko zakonodaja še čaka na svojo končno  verzijo, se v Inno Legal d.o.o. sprašujemo kaj novi akt prinaša za podjetja, ki se pri poslovanju upirajo na umetno inteligenco ali pa jo celo razvijajo.

Za uveljavljanje Akta o umetni inteligenci so predvidene nove upravne strukture, vključno z AI uradom, znanstvenim odborom neodvisnih strokovnjakov, AI odborom in svetovalnim forumom za deležnike. Ti organi si bodo prizadevali nadzorovati napredne modele umetne inteligence, zagotavljati strokovne nasvete in prispevati k izvajanju Akta o umetni inteligenci. S to potezo pa med drugim EU želi postati vodilna na področju Umetne inteligence, saj bo prvi tovrstni tehnološki regulator na svetu. Ob zavedanju pomena inovacij Akt o umetni inteligenci spodbuja ustanavljanje “regulativnih peskovnikov” in “testiranje sistemov v realnem svetu” s strani nacionalnih organov. Ta proaktivni pristop si prizadeva ustvariti regulativni okvir, ki podpira in spodbuja razvoj umetne inteligence znotraj EU (tudi finančno).

Regulacija sistemov in modelov umetne inteligence

Novi Akt se opira na globalno priznan standard OECD za opredelitev “sistemov umetne inteligence”. Zlasti sklicevanja na “vsebino” kot izhod sistema omogoča kategorizacijo sistemov generativne umetne inteligence. Sistemi umetne inteligence so kategorizirani glede na: sisteme z omejenim in visokim tveganjem. Sistemi z visokim tveganjem, kot so tisti v zdravstvu, upravljanju s človeškimi viri in kritični infrastrukturi, se soočajo s strogimi zahtevami, vključno z ocenami vpliva na temeljne pravice, ocenami skladnosti, upravljanjem podatkov in implementacijo ustreznih ukrepov za zagotavljanje kibernetske varnosti.

Splošno namenski sistemi umetne inteligence (GPAI) bodo morali izkazati visoko stopnjo transparentnosti, podjetja pa bodo morala priložiti celotno tehnično dokumentacijo, ki je skladna z Zakonodajo EU in Zakonodajo EU o avtorskih in zagotoviti podrobne povzetke vsebin, ki se uporabljajo za usposabljanje sistema.

Vendar v Aktu trenutno ni sistematičnih meril, ki bi razvrstila modele glede na nizko in visoko tveganje. Razvijalci umetne inteligence bodo v številnih primerih lahko sami ocenili sisteme, ki se štejejo za visoko tvegane. V skladu z Aktom bodo morali takšni ponudniki pojasniti metodologije in tehnike, uporabljene za pridobivanje podatkov za usposabljanje, vključno s tem, kje in kako so bili ti podatki pridobljeni in kako so bili podatki očiščeni, ter potrditi, da spoštujejo Zakone o avtorskih pravicah. V idealnem primeru bi moral regulator vzpostaviti neodvisen sistem preverjanja s strani tretje osebe, ki lahko po potrebi preveri tudi neobdelane podatke – tudi če preveri le reprezentativni vzorec. Ko bo urad za umetno inteligenco ustanovljen mora nujno sodeloval z znanstveno skupnostjo in pri tem uporabiti vso razpoložljivo strokovno znanje, da bi zagotovil odgovore na ta vprašanja. To pa odpira možnost za dolgotrajne postopke ocenjevanja sistemov, kar bi lahko v prihodnosti zaviralo inovacije na področju umetne inteligence.

umetna inteligenca

Visoko tvegani sistemi v policiji

Evropske policijske sile bodo lahko uporabljale sisteme biometrične identifikacije na javnih mestih le, če bodo najprej dobile sodno odobritev, in to le za 16 različnih določenih zločinov, kot so terorizem, trgovina z ljudmi, spolna izkoriščanje otrok in trgovina z drogami. Pristojnosti za izvajanje visoko tveganih sistemov umetne inteligence, ki ne izpolnjujejo evropskih standardov, pa bodo lahko uporabljene v “izjemnih okoliščinah, ki se nanašajo na javno varnost.”

Kdaj začne Akt veljati in kakšne so kazni v primeru neskladnosti z Aktom?

Akt o umetni inteligenci bo začel veljati dve leti po njegovem začetku veljavnosti. Nekateri specifični predpisi bodo veljali v šestih mesecih, določila o GPAI pa v roku 12 mesecev. Kazni bodo znašale od 7,5 milijona evrov ali 1,5% globalnega prometa do 35 milijonov evrov ali 7% globalnega prometa, odvisno od kršitve in velikosti podjetja.

Kako se lahko podjetja pripravijo?

  • Spremljajo datuma veljavnosti Akta in vseh sprememb do katerih bi lahko prišlo v tem času
  • Izboljšajo varnostne sisteme in identificirajo potencialne nevarnosti za sistem ali varovanje podatkov
  • Pregledujejo, analizirajo procese in pripravijo ocene stopnje skladnosti svojih sistemov umetne inteligence z novo Zakonodajo in ostalo Zakonodajo EU (npr. o avtorskih pravicah)
  • Opravijo celotni pregled in analizo strategije podjetja; pregled in načrtovanje usklajenosti z ukrepi, ki urejajo osebne in neosebne podatke v skladu z Zakonodajo
  • Pripravijo tehnične povzetke sistemov in vsebin, ki se uporabljajo za usposabljanje in učenje sistemov
  • Organizirajo interna usposabljanja in tržni nadzor
  • Načrtujejo trajnostno strategijo, ki omogoča delovanje na globalnem trgu; razmišljanje o potencialnem razvoju drugih regulatornih zahtev v Ameriki in po svetu

Akt o umetni inteligenci EU predstavlja pomemben globalni mejnik za regulacijo umetne inteligence. Medtem, ko deležniki čakajo na uradno sprejetje Akta imajo podjetja priložnost, da se začnejo pripravljati na spremembe in načrtovati skladnost z Aktom.


[1] Glavni namen Evropske komisije, ki je zasnovala novi Akt je regulirati varnost, omogočiti transparentnost in regulirati neetične prakse na področju umetne inteligence.  Akt o Umetni inteligenci je bil predmet številnih razprav. Leto 2021 je potrebo po regulacijo sprožil Metavers, kar kmalu pa je bilo jasno, da se razvijajo in na trg prihajajo močnejši modeli kot je npr. ChatGPT. Posledično se je v nov Akt vključilo močne modele umetne inteligence, ki se lahko uporabljajo za različne namene. To je sprožilo intenzivne razprave o tem, kateri modeli naj bi bili regulirani in ali bo regulacija zavirala inovacije.