c S

Umetna inteligenca z vidika uporabe kazenskega prava

27.05.2024 Razvoj umetne inteligence (UI) nedvomno sproža razmišljanje o ustreznosti nekaterih temeljev kazenskega prava. Gotovo mednje sodi dejstvo, da je le človekovo ravnanje (in ne ravnanje UI) lahko predmet ugotavljanja kazenske odgovornosti. Od celotnega spektra človekovega ravnanja je voljno ravnanje tista "psihološka (subjektivna) realnost" in posebna razlika (differentia specifica), ki preprečuje, da bi bil kdo kaznovan za storjeno dejanje brez zavesti in volje.1

O krivdi - razmejitev med umetno in človeško inteligenco

O svobodni volji so tudi v zvezi s človeško inteligenco še vedno živahne razprave. Tudi človek - podobno kot UI - ni nepopisan list, ki se svobodno giblje v svetu in odloča brez omejitev. Če bi pristali na nekatere pomisleke razvijajoče se nevroznanosti,2 da zapleteno omrežje, ki ga predstavljajo individualne značilnosti naših možganov, v določenem enakem življenjskem položaju vselej vodi k enakemu vzorcu vedenja, ki je lahko tudi kaznivo dejanje, bi skrajnost takih stališč vodila k čistemu determinizmu. Soglašali bi s pomislekom, da gre pravzaprav za podoben položaj, kot ga lahko ustvari UI s svojim avtonomnim delovanjem.3 Pristali bi na tezo, da človek pravzaprav ni gospodar svojih ravnanj in se ne more opredeljevati za ali proti storitvi kaznivega dejanja. S tem pa bi kazenskemu pravu izpodmaknili temelj, ki omogoča uveljavljanje odgovornosti le za storilčevo krivdo in hkrati preprečuje storilčev položaj "brez krivde kriv". Takšen pogled bi sicer močno omejil vidno polje razlik med človeško in umetno inteligenco. Po drugi strani pa zaradi možnosti povezovanja t. i. umetnih nevronov oz. vozlišč pri UI z ostalimi nevroni v umetni nevronski mreži ustvarjalci UI in tisti, ki jo skušajo definirati (npr. Inštitut Maxa Plancka iz Nemčije), poudarjajo prav "človeške" lastnosti. Na ta način naj bi UI sestavljali "računalniško podprti sistemi, ki so razviti tako, da posnemajo človekovo vedenje".4 Evropska komisija je UI tudi v zvezi predlogom Uredbe Evropskega parlamenta in Sveta o določitvi harmoniziranih pravil o umetni inteligenci (v nadaljevanju Akt o umetni inteligenci)5 definirala kot "zmožnost stroja, da izkazuje človeške lastnosti, kot so mišljenje, učenje, načrtovanje in kreativnost".6

Podobno kot pri UI človek svoje odzive uravnava glede na številne podatke, ki jih sprejema iz okolja. Tudi človek skozi vse svoje življenje sprejema številne podatke, čeprav še zdaleč ne toliko, kakor jih je sposobna sprejeti današnja UI. Če torej štejemo, da je povečanje količine podatkov glavni trend razvoja UI, ki zajema tako temeljne modele kakor tudi njihovo mreženje,7 potem imata človeška in umetna inteligenca skupne značilnosti. Te so v sposobnosti povezovanja, učenja in sklepanja, reševanja novonastalih situacij, ustreznega odziva v zvezi z vzroki in posledicami, sposobnosti ločevanja bistvenega od nebistvenega, prilagajanju določenemu cilju itd. Razlika je le v tem, da računalniški modeli na podlagi manjše količine podatkov ne morejo posploševati, saj so ljudje učinkovitejši pri sklepanju in učenju iz manjše količine podatkov. Toda bliskovit napredek pri razvoju UI bo sčasoma gotovo omogočil, da bo UI znala posploševati tudi iz manjše količine podatkov.8 Med sistemi umetne inteligence je tudi ChatGPT, inteligenčni sistem v lasti podjetja OpenAl, sicer v številnih primerih podal podrobne in artikulirane odgovore na podlagi ogromnega števila podatkov, ki so jih vnašali na način sistematičnega mednarodnega timskega dela. Vendar pa je njegova "neenakomerna dejanska točnost" še vedno bila prepoznana kot "pomembna pomanjkljivost".9

Ne glede na stopnjo razvoja sedaj tudi že UI omogoča računalniškim sistemom, da zaznavajo okolje, obdelajo, kar zaznajo in rešijo problem, pri čemer lahko - podobno, kot storilec kaznivega dejanja - ravnajo z določenimi cilji,10 ki jih določi človek, in tako povzročijo prepovedane posledice. V čem je torej za kazensko pravo najpomembnejša vsebinska razlika med UI in človekovo inteligenco?

Kljub namenu ustvarjalcev, da bi jo čim bolj "počlovečili", UI pri svojem delovanju ne izhaja iz človekovega duševno-duhovnega središča delovanja. Nikakor ne gre za nekakšno "elektronsko osebo", v odnosu do katere bi lahko kakorkoli prekinili odvisnost UI od kreativnih odločitev človeka, ki so seveda lahko tudi napačne in zaslužijo odziv z uporabo kazenskega prava. Še vedno je zato aktualen Roxinov personalni pojem ravnanja,11 ki je kazenskopravno relevantno le, če je vezano na človeka kot osebo oziroma njegovo osebnost.12Zato je ta pojem pravzaprav vsebinsko in časovno odmaknjen od proučevanja tehničnega delovanja UI, razen če gre za pripravo njenega delovanja oziroma za opustitev dolžnega nadzorstva.

Na podlagi pravkar povedanega lahko določimo nekaj značilnih faz, v katerih lahko predvidimo storitve kaznivih dejanj. Kazniva dejanja so lahko najprej povezana z ustvarjanjem UI in določanjem njenih prepovedanih ciljev, nato z ilegalnim spreminjanjem in pretvarjanjem sicer poštenih ciljev v protipravne13 in na primer zlorabo le-teh za posamezne ideologije (v različnih medijih objavljen primer kršitve ustavnega načela enakosti in enakopravnosti v zvezi s trditvijo ChatGPT, da so svetlopolti znanstveniki boljši kot temnopolti znanstveniki, ali izražena mnenja o t. i. zeleni politiki in levem liberalizmu). 14

Na personalni pojem ravnanja lahko UI vpliva s svojimi rezultati kot "nekazniva napeljevalka" h kakemu kaznivemu dejanju, posebej če pristanemo na povsem avtonomno delovanje UI, na katero se (neutemeljeno) popolnoma zanesemo. Da do tovrstnega neželenega vpliva ne bi prišlo, je zato nujno zagotoviti transparentnost delovanja UI, tako da tehnični sistemi omogočijo sledljivost, na podlagi katerih podatkov je UI prišla do določenih rešitev. To je tudi faza oziroma področje, znotraj katerega lahko iščemo možnost ugotavljanja krivde in kaznivosti, če lahko storilcu očitamo opustitev dolžnostnega ravnanja pri nadzorstvu UI. Očitek bi moral temeljiti na utemeljeni presoji, da zaradi še vedno pomanjkljivih lastnosti UI storilec pri nadzorstvu ni ravnal s potrebno pazljivostjo (26. člen Kazenskega zakonika(KZ-1))15 in je s tem omogočil, da je UI avtonomno povzročila prepovedano posledico.

Varstvo človekovih pravic in nekaj procesnopravnih vidikov kazenskopravne zaščite v zvezi z delovanjem UI

Evropski parlament in Evropska komisija sta se dokaj intenzivno ukvarjala s harmonizacijo prava EU o umetni inteligenci. Toda kazenskega prava sta se dotaknili le posredno - predvsem z navajanjem evropskih vrednot, ki naj bi bile predvsem zasebnost, preglednost in spoštovanje temeljnih človekovih pravic. Predvsem te pravice je obravnaval Posebni odbor za umetno inteligenco v digitalni dobi (AIDA), končno poročilo AIDA pa je Evropski parlament sprejel maja 2022. Že pred tem, 20. januarja 2021, so bile sprejete Smernice za vojaško in nevojaško uporabo UI. Celovit pristop do področij dovoljenega in na drugi strani nedovoljenega delovanja UI skuša doseči evropski zakonodajalec z že omenjenim Aktom o umetni inteligenci. Z dodatnimi prihodnjimi in deloma že sprejetimi pravnimi dokumenti EU naj bi države članice zagotovile harmonizacijo pravnih predpisov, ki bi se nanašali na UI. Harmonizacija naj bi za najhujše zlorabe UI obsegala tudi kazenskopravno zaščito. Akt o umetni inteligenci je pri ustvarjanju ustreznih podlag konkretnejši v zvezi z zaščito javnih interesov, kot so zdravje, varnost ter med temeljnimi pravicami spoštovanje človekovega dostojanstva, svobode, enakosti in enakopravnosti.

Manj konkreten pa je Akt pri predvideni zaščiti demokracije in pravne države, ki jo sicer izrecno omenja že v uvodnih določbah (13). Pri tem pa vendarle ni mogoče prezreti, da pravno državo ogrožajo tudi tiste v Aktu o umetni inteligenci navedene oblike prepovedane prakse, ki se nanašajo na biometrično identifikacijo oseb na daljavo v realnem času v javno dostopnih prostorih za namene preprečevanja, odkrivanja in preiskovanja kaznivih dejanj, razen če gre za njihove najhujše oblike. Od sicer prepovedanih praks uporabe UI Akt navaja izjeme, saj Akt predvideva, da je uporaba UI dovoljena, če je usmerjena k preprečitvi "konkretne, znane in neposredne nevarnosti za življenje ali fizično varnost fizičnih oseb ali preprečitev terorističnega napada" ali če UI pripomore k "usmerjenemu iskanju določenih potencialnih žrtev kaznivih dejanj, vključno s pogrešanimi otroki".

To pa ni le področje materialnega kazenskega prava, temveč tudi procesnega (v Sloveniji Zakon o kazenskem postopku, ZKP),16 saj Akt o umetni inteligenci vsebuje zahteve, da morajo pristojni sodni ali upravni organi izdati dovoljenje (odredbo) za delovanje UI, ki naj bi pripomoglo k odkrivanju najtežjih kaznivih dejanj ali k zaščiti življenj. Takih določb zaenkrat zakonodajalec v naš ZKP še ni vnesel. Potrebno bo intenzivno delo zakonodajalca, da bo določil, v katerih primerih bo državni tožilec moral pridobiti sodne odredbe in v katerih bo - podobno kot pri uporabi nekaterih prikritih preiskovalnih ukrepov - za odredbe ali dovoljenja pristojen sam ali pa bodo dovolj le policijska pooblastila. Za obe področji - kazensko materialno in kazensko procesno pravo - bo zakonodajalec seveda najprej moral preveriti, kako in ali sploh lahko uporabi že sprejete zakonodajne rešitve tudi za UI.

Toda najpomembnejše procesnopravno vprašanje ostaja, kako v pogojih delovanja UI zagotoviti pravico, da o storilčevih obtožbah (brez neposrednega odlašanja) odloča neodvisno, nepristransko in z zakonom ustanovljeno sodišče (23. člen Ustave RS). Nekateri na eni strani skušajo previdno opozarjati, da bo ChatGPT vplival na izginjanje poklicev, ki so zahtevali dolgoletno izobraževanje, pri čemer mislijo predvsem na pravnike v pravosodju.17 Vendar pa na drugi strani le človeška presoja v kazenskih postopkih lahko:

- zagotovi psihološko oceno dokazov,

- upošteva kriminalno politiko glede posameznih kaznivih dejanj,

- upošteva še vse druge okoliščine, ki so odraz človeške izbire.

Niti zamisliti si ni mogoče, da bi UI vplivala na nepristranskost sodnika, ko bi mu vnaprej spisala osnutek sodbe. Za nezakonit vpliv na odločanje gre že v primerih, kadar sodišče odloča na podlagi dokaza, na katerega ne sme opreti svoje odločbe ali ga po ZKP mora izločiti ali celo uničiti (prvi odstavek 83. člena ZKP, 8. točka prvega odstavka 371. člena ZKP, tretji odstavek 148.a člena ZKP, 154. člen ZKP). Ali torej ni lažna prepričljivost UI za nepristranskost sodnika lahko še hujši in nevarnejši vpliv od v ZKP že navedenih nezakonitih vplivov?

Z vso ostrino se zastavljajo vprašanja, kdo in na kakšen način bi nadziral UI, če bi ji v kazenskih postopkih prepustili prevladujočo vlogo. Izrek "Quis custodiet ipsos custodes",18 torej po prof. dr. Kranjcu "kdo bo nadzoroval tiste, katerih naloga je nadzorovati druge", postaja bogatejši: nanaša se najprej na nadzor neosebnega delovanja UI, nato pa še na možne storilce, ki opustijo dolžen nadzor nad uporabo UI. Argumentirati je možno stališče, da našteti razlogi nikakor ne podpirajo ukinitve kateregakoli pravniškega poklica, pač pa kvečjemu povečujejo njegovo pomembnost. Na področju kazenskega prava odpirajo predvsem vprašanje, ali je lahko zaradi uporabe UI ogrožena sodnikova nepristranskost in je zaradi tega podan izločitveni razlog po 2. točki drugega odstavka 39. člena ZKP.19 Kot zanimivost je treba omeniti, da tudi Akt o umetni inteligenci v 14. členu (točka 4 (b)), upoštevaje človeški dejavnik v zvezi z morebitnimi težnjami po samodejnem zanašanju na izhodne podatke, od UI zahteva zavedanje o "pristranskosti zaradi avtomatizacije".

Ustvarjanje UI in posamezne inkriminacije kaznivih dejanj

Ko je govora o ustvarjanju UI, računalniška stroka poudarja predvsem velike količine podatkov, ki omogočajo, da UI na posameznih področjih pride do lastnih avtonomnih rezultatov. Sama po sebi se zato ponuja presoja, da lahko kazensko odgovarja (le) tisti storilec, ki v sisteme UI vnaša pomembne ali odločilne količine in take vrste podatkov, da z njimi zavestno in namenoma doseže, da UI ponudi rezultate, ki so prepovedana posledica. Računalniška stroka uporablja podobne izraze, kot veljajo za človeško inteligenco, pri kateri je prav tako potrebno učenje na podlagi podatkov, ki jih obe vrsti inteligence z večjimi ali manjšimi sposobnostmi ustrezno ali neustrezno povezujeta. Govora je tako o strojnem učenju (ang. Machine Learning) in globokem učenju. Strojno učenje pomeni neposreden človeški poseg in razumevanje vhodnih podatkov. Globoko učenje pa se kot podvrsta strojnega učenja UI nanaša na avtomatiziran proces določanja funkcionalnosti vhodnih podatkov, ki za svoje delovanje ne potrebuje več človeškega posredovanja.20 Preko nevronskih vozlišč in nevronske mreže se vozlišča aktivirajo in omogočijo pošiljanje podatkov v omrežje.

Ko z vidika navedenih pravnih in tehničnih temeljev proučujemo inkriminaciji kaznivega dejanja napada na informacijski sistem po 221. členu KZ-1 in zlorabe informacijskega sistema po 237. členu KZ-1,21 najprej naletimo na oviro, da mora informacijski sistem že obstajati, pri tem pa se zloraba informacijskega sistema lahko nanaša le na gospodarsko poslovanje in na pridobitev premoženjske koristi. Zavarovana dobrina v zvezi z UI je lahko le varnost informacijskega sistema, ki je že dosegel raven UI. Relevantno pa je še vprašanje, v katero pravno in tehnično kategorijo sodi t. i. utelešena UI, na primer roboti in avtonomna vozila22 ter pametni termostati, torej področja delovanja UI, ki ne ustrezajo klasičnim predstavam o računalniškem informacijskem sistemu. Šele v obstoječi informacijski sistem storilec po veljavnem KZ-1 lahko "neupravičeno vnese kakšen podatek", vanj neupravičeno vstopi ali vdre ali neupravičeno prestreže podatek, ki je v zvezi s strojnim ali globokim učenjem informacijskega sistema. Po direktivi 2013/40/EU23 je eden od skupnih imenovalcev, ki naj bi bili zakonodajalcem vodilo za inkriminacijo posameznih kaznivih ravnanj, nezakonito poseganje v sistem (tudi nezakonito poseganje v podatke). Vse kaže, da veljavna kazenska zakonodaja, ki se nanaša na informacijske sisteme, nikakor ne zadošča. Evropska zakonodaja, velika nevarnost zlorab in predvsem praktični razlogi - vse to državam narekuje, da bodo sprejele kazensko zakonodajo, ki bo zajela najnevarnejše oblike človekovih ravnanj, ki se nanašajo na uporabo in izkoriščanje UI.

Pravica do življenja in preživetja in UI

Ko že govorimo o nevarnosti zlorab UI, moramo najprej omeniti kaznivo dejanje agresije po 103. členu KZ-1 in zlasti vojna hudodelstva po 102. členu KZ-1 ter tudi druga kazniva dejanja zoper človečnost, ki terjajo odgovornost vojaških poveljnikov in drugih nadrejenih po 104. členu KZ-1. Skoraj odveč je opozorilo, da borba proti posameznim kaznivim dejanjem zoper življenje in telo izgubi vsakršen smisel, če državni voditelji posameznih držav uresničijo svoje jedrske grožnje kot največjo ogroženost obstoja vsega človeštva. Položaja ne olajšuje niti inkriminacija kaznivih ravnanj, ki slonijo na mednarodnem pravu, zlasti Rimskem statutu. Splošno zavezujoče so v tej zvezi sicer postale določbe o poveljniški odgovornosti. Pomembno je stališče, ki ga odraža tudi slovenska kazenska zakonodaja, da za vojna hudodelstva in zločine proti človeštvu odgovarja tudi oseba, ki dejansko nastopa kot vojaški poveljnik in ima možnost izvajati nadzorstveno oblast. Ni pomembno, ali gre za visokega častnika v vojaški hierarhiji ali za osebo, na primer predsednika kake države, ki odloča o vojni in miru.

Toda prav UI na pravnem področju lahko služi praktični ukinitvi individualne odgovornosti tistih, ki bi morali poskrbeti, da ne bi prišlo do spopadov z uničujočimi posledicami za življenja ljudi, zlasti civilnega prebivalstva - še posebej otrok. Hitrost in zapletenost vojskovanja zmanjšujeta razlike med agresivno in obrambno vojno. Kažejo se težnje, da bi vojskujoče strani prenesle odgovornost za svoje postopke kar na UI, če bi jim to prineslo zanesljivo prednost. Toda če nekateri menijo, da prav UI lahko v prihodnosti prispeva k natančnosti, ki bo osvobojena človeških slabosti in čustev, se po drugi strani kažejo pomanjkljivosti, ker niti ustvarjalci UI še ne poznajo vselej, kako in na podlagi katerih podatkov je UI prišla do posameznih "odločitev".24 Če na primer UI zazna njej neznane pojave v ozračju, ki niso bili vključeni v strojno ali globoko učenje, se lahko zgodi, da popoln umik človeške presoje privede do usodnih posledic za človeštvo. Posamezne simulacije delovanja UI so v zvezi s fiktivnimi spopadi že pokazale, da za razliko od človeških resničnih dogodkov UI za "zmago" zlahka žrtvuje celo lastne borce.25 Takšni razlogi nikakor ne dopuščajo, da bi se odrekli kontroli človeške izbire ravnanj, ki so lahko podlaga tudi za ugotavljanje individualne kazenske odgovornosti. Še najmanj ustrezno je prenašanje odgovornosti na UI, češ da je izbira za zlo njena. Tudi v takih - upajmo hipotetičnih - primerih bi se bilo treba vprašati najmanj to, kdo in na kakšen način je programiral (učil) UI, da bi ta delovala tako, da bi povzročila najhujše protipravne posledice, in kdo je delovanje UI nadziral, da bi take posledice preprečil.

S kaznivimi dejanji zoper človečnost, ki so v posebnem delu KZ-1 navedena na prvem mestu, smo se povsem namenoma dotaknili pomena ustavne pravice do življenja, ker brez nje ni mogoče razpravljati o drugih temeljnih pravicah. Prof. dr. Iztok Simoniti to pravico upravičeno povezuje še s pravico do preživetja in tudi do upora, če so ogrožene družina, kultura, domovina in najpomembnejše pravne dobrine,26 ki jih varuje KZ-1. Menimo, da takšno izhodišče velja tudi za UI, za katero je tudi v Aktu o umetni inteligenci določeno, da je pri zaščiti javnih interesov varnost poleg zdravja in temeljnih človekovih pravic najpomembnejša. Storilcu, ki UI programira in nato z njeno pomočjo izvede umor ali uboj po 115. ali 116. členu KZ-1, je mogoče pripisati krivdo tudi v primeru, da gre za individualno poškodbo ali ogrozitev življenja kot najpomembnejšo kazenskopravno zavarovano dobrino. Stroka ugotavlja, da ima ChatGPT že sedaj potencial za reproduciranje predsodkov in daje precej koristne nasvete za izvedbo terorističnih dejanj ali groženj uporabnikom, ki o kom pišejo negativno.27 Sicer pa Akt o umetni inteligenci med temeljnimi pravicami posebej našteva človekovo dostojanstvo, svobodo, enakost, in pravico živeti v demokratični državi, katere pogoj je spoštovanje načel pravne države.28

Varstvo nekaterih človekovih pravic in UI

Ne more biti dvoma, da že dalj časa veljavna inkriminacija kaznivega dejanja kršitve enakopravnosti po 131. členu KZ-1 deloma ustreza prizadevanjem Evropskega parlamenta. Poslanci so 6. oktobra 2021 pozvali k uvedbi močnih varovalk UI v policiji in sodstvu.29 Po točki (b) 5. člena Akta o umetni inteligenci sodi med prepovedane prakse UI tudi dajanje na trg, v uporabo ali v obratovanje take sisteme UI, ki izkoriščajo šibke točke deprivilegiranih oseb. Te osebe Akt razlikuje po starosti, telesni ali duševni invalidnosti. Prepoveduje, da bi UI bistveno izkrivila vedenje takšnih oseb in s tem povzročila fizično ali psihično škodo njim ali drugim. Poleg posameznih deprivilegiranih skupin Akt o umetni inteligenci nakazuje še zaščito in prepoved razvrščanja oseb s pomočjo UI po kriteriju, koliko so vredne zaupanja v določenem časovnem razdobju na podlagi njihovega družbenega vedenja, znanih ali predvidenih osebnih oziroma osebnostnih značilnosti. Pri tem Akt prepoveduje škodljivo ali neugodno obravnavo posameznih fizičnih oseb ali njihovih celotnih skupin, če je ta nesorazmerna z njihovim družbenim vedenjem ali resnostjo njihovega družbenega vedenja...

Nadaljevanje članka za naročnike >> mag. Andrej Ferlinc: Umetna inteligenca z vidika uporabe kazenskega prava

>> ali na portalu Pravna praksa, št. 13, 2024

>> Še niste naročnik? Preverite uporabniške pakete!

---------------------------------------

Opombe:
1 Primerjaj Mantovani, F.: Diritto Penale-Parte Generale, Universita di Firenze, Firence 2001, str. 316, in Carraciolli, I.:Manuale di Diritto Penale, Parte Generale, CEDAM, Milano 1998, str. 292. Carraciolli poudari, da brez zavesti in volje nihče ne more biti kaznovan (Nessuno puo esser punito ... se non l'a comessa con coscienza e volunta).
2 Več o tem Hafner, M.: Možgani kot objekt nadzorovanja: nevroznanost v kriminologiji, RKK, Ljubljana 2014, str. 121-124.
3 Zaokroženo o problematiki vpliva ustroja možganov glej v celoti delo Bunta, A., in drugi: Možgani na zatožni klopi: nevroznanost, kazensko pravo in kriminologija, GV Založba, Ljubljana 2015.
4 Definicijo UI z inštituta Maxa Plancka povzema Bogataj Jančič, M.: Ali je lahko umetna inteligenca avtor avtorskega dela, Inštitut za intelektualno lastnino, Ljubljana 2023, str. 165.
8 Prav tam.
9 https://en.wikipedia.org/wiki/ChatGPT .
10 Internetni vir, kot pod op. 6.
11 Roxin, C.: Strafrecht, Allgemeiner Teil I, Grundlagen Aufbau der Verbrechenslehre, C. H. Beck´sche Verlagsbuchhandlung, München 1997, str. 102.
12 Roxin, C., v novejšem delu iz leta 2006 z enakim naslovom kot pod prejšnjo op., str. 262, omenja personalni pojem ravnanja (nem. Der personale Handlungbegriff) ob poudarku, da je tisto, kar daje dejanju personalnost, človekova svobodna in avtonomna volja. To velja tudi za dejanja, za katera ni treba ugotavljati krivde po kazenskem pravu, imajo pa sicer negativni socialni pomen (socialni pojem ravnanja), kar sicer velja tudi v povezavi z UI.
13 Ambrož, M.:Kaznivo dejanje in njegove vrednostne prvine, Inštitut za kriminologijo pri PF v Ljubljani, Ljubljana 2007, str. 38. Avtor opozarja, da človekovo osebnost in s tem personalnost njegovega ravnanja v zvezi s kazenskim pravom oživi šele z ravnanjem, ki ustreza kakšni zapovedi ali prepovedi iz biti kazenskopravne norme. Takšna ravnanja pa so lahko le ravnanja človeka (v nadaljevanju komentar A. F.), ki sicer lahko povzročijo avtonomno ravnanje UI, in le človekovo ravnanje je lahko predmet presoje, ali UI deluje na način in s cilji, ki jih kazensko pravo označuje kot prepovedane. Kazensko pravo lahko določa le, kako bo moral ravnati človek, da bo preprečil posledice, ki jih lahko povzroči UI tudi tedaj, kadar ji je človek dopustil, da v posamezni fazi deluje povsem avtonomno.
14 Tudi internetni vir pod op. 9.
15 Ur. l. RS št. 50/12 - UPB in nasl.
16 Ur. l. RS, št. 32/12 in nasl.
17 Zgonik, S.:Umetna inteligenca počne stvari, na katere svet ni pripravljen, N1info.si, 8. april 2023, https://n1info.si/poglobljeno/umetna-inteligenca-pocne-stvari-na-katere-svet-ni-pripravljen/ .
18 Kranjc, J.:Latinski pravni reki, CZ Ljubljana, Ljubljana 1994, str. 207.
19 Horvat, Š.: Zakon o kazenskem postopku (ZKP) s komentarjem, GV Založba, Ljubljana 2004, str. 93 in 97. Ob uporabi komentarja tudi za UI bi nezakonita naslonitev na UI pomenila katerega od subjektivnih razlogov za oceno pristranskosti sodnika, zlasti če bi se sodnik seznanil z nedovoljeno vsebino o kakšnem dokazu, ki bi mu ga ponudila UI.
20 Burger, G.: Definicije in algoritmi UI, Digitalno inovacijsko središče Slovenije in Fakulteta za elektrotehniko Univerze v Ljubljani, https://www.dihslovenia.si/assets/images/DIH_Slovenia_Definicije_in_algoritmi_umetne_inteligence.pdf .
21 Završnik, A., in Šarf, P. v: Korošec, D., Filipič, K., in Devetak, H. (ur.): Veliki znanstveni komentar posebnega dela kazenskega zakonika (KZ-1), Uradni list RS in PF Univerze v Ljubljani, Ljubljana 2023, str. 786-826 in 1108-1137
22 Vprašanje ugotavljanja krivde v zvezi z varnostjo cestnega prometa pri uporabi samovozečih vozil je preveč široko, da bi ga lahko obravnavali v tem prispevku. Zaslužilo bi samostojno obravnavo. Na srečo je množična uporaba takih vozil še preveč odmaknjena, da bi bila obravnava aktualna že sedaj.
23 UL L 218 z dne 14. avgusta 2013.
24 Štruc. V., nav. delo.
25 Andersen, R.: Pozor: nevarnost! UI ne sme priti do kod za aktiviranje jedrskega orožja, revija Global, Ljubljana, september 2023, str. 24.
26 Simoniti, I.: Vode svobode, CZ, Ljubljana 2019, str. 47.
27 Zgonik, S., nav. delo.
28 Ferlinc, A.: Pravna država v Sloveniji in onkraj, Fakulteta za družbene vede, Založba FDV, PF v Mariboru, Ljubljana 2023, str. 10, 26 in 27. Avtor obravnava vzajemnost odnosa med demokracijo in pravno državo ter s tem povezana merila za obstoj pravne države.
29 Internetni vir, kot pod op. 6.


Članki izražajo stališča avtorjev, in ne nujno organizacij, v katerih so zaposleni, ali uredništva portala IUS-INFO.