Akademska literatura o uporabi umetne inteligence pri sodniškem odločanju je vse bolj obsežna. Avtorji v njej izpostavljajo prednosti in ovire za uporabo umetne inteligence pri sodniškem odločanju in pri tem na eni strani poudarjajo olajšanje sodniškega dela in možnost večje učinkovitosti, hkrati pa opozarjajo na potrebo po sodniških izkušnjah, predvsem v zapletenih in nevsakdanjih primerih (gl. npr. Cofone, Reiling). V tej kolumni, ki bo objavljena v dveh delih, želim s kritičnega vidika na kratko predstaviti pogled na uporabo umetne inteligence pri sodniškem odločanju, ne le na teoretični ravni, temveč predvsem na podlagi praktičnih problemov, ki jih izzove uporaba te tehnologije na sodiščih.
Uvodoma je treba poudariti, da obstajajo različne stopnje uporabe umetne inteligence pri sodniškem odločanju. Te stopnje nihajo od uporabe tehnologij za iskanje sodne prakse pa do programov, ki zmorejo predvideti in predlagati konkretno in individualno sodno odločbo. Problematika, do katere se bom opredelila v nadaljevanju, se dotakne predvsem tistih oblik uporabe umetne inteligence, kjer slednja »aktivno sodeluje« pri sodniškem odločanju, s tem pa torej lahko vpliva na razlago in končni rezultat sodbe. Za tovrstno aktivno vlogo umetne inteligence po mojem mnenju obstajajo številne ovire.
Sodniška neodvisnost
Temeljna težava uporabe umetne inteligence pri sodniškem odločanju je po mojem mnenju morebiten vpliv na neodvisnost sodne veje oblasti. Sodniki morajo biti, brez kančka dvoma, neodvisni in nepristranski. Sodnik mora biti torej neodvisen nasproti katerikoli drugi veji oblasti ali kakršnimkoli interesom tretjih, na primer gospodarskih združenj ali nevladnih organizacij, hkrati pa nepristranski do lastnih predsodkov. Sicer je res, da lahko umetna inteligenca na neki matematični ravni, z ogromno količino podatkov, izloči nekatere predsodke. Kljub temu pa pri uporabi umetne inteligence v zvezi z vprašanjem sodniške neodvisnosti obstajajo upravičeni dvomi, kot je na primer transparentnost delovanja sistemov umetne inteligence in baz podatkov, ki jih sistemi uporabljajo (gl. npr. Felzmann et al.), tudi zato, ker so to pogosto poslovne skrivnosti podjetij, ki niso javno dostopne (gl. npr. Zalnieriute).
S tega vidika je ena od razlik med odločanjem umetne inteligence in odločanjem sodnika po mojem mnenju v tem, da se človek morebitnih predsodkov lahko zaveda in jih zavestno izloči, tehnologija pa tega ne more storiti. Poleg tega je možno, da so pri avtomatskem odločanju predsodki prisotni že v osnovnem podatkovnem nizu oziroma bazi podatkov (gl. npr. Larsson), zato je za kakršnokoli avtomatsko odločanje ključna kvaliteta podatkov.
Zato le s težavo razumem, kako lahko z gotovostjo trdimo, da bi lahko bila umetna inteligenca na splošno bolj neodvisna od človeških sodnikov, zlasti v občutljivih zadevah, kjer je integriteta pri odločanju ključnega pomena. Dober sodnik z visoko stopnjo integritete se po mojem mnenju zaveda pomena sodniške neodvisnosti in je vseskozi pozoren na to, da na zadevo, v kateri odloča, gleda s kar največjo mero objektivnosti. Če je, nasprotno, neodvisnost umetne inteligence odvisna od številnih faktorjev (na primer kvalitete in količine podatkov ali vrste programov in kod), so splošne trditve o njeni neodvisnosti precej tvegane. Glavna razlika med človeškim in strojnim odločanjem je morda prav zato sposobnost dvoma o samem sebi in nenehno bedenje nad objektivnostjo sodniške odločitve.
Odgovornost za sodno odločitev
Druga temeljna težava, ki jo odpira uporaba umetne inteligence pri sodniškem odločanju, je vprašanje odgovornosti za sodno odločitev. Če je umetna inteligenca pregledala na primer 1000 obstoječih sodnih odločb in na tej podlagi predlagala rešitev v konkretnem primeru, se upravičeno zastavlja vprašanje, ali bi si sodnik sploh drznil odločiti drugače. Kot vemo, je odstop od sodne prakse včasih utemeljen tudi, ko je ta praksa že ustaljena, predvsem če za to obstajajo tehtni razlogi. Morda je tožnik v drugačnem položaju, kar lahko upravičuje drugačno rešitev. Morda so se od prejšnjih odločitev družbene vrednote spremenile do te mere, da je drugačna odločitev nujna – pomislimo na primer na zadeve glede varstva okolja. Francoski državni svet je tako pred kratkim pravici do življenja v pravičnem in spoštljivem okolju za zdravje priznal status temeljne pravice (sodba francoskega državnega sveta št. 451129 z dne 22. 9. 2022), kar je v sodni praksi novost. Primere odstopanja od sodne prakse je mogoče najti tudi v sodni praksi Sodišča EU. V zadevi Metock (C-127/08) je Sodišče EU na primer izrecno odstopilo od dotedanje sodne prakse na področju državljanstva Unije in odločilo, da se lahko oseba, ki ni državljan Skupnosti, pridruži svojemu zakoncu, ki je državljan EU, v državi članici, ne glede na to, kdaj in kje sta sklenila zakonsko zvezo ter kako je ta zakonec vstopil v državo članico gostiteljico.
Res je, da t. i. koncept smiselnega osebnega posredovanja (meaningful human intervention), ki ga je v evropsko zakonodajo uvedel 22. člen Splošne uredbe o varstvu podatkov, skuša vpeljati element človeške odgovornosti tudi v proces avtomatskega odločanja. Vseeno pa pri avtomatskem odločanju ostaja odprto vprašanje, kdo je pravzaprav tisti, ki mora prevzeti končno odgovornost za tovrstno odločitev. V procesu sodnega odločanja se zdi najbolj smiselno, da bi bil to sodnik, vendar pa je vprašljivo, ali bi sodnik sprejel odgovornost za proces odločanja, na katerega nima prav veliko vpliva.
O vprašanju uporabe umetne inteligence pri odločanju bi lahko napisali na stotine strani. A ker je to kolumna, se bom tukaj ustavila, v drugem delu pa razmišljala o nadaljnjih ovirah in tudi morebitnih prednostih uporabe umetne inteligence pri sodniškem odločanju.
Članki izražajo stališča avtorjev, in ne nujno organizacij, v katerih so zaposleni, ali uredništva portala IUS-INFO.