Justiitsministeerium
6. veebruaril 2026
Arvamus eelnõule “Haldusmenetluse seaduse ja avaliku teabe seaduse muutmise seadus”
Täname, et pakkusite Tartu Ülikooli õigusteaduskonnale võimalust avaldada arvamust automaatsete haldusaktide andmist reguleerivale eelnõule. Kahjuks langes Teie poolt arvamuse andmiseks võimaldatud aeg aasta lõppu, mil ülikoolis on eksamiperiood. Et meie hinnangul toob seaduseelnõu kaasa olulisi muudatusi ja mõjusid põhiõigustele, millele seaduse seletuskirjas ei ole piisavalt tähelepanu pööratud, soovime siiski jagada oma tähelepanekuid ka Justiits- ja Digiministeeriumiga. Vabandame nende hilinemisega esitamise eest.
Eelnõu seletuskirja kohaselt kavatsetakse muuta haldusmenetluse seadust (HMS), et luua selge ja tehnoloogianeutraalne õiguslik raamistik automaatseks haldusmenetluseks.
Samuti selgitatakse seletuskirjas, et seaduseelnõu sisaldab mõningaid erisusi võrreldes varasema sarnase muudatusettepanekuga1, mis langes Riigikogu menetlusest välja koosseisu volituste lõppemise tõttu.
Järgnevalt oleme eraldi käsitlenud põhilisi eelnõu probleemkohti.
I. Automaatse haldusakti andmise volitusnorm
Eelnõus nähakse ette nö üldvolitus automaatseteks haldusaktideks/toiminguteks ilma, et vastavat haldusmenetlust reguleerivas eriseaduses tuleks täiendavalt sätestada automaatse haldusakti või toimingu volitusnorm (kavandatav § 71). Kavandatava muudatuse keskne eripära seisneb seega selles, et see annab haldusorganile üldise ja piiranguteta võimaluse kasutada haldusaktide andmisel, toimingute sooritamisel ja menetlustoimingute tegemisel arvutiprogrammil põhinevat automaatset haldusmenetlust. Eelnõu koostajad leiavad seega, et juhul kui haldusorganil on pädevus ja volitus vastava haldusakti andmiseks, võib ta ise otsustada, kas otsuse teeb inimametnik või arvutiprogramm. Arvutiprogrammi poolt otsuse tegemine hõlmab nii kindlaksmääratud parameetrite olemasolul automatiseeritud järelduste tegemist, kuid see võib hõlmata ka tehisintellekti kasutamist. Igal juhul on tegemist andmete kogumise ja töötlemisega, mis omakorda võivad olla isikuandmed või muud andmed.
I.1. Muudatuse kooskõla siseriikliku õigusega
Eesti Vabariigi Põhiseaduse § 3 lõikest 1 tuleneb üldine seadusereservatsiooni põhimõte, mille kohaselt tohib riigivõimu teostada üksnes põhiseaduse ja sellega kooskõlas olevate seaduste alusel. Iga isiku õigusi ja kohustusi mõjutav riigivõimu teostamine peab tuginema seadusandja poolt kehtestatud normatiivsele alusele, tagamaks selle demokraatliku legitimeerituse, õigusselguse ning kaitse meelevaldse halduspraktika eest. Täitevvõimu tegutsemise aluseks olev volitusnorm ning vastavad menetlusnormid peavad olema seda täpsemad, mida intensiivsem on põhiõiguste riive.2
Kavandatav HMS § 71 lg 1 sätestab, et haldusorganil on õigus kasutada haldusaktide andmisel, toimingute ja menetlustoimingute sooritamisel arvutiprogrammil põhinevat automaatset haldusmenetlust, ilma et selleks oleks vaja täiendavat eriseadusest tulenevat volitusnormi. Seega käsitatakse automaatotsust ühe võimaliku menetlusvormina, mille kasutamine sõltub haldusorgani otsustusest ning mida võib rakendada igal juhul, kui haldusorganil on pädevus vastav haldusakt anda.
Normi sõnastus ei erista automaatse menetluse kasutamise lubatavust otsuse liigi, kaalutlusruumi ulatuse ega määratlemata õigusmõistete esinemise järgi. Automaatne menetlus on lubatud ka olukordades, kus haldusorganil tuleb teha sisulisi kaalutlusotsuseid või sisustada abstraktseid õiguslikke standardeid. Seaduseelnõu seletuskirjast võib tuletada, et Justiits- ja Digiministeerium on seisukohal, et asjaomane seadusmuudatus täidab nõuet reguleerida „automaatse haldusmenetluse kasutamist sõnaselgelt seaduses, määrates, millises ulatuses ja tingimustel võib haldusorgan teha otsuseid ilma ametniku vahetu sekkumiseta.“3
Vastava seisukoha õigsuses tuleb kahelda põhjusel, et automaatotsust ei ole võimalik samastada inimese poolt tehtud otsustega. Automaatselt koostatud haldusakt ja ametniku poolt välja antud haldusakt on sisuliselt erinevad. Erinevuse tuum seisneb selles, kuidas otsus tehakse, selle kvaliteedis ning samuti sellest tulenevast otsuse kontrollitavuses.
Ametniku poolt välja antud haldusakt põhineb hindaval otsustusprotsessil. Ametnik ei võta asjaolusid vastu pelgalt andmekogumina, vaid liigitab need õiguslikult, kaalub asjakohaseid asjaolusid ja põhjendab, miks just need asjaolud olid otsuse tegemisel olulised ja teised mitte. Otsus põhineb inimlikul tõlgendamisel, õiguslikul subsumptsioonil ja normatiivsel hindamisel. See võimaldab samal ajal ka otsuse kontrollitavust: kolmandad isikud saavad põhjenduse ja toimiku alusel aru, kuidas ametiasutus on faktidest tulemuseni jõudnud. Lisaks on otsus seostatav konkreetse isikuga, mis tagab isikliku vastutuse.
Automaatselt koostatud haldusakt on seevastu sisult reeglite- ja andmepõhine. Otsus tehakse eelnevalt kindlaksmääratud otsustusreeglite või statistiliste mudelite kohaldamise abil sisestatud andmetele. Süsteem ei hinda üksikjuhtumit individuaalse õigusliku kaalumise mõttes, vaid liigitab selle eelnevalt määratletud kategooriatesse. Sellest lähtuvalt on eriti tehisintellekti ja masinõppe lahenduste abil genereeritud otsus põhjendatav ainult piiratud ulatuses: küll on võimalik kirjeldada, milliseid reegleid või parameetreid on rakendatud, kuid üldiselt mitte seda, miks need konkreetsel juhul on asjakohased.4 Eriti keerukamate süsteemide puhul ilmneb automaatlahenduste ning eeskätt tehisintellekti abil genereeritud automaatlahenduste puhul nn musta kasti omapära: tee sisendist väljundini on ka seda rakendava asutuse jaoks vaid piiratud ulatuses selge.5
Eelöeldust lähtuvalt on inimese ja tehnoloogia abil tehtud otsuse jälgitavus sisuliselt erinev. Kui inimese otsust saab rekonstrueerida keele, argumenteerimise ja juriidilise loogika abil, siis automatiseeritud otsuste puhul jääb sageli ebaselgeks, millised kaalutlused, seosed või kriteeriumid olid konkreetsel juhul otsustavad. Seetõttu on ka vastutus sisuliselt erinev: otsust ei saa omistada konkreetsele otsustajale, vaid ainult süsteemi disainile ja abstraktsele arvutiprogrammile, mis nõrgendab otsuse individuaalset vastutuse mõõdet ja eeldab selle eraldi reguleerimist.6
Sisu poolest on tegemist seega kahe olemuslikult erineva otsuse tüübiga: inimese haldusakt või toiming on normatiivselt põhjendatud üksikotsus, automaatne haldusakt on reeglipõhine või statistiline klassifikatsioon. Just need erinevused põhjendatuses, jälgitavuses ja vastutuse omistatavuses selgitavad, miks neid kahte ei saa mõista sisuliselt võrdväärsete riiklike otsustusvormidena.
HMS § 71 lg 1 ei sisalda ühtegi sisulist piirangut ega kriteeriumi selle kohta, millistel juhtudel, millise intensiivsusega õiguste riive korral või millist liiki haldusotsuste puhul on automaatse, sh tehisintellekti abil genereeritud menetluse kasutamine lubatav. Norm ei erista näiteks juhtumeid, kus automaatne menetlus mõjutab üksnes haldusakti tehnilist vormistamist, olukordadest, kus automatiseerimine mõjutab otsuse sisulist kujunemist.7
Täiendavalt väärib tähelepanu, et lähtuvalt seaduse eelnõust ei ole riigil ka kavas koordineerida haldustegevuse automatiseerimisega seotud küsimusi ega hinnata konkreetselt nende mõju. Nagu kinnitab ka seaduse seletuskiri, on automaatse menetluse rakendamine haldusorganile vabatahtlik ning “[m]õju ulatus sõltub [üksnes] sellest, kui laialdaselt seda menetlust kasutama hakatakse – mida laiem on kasutus, seda suurem on mõju nii elanikkonnale kui ka avalikule sektorile tervikuna.”8 Seletuskirjast ei järgne õiguslikku ega sisulist hinnangut võimalike mõjude kohta, vaid tõdetakse kokkuvõtvalt, et väheneb halduskoormus. Puudub ka hinnang kulude kohta, mida automatiseeritud menetluse süsteemide ülalpidamine ning nende vajalik turvalisuse tagamine endaga kaasa toob. Sellise regulatsiooni selgust ja kindlust (PS § 3) ei saa seetõttu pidada piisavaks. Nagu ülalpool selgitatud, on just tehisintellekti abil genereeritud automaatotsuste üheks omapäraks konkreetse vastutuse taandumine ning otsuste läbipaistmatus. Seda selgemini peab seetõttu olema reguleeritud vastutuse kandmine, kui avalik võim otsustab neid kasutusele võtta. Tähelepanuta ei saa tänases olukorras ka jääda julgeolekuohud, mis kaasnevad olukorraga, kus üksikud haldusorganid saavad endamisi ja iseseisvalt otsustada, mis ulatuses, kuidas ja milliste tehnoloogiliste lahenduste abil riigikorraldust automatiseerida. Sellise lahendusega kaasevad potentsiaalsed ohud, mis võivad tuleneda nt võõrvõimude või ka lihtsalt pahatahtlike inimeste poolt koordineeritud rünnakutest süsteemidele, teiste riikide või korporatsioonide huvides installeeritud tarkvarast jne vajavad maandamist enne seda, kui regulatsioon vastu võetakse.
Automatiseeritud toimingud tulevad kõne alla ka haldusorgani algatusel alustatud järelevalvemenetluses, kus massandmevõrdlust kasutades on võimalik automaatselt tuvastada erinevate rikkumiste fakte.9 Nii on õiguskirjanduses väljendatud seisukohta, et kuivõrd järelevalve ettevalmistamise eesmärgil massisikuandmete töötlemine tähendab intensiivset eraelu puutumatuse riivet, ei ole andmete automatiseeritud võrdlus konkreetsete haldusmenetluste jaoks loodud üldiste volitusnormide alusel lubatav.10
Regulatsioon vastab seega küll näiliselt põhiseaduse § 3 lg-st 1 tulenevale seaduslikkuse põhimõttele, kuna automaatne haldusmenetlus kui riigivõimu teostamise vorm on otsesõnu sätestatud seaduses. Automaatse, sh tehisintellekti abil genereeritud haldusmenetluse üldine ja diferentseerimata lubatavus tähendab, et seadusandja on jätnud otsustamise automatiseerimise ulatuse ja intensiivsuse osas sisuliselt täies ulatuses haldusorgani otsustada. Seetõttu tuleb asuda seisukohale, et kavandatud regulatsioon ei ole sisuliselt kooskõlas üldise seadusereservatsiooni põhimõttega, kuna vabal volil haldusorganite poolt rakendatavate automaatotsuste puhul ei ole tagatud haldusotsuste demokraatlik legitimeeritus, õigusselgus ega inimese piisav kaitse meelevaldse halduspraktika eest.
Eelöeldut näitlikustab muuhulgas Hollandi kogemus ja sellest sündinud kohtuvaidlus. Nimelt kasutasid Hollandi sotsiaalvaldkonna haldusorganid SyRI (Systeem Risico Indicatie) riskihindamise süsteemi, mis töötles suures mahus andmeid, et tuvastada võimalikke sotsiaaltoetuste, maksude ja muude hüvede kuritarvitajaid. Süsteem toetus laiale andmete ristkasutamisele eri riigiasutuste vahel, kasutades muuhulgas automatiseeritud ja masinõppepõhiseid riskiskooringuid. Praktikas tõi see kaasa olukordi, kus peresid hakati intensiivselt kontrollima, toetusi peatati või nõuti tagasi ning mitmel juhul seati kahtluse alla vanemate võimekus lapsi kasvatada. Mõnel juhtumil viis see laste ajutise või püsiva perest eraldamiseni. Teistel puhkudel kaasnesid perede sotsiaalse ja majandusliku olukorra halvenemisega vaimse tervise kriisid kuni enesetappudeni välja. Süsteemi toimimise mõju ning sellest tingitud tagajärjed tulid laiemalt ilmsiks alles pärast mitmeaastast SyRI kasutamist.
Haagi ringkonnakohus otsustas 2020. aasta veebruaris, et SyRI rikkus Euroopa inimõiguste konventsiooni artiklit 8, millest tuleneb põhiõigust eraelu puutumatusele. Mh leidis kohus, et süsteem ei vastanud artikli 8 lõike 2 nõuetele. Artikkel 8 lõige 2 lubab eraellu sekkumist üksnes tingimusel, et sekkumine põhineb selgel ja arusaadaval seaduslikul alusel ning on proportsionaalne. Kohus rõhutas, et seadus peab andma inimestele arusaamise, milliseid andmeid, kuidas ja milleks kasutatakse. SyRI puhul ei olnud selgelt teada, milliseid riskinäitajaid kasutatakse; ei olnud võimalik hinnata algoritmi toimimist; andmete suur ulatus ja ristkasutus muutis süsteemi sisuliselt „mustaks kastiks“. Kohus leidis, et selline läbipaistmatus ei võimalda inimestel mõista, kuidas nende andmeid kasutatakse, mistõttu ei ole sekkumine „seaduses ette nähtud“ artikli 8 tähenduses. Samuti leidis kohus, et seadus andis riigile liiga laialdased volitused andmeid siduda ja töödelda. Kohus rõhutas, et seaduslik alus peab olema piisavalt konkreetne, et kaitsta isikuid meelevaldse või ülemäärase sekkumise eest. Kohus rõhutas ka, et uute tehnoloogiate (nt masinõppe riskisüsteemide) rakendamisel on riigil eriline kohustus tagada kõrgendatud kaitsemeetmed ja kontroll, et vältida põhiõiguste rikkumist. SyRI puhul sellised tagatised puudusid. Haagi Ringkonnakohtu otsust peetakse oluliseks pretsedendiks automaatotsuste, riskiskooringu ja avaliku halduse automaatse andmetöötluse õiguspärasuse hindamisel kogu Euroopas.11
I.2. Muudatuse kooskõla EL õigusega
I.2.1. Muudatuse kooskõla IKÜM-iga
Peame küsitavaks ka eelnõus väljapakutud üldvolituse kooskõla IKÜM-ga. IKÜM art 22 lg 1 näeb üldpõhimõttena ette (inimväärikuse põhimõttele tagasiviidava) õiguse olla mitte automaatotsuste subjektiks: „Andmesubjektil on õigus, et tema kohta ei võetaks otsust, mis põhineb üksnes automatiseeritud töötlusel, sealhulgas profiilianalüüsil, mis toob kaasa teda puudutavaid õiguslikke tagajärgi või avaldab talle märkimisväärset mõju.“. Kõnealust põhimõtet ei rakendata lg 2 punkti b kohaselt juhul, kui otsus „on lubatud vastutava töötleja suhtes kohaldatava liidu või liikmesriigi õigusega, milles on sätestatud ka asjakohased meetmed andmesubjekti õiguste ja vabaduste ning õigustatud huvide kaitsmiseks“.
Seega IKÜM lubab täielikult automatiseeritud otsuseid ainult siis, kui need on:
(1) (liidu või) liikmesriigi õigusega ette nähtud ja
(2) sisaldavad kaitsemeetmeid (õigus inimlikule sekkumisele, selgitustele, vaidlustamisele (IKÜM art 22 lg 2 p b)).
IKÜM rõhutab lisaks õigusselguse põhimõtet, millest tulenevalt peab ka automaatotsuse võimalikkus olema puudutatud isikutele ettenähtav.12
Lisaks on IKÜM art 22 lg 2 p b) kohaselt täielikult automatiseeritud otsusete kehtestamisel siseriikliku õiguse alusel üheks tingimuseks asjakohaste meetmete kehtestamine andmesubjekti õiguste ja vabaduste ning õigustatud huvide kaitseks. Sõnaga „asjakohased“ rõhutatakse vajadust arvestada konkreetse valdkonna automatiseerimise eripäradega, arvestades vastava automaatotsuse (sotsiaalvaldkond või ettekirjutus, tegevusloa peatamine või kehtetuks tunnistamine) ohtudega ja riivatavate põhiõigustega. IKÜM pp-s 71 tuuakse välja, et „igal juhul tuleks sellise töötlemise korral kehtestada sobivaid kaitsemeetmeid, mis peaksid hõlmama andmesubjektile konkreetse teabe andmist ja õigust otsesele isiklikule kontaktile, õigust väljendada oma seisukohta, õigust saada selgitust otsuse kohta, mis tehti pärast sellist hindamist, ning õigust seda otsust vaidlustada. Selline meede ei tohiks puudutada last.“
Seletuskirja kohaselt on nendeks kaitsemeetmeteks eelnõus ette nähtud regulatsioon, mille kohaselt peavad automaatses haldusaktis olema nimetatud andmekogude ja infosüsteemid, mida otsuse tegemiseks on kasutatud, samuti andmesubjekti õigus vahetule isiklikule kontaktile haldusorganiga, millest kohustab seadus andmesubjekti teavitama.13
IKÜM art 22 lg 3 kohaselt kuulub sama artikli teise lõike punktis b) nimetatud kaitsemeetmete hulka vähemalt õigus otsesele isiklikule kontaktile vastutava töötlejaga, et väljendada oma seisukohta ja vaidlustada otsus. Võib küsida, kas eelnõus kehtestatud regulatsioon, mille kohaselt haldusorgan peab tagama, et menetlusosalist või taotlejat teavitatakse sellest, et tal on võimalus vahetule isiklikule kontaktile haldusorgani nimel tegutseva isikuga, annab piisavalt selgelt edasi normi eesmärgi, milleks on andmesubjektile otsuse ülevaatamise õiguse andmine.14 Küsitav on samuti, kas IKÜMi mõte ei ole pigem siiski nõuda liikmesriigil „asjakohased“ kaitsemeetmete kehtestamist, lähtuvalt konkreetse automatiseeritava otsustusega kaasnevate ohtude ja eripärade hindamisest.
I.1.1. Muudatuse kooskõla tehisintellektimäärusega
Täiendavalt pöörame siinkohal tähelepanu Euroopa Parlamendi poolt 2024 vastu võetud tehisintellektimäärusele (TI-määrus (EL) 2024/1689), mille keskse tähtsusega keelud hakkasid kehtima veebruarist 2025 ja üldised kohustused kõrge riskiga tehisintellekti süsteemide suhtes muutuvad siduvaks alates 2. augustist 2026. Nagu nähtub ka Eesti poliitilistest ning seadusandlikest eesmärkidest laiemalt, on üheks eelnõuga ette nähtud automaatotsuste oluliseks rakendusvaldkonnaks tehisintellekti-lahenduste kasutamise võimaldamine halduses. Sellega seoses märgime järgmist:
TI-määruse jõustumisega ei ole AI kasutamine avaliku sektori asutuste poolt enam liidu õiguse kohaselt ainult siseriiklike pädevus- või volituste normide küsimus, vaid sellega on seotud täiendavad, vahetult kohaldatavad Euroopa õiguse nõuded. Siinjuures tuleb mh silmas pidada, et haldusasutuste tehisintellekti süsteemid, mis mõjutavad oluliselt füüsiliste isikute tervist, ohutust või põhiõigusi, tuleb klassifitseeruvad üldjuhul kõrge riskiga tehisintellekti süsteemideks (TI-määruse artikkel 6 koostoimes selle lisaga III). Selliseid süsteeme tohib kasutada ainult juhul, kui enne nende kasutamist on kehtestatud dokumenteeritud riskijuhtimissüsteem, mis käsitleb mh diskrimineerimise ja valede otsuste riske (artiklid 9–13 AI Act). Kohustuslik on mh ka selliste süsteemide tõhus inimjärelevalve, mis tagab, et automatiseeritud tulemusi saab kontrollida, parandada või tühistada ning et otsustusvastutus ei kandu tegelikult üle süsteemile (TI-määrus art 14). Lisaks kehtivad eraldi nõuded tehnilisele töökindluse ja turvalisuse (mh TI-määrus art 15).
Selle taustal ei piisa siseriiklikust regulatsioonist, mis lubab avaliku sektori asutustel üldiselt kasutada tehisintellekti oma äranägemise järgi kõikjal, kus neil on juba materiaalõiguslik otsustuspädevus. TI-määrus seab tehisintellekti kasutamisele halduses sisulised ja menetluslikud piirangud, mida tuleb järgida sõltumata riiklikust õigusest, sh riskide klassifitseerimise, kaitsemehhanismide ja inimkontrolli osas.
Kuna antud küsimust ja regulatsioonide koosmõju ei ole käesoleva seadusmuudatuse raames täiendavalt selgitatud tuleb asuda seisukohale, et siseriiklik regulatsioon võib aidata kaasa sellele, et sellele tuginevad Eesti haldusorganid jäävad tähele panemata täiendavalt (otse-)kohalduva EL TI-määruse. Ka antud küsimuses ei saa asjaomast eelnõud pidada piisavalt selgeks.
I.2. Eriliiki isikuandmetel põhineva automaatse haldusakti andmine isiku nõusolekul
Eelnõu § 7 prim teise lõike kohaselt võib automaatne haldusakt põhineda eriliiki isikuandmetel isiku nõusolekul. Juhime siinkohal tähelepanu, et üldjuhul ei ole nõusolek sobiv õiguslik alus isikuandmete töötlemisel avaliku võimu poolt, kuna avaliku võimu ja isiku vahel puudub tegelik võrdsus. IKÜM põhjenduspunkt 43 kohaselt: „Selle tagamiseks, et nõusolek on antud vabatahtlikult, ei tohiks nõusolek anda isikuandmete töötlemiseks kehtivat õiguslikku alust konkreetsel juhul, kui andmesubjekt ja vastutav töötleja on selgelt ebavõrdses olukorras, eriti juhul kui vastutav töötleja on avaliku sektori asutus, ning seega on ebatõenäoline, et nõusolek anti selle konkreetse olukorra kõigi asjaolude puhul vabatahtlikult.“ Arvestades sellega, et kavandatud seadusmuudatus annab haldusorganitele täiesti vabad käed otsustamaks, kunas nõusoleku alusel töödelda eraliiki isikuandmeid automaatotsustes, ei saa sellist regulatsiooni pidada piisavalt õigusselgeks. On tõenäoline, et haldusorgan võib normi sõnastuse õigsust usaldades selle rakendamisel rikkuda EL andmekaitseõigust.
I.3. Kaalutlusõigus, määratlemata õigusmõisted ja hindamisotsused
Eelnõus nähakse ette automaatsete haldusaktide ja toimingute tegemise võimalus sõltumata sellest, kas haldusakti andmisel või toimingu sooritamisel tuleb sisustada määratlemata õigusmõisteid või rakendada kaalutlusõigust.
Seletuskiri selgitab siinjuures järgnevat: “Automaatne menetlus on võimalik ka kaalutlusotsuste ja määratlemata õigusmõiste korral. See tähendab, et haldusakti on võimalik anda automatiseeritult ka juhul, kui otsustamisel on vaja lähtuda mitmest asjaolust või leida isikule mitme võimaluse seast sobivaim lahendus. Arvutitarkvarad on suutelised tegema ka kaalutlusotsuseid, kui kaalutlused on neile ette määratud reeglitega ehk standarditud. See tähendab, et valikute hulk on piiratud ning süsteem valib sobiva lahenduse oma loogikat järgides. Kui kaalutlust toetab väga täpne algoritm ja andmestik, on tarkvara võimeline hindama olulisi asjaolusid ning tegema õige otsuse. Näiteks saab süsteem kaaluda, kas määrata maksuviivis või mitte, kui on teada tasumise hilinemise aeg, korduvus ja eelnev ajalugu. Samuti toetab automaatseid kaalutlusotsuseid fakt, et igal ajahetkel säilib inimese sekkumise võimalus ehk inimene peab tehtud otsuse üle kontrollima, kui menetlusosaline seda soovib.
Tuleb arvestada, et ka n-ö traditsiooniline, inimese osalusel toimuv haldusmenetlus võib olla vigane, kaalutluste ja põhjendusteta. Seevastu võib õige algoritm õiges olukorras õiguspäraste haldusotsuste osakaalu suurendada ja halduskulusid vähendada.“
Antud seisukohaga ei ole – lähtuvalt tänase päeva teadmiste seisust – võimalik nõustuda.
Nagu ka ülalpool selgitatud, võrdsustab tehtav seadusmuudatus omavahel kahte kvalitatiivselt erinevat otsustusloogikat: õiguslikku kaalumist ja statistilist või reeglipõhist valikut. Inimese poolt teostatav kaalumine ei ole üksnes tehniline valik mitme variandi vahel, vaid kognitiivne otsustus, milles haldusorgan peab siduma õigusnormi eesmärgi, konkreetse juhtumi asjaolud ja põhiõiguste kaitse. Isegi kui kaalutluskriteeriumid on seaduses või halduspraktikas standarditud, eeldab nende rakendamine inimese poolt teostatavat, individuaalset hinnangut sellele, milline asjaolu on konkreetses olukorras otsustav, kuidas neid omavahel kaaluda ning kas tulem vastab õiguse eesmärgile. Isegi väga täpne automatiseeritud lahendus või algoritm ei teosta sellist „kaalumist“, vaid rakendab kas deterministlikku reeglistikku või tõenäosuspõhist mudelit. Viimasel juhul ei tehta otsust normatiivse põhjenduse alusel, vaid tõenäosusarvutuse või mustripõhise järelduse tulemusena, mistõttu kanduvad otsustusse paratamatult automaatselt ka andmestikus ja mudelis sisalduvad varjatud eeldused ja kallutatused, mida ei hinnata ega korrigeerita õiguse normatiivsetest eesmärkidest lähtuvalt.15 Seetõttu on just automatiseeritud süsteemidele omane see, et diskrimineerivad või ebaproportsionaalsed tulemused ei ilmne üksikute eksimustena, vaid korduvad süsteemselt ja skaleeritult kõigi sarnaste juhtumite puhul.
Erinevus seisneb ka selles, et õigusliku kaalumise põhjendamist võib nõuda seda teostanud inimeselt viisil, mis võimaldab otsuse sisulist kontrolli, samas kui algoritmi otsus on üldjuhul tagantjärele seletatav vaid üldisel tasandil („süsteem pidas seda lahendust sobivaimaks“), ilma et oleks võimalik tuvastada, miks just selle isiku puhul konkreetne tulemus kujunes.
Õiguskantsler on eelöeldud mõtteid kokku võtnud järgenvate sõnadega: „[…] kaalutlusõigus ja otsuste loov eluline põhjendamine on ainsad teed õiglaste, mõistlike, inimõigusi austavate lahendusteni. Elu kogu ta keerukuses mõistab inimene, sest inimesel on tunded ja inimlik loovus. Inimese saatust otsustavaid lahendusi masinale usaldada ei luba ka Euroopa Liidu isikuandmete kaitse ega tehisaru kasutamise määrused.“16
Ka ei kõrvalda väide inimese sekkumise võimaluse säilimisest automatiseeritud otsustamise põhimõttelisi probleeme. Kui inimese roll piirdub üksnes automaatse otsuse järelkontrolliga menetlusosalise taotluse alusel, nihkub otsustamise raskuskese siiski masinale. Praktikas tähendab see, et esmane ja määrav otsus sünnib algoritmi loogika alusel ning inimese sekkumine toimub alles siis, kui isik oskab ja suudab otsust vaidlustada. See eeldab aga, et isik mõistab otsuse aluseid, mis automatiseeritud menetluses on sageli piiratud või abstraktsed. Seetõttu ei ole inimsekkumine sellisel kujul samaväärne olukorraga, kus otsus kujuneb algselt inimese normatiivse kaalutluse tulemusena.
Nõustuda ei saa ka argumendiga, mille kohaselt automatiseeritud kaalutlusotsused on õigustatumad seetõttu, et ka inimotsused võivad olla vigased või puudulikult põhjendatud. Õigusriiklikust vaatepunktist ei ole küsimus selles, kas otsused võivad olla ekslikud, vaid selles, kas otsustusprotsess ise vastab õiguse struktuursetele nõuetele. Inimese tehtud kaalutlusotsus on põhimõtteliselt alati individuaalne ja vastutusega seostatav; selle puudusi saab hinnata ja parandada õiguskaitsevahendite kaudu. Automatiseeritud otsuse puhul on vastutus, normatiivne põhjendus ja kaalutluse sisu hajutatud süsteemi, reeglite ja andmestike vahele, mistõttu ei ole eksimus üldjuhul üksikjuhtum, vaid potentsiaalselt süsteemne ja selle võimalik negatiivne mõju oluliselt ulatuslikum kui inimese põhjustatud individuaalne viga.
Eelöeldust lähtuvalt ei saa automatiseeritud menetlust kaalutlusotsuste tegemisel pidada inimese kaalutlusotsusega sisuliselt samaväärseks ega järeldada, et selle kasutamine oleks põhimõtteliselt õiguspärasem või eelistatavam.
Erilist mõju võib tehisintellekti poolt genereeritud, kaalutlusõigusega automaatotsuste puhul omandada neile omane diskrimineerimise risk, mille maandamise vajadusele pöörab eraldi tähelepanu ka IKÜM pp 71. AI-süsteemide tehniline kallutatus võib tuleneda kasutatud andmete eelnevast kallutatusest, kuid võib tekkida ka AI-süsteemi rakendamisel. Näiteks preventiivse politseitöö puhul võivad tagasisidemehhanismid viia teatavate (sh madalama sissetulekuga või ka immigratsioonitaustaga elanike suure osakaaluga) piirkondade suurema järelevalveni, mis viib omakorda „kõrge riskiga” isikute ebaproportsionaalselt kõrge politseilise kontrollini, sõltumata tegelikust kuritegevuse määrast.17 Kui teatud rühmi on ajalooliselt koheldud ebasoodsamalt, võtab mudel selle praktika omaks ning taastoodab seda näiliselt neutraalse optimeerimisprotsessi kaudu. Seejuures võib diskrimineeriv mõju ilmneda ka siis, kui otseselt kaitstud tunnuseid, nagu sugu või rahvus, ei kasutata, sest algoritm suudab nende asemel tugineda proksitunnustele (nt sissetulek, elurajoon), mis on nendega tihedalt seotud ning viivad sisuliselt sama tulemuseni. Automatiseeritud kaalutlusotsus üldistab ja standardiseerib kaalutluse, rakendades sama otsustusloogikat suurele hulgale juhtumitele võimaluseta võtta arvesse individuaalset konteksti. Kui algoritmi loogika on kallutatud, siis ei avaldu diskrimineeriv mõju juhuslikult, vaid süstemaatiliselt ja korduvalt, mis suurendab selle mõju ulatust ja intensiivsust.
I.4. Automaatotsused ja riigivastutus
Juhime tähelepanu ka asjaolule, et õiguskirjanduses on I. Pilving osundanud vajadusele täpsustada seoses automaatsete haldusaktidega ka riigivastutuse seadust. Automaatsete haldusotsuste puhul on tõusetub küsimus, kas arvutisüsteemi poolt antud otsusega tehtud vigu saab riigile omistada samamoodi nagu haldusorgani nimel tegutsevate ametnike omi. Eesti riigivastutusõigus nähakse ühelt poolt küll kahju tekitajana avaliku võimu kandjat, mitte konkreetset ametnikku, mistõttu näib loogiline omistada ka automaatseid otsuseid avaliku võimu kandja tegevuseks, kuid kehtiv seadus ei väljenda seda sõnaselgelt. Täisautomaatsete otsuste korral võib tõusetuda tõlgendusprobleem, sest RVastS § 12 räägib füüsilise isiku poolt põhjustatud kahjust, mis ei kirjelda hästi algoritmide autonoomset tegevust. Seetõttu on õiguskirjanduses peetud otstarbekaks seadust täiendada selgesõnalise sättega, et ka infosüsteemi vahendusel tehtud teod loetakse avaliku võimu tegevuseks.18
Automatiseerimisega kaasneb sageli suurem keerukus, ettenägematus ja nn musta kasti efekt, mistõttu on raske kindlaks teha konkreetseid vigu ning nende põhjustajaid. Riigivastutuse süsteem peaks seetõttu võimaldama keskenduda lõpptulemuse õigusvastasusele, mitte üksikute ametnike süüle. Kui automaatika suurendab tavapärast riski, peab riik kandma kahjuriski täielikult, et mitte suunata selle tagajärgi juhusliku kannatanu kanda.19
Lugupidamisega
Paloma Krõõt Tupay, riigiõiguse kaasprofessor
Monika Mikiver, haldusõiguse külalislektor