Mats Volberg: inimeste erapoolikus ja topeltstandardid masinatele
Inimeste erapoolikus on üheks peamiseks motivaatoriks masinate otsustusprotsessi kaasamiseks. Seega on masinatele erapoolik olemist ette heita kergelt silmakirjalik. Kuid kas miski võiks siiski põhjendada halduskrati teisiti kohtlemist, arutleb Mats Volberg.
Eelmisel nädalal Tartus aset leidnud 36. õigusteadlaste päevade raames toimus paneeldiskusioon "Tehisintellekti rakendused haldusmenetluses". Paneeli raames räägiti edukatest tehisintellekti rakendustest haldusmenetluses faktiliste asjaolude tuvastamiseks (nt SATIKAS), kuid masinatele sisuliste otsuste usaldamise osas oldi pigem kõhkleval positsioonil.
Ühe murena nenditi tehisintellekti valdkonnas tuntud "musta kasti" probleemi. Olles loonud tehisintellekti, mis langetab otsuseid (näiteks haldusmenetluse raames rahuldades osad taotlused ja lükates tagasi teised), siis saame jälgida lähteandmed, mida masinale söödame ning lõpptulemust, mis masinast välja tuleb, kuid piisavalt keeruka masina puhul pole keegi võimeline täpselt ütlema, kuidas masin sellise tulemuseni jõudis.
Masin on meie jaoks must kast. Haldusmenetluse raames on see probleem eriti terav, sest haldusmenetluse seaduse § 56 lõige 1 järgi on õiguspärase haldusakti üheks tunnuseks selle põhjendus.
Kui ehk investeerimismasina puhul võiksime olla rahul, et masin langetas otsuse teha mingeid tehinguid ja mitte hoolida otsustusprotsessist endast, siis haldusmenetluse puhul on seadusest tulenev kohustust otsustust põhjendada. Inimene peab mõistma miks riigivõim langetas tema suhtes sellise otsuse.
Samuti kerkis üles küsimus sellest, et kui kiirelt ja milliseid andmeid arvesse võttes suudab masin otsuseid langetada. Kas sisuliste otsuste puhul oleks masinate veamäär piisavalt madal (ehk sisuliselt olematu) ning kas masinad suudavad olla erapooletud.
Selliste probleemide tõstatamine näib mulle masinatele topeltstandardite rakendamine. See tähendab, et nõuame tehisintellektil põhinevalt abivahendilt midagi, mida praegu inimestelt ei nõuta. Seega poleks päris aus jätta tehisintellekt kasutamata, sest ta ei vasta nendele kõrgendatud standarditele.
Näiteks on "musta kasti" probleemile viitamine ilmselge topeltstandard, sest hoolimata sellest, mida meile meeldib arvata, on teised inimesed täpselt samasugused mustad kastid nagu masinad.
Keegi pole võimeline nägema otse inimese pähe, et uurida vahetult tema mõttekäiku. Õigupoolest leidub andmeid selle kohta, et isegi inimene ise ei pruugi täielikult mõista omaenda mõttekäiku. Seega miks nõuda masinatelt läbipaistvust, mida inimeste puhul pole võimalik saavutada?
Siiski võidakse vastu väita, et inimeste puhul saame neid küsitleda, saame neilt nõuda oma mõttekäigu kirjeldamist. Aga kui inimestel juba algusest peale pole täieliku sisevaadet, siis mis kasu on meil nendest raportitest? Pealegi panna masinat tootma mingit põhjendavat teksti pole mingi kunsttükk pärast seda kui oleme ta juba pannud otsuseid vastu võtma.
Samuti on inimeste erapoolikus üheks peamiseks motivaatoriks masinate otsustusprotsessi kaasamiseks. Seega masinatele erapoolik olemist ette heita on kergelt silmakirjalik. Kuid kas miski võiks siiski põhjendada halduskrati teisiti kohtlemist?
Näib, et mõni selline põhjus leidub.
Esiteks võib vastus peituda selles, et meil on võimalik rangematele standarditele vastamist. Inimene on selline nagu ta on, võime konkreetset indiviidi koolituste abil mõnevõrra mõjutada, aga pole võimalik inimest kuidagi fundamentaalselt ümber kujundada. Masin, mis hakkaks läbi viima haldusmenetlust, oleks aga meie looming.
Seega põhimõtteliselt saame seda kujundada selliseks nagu ise tahame (või vähemalt saame proovida). Isegi kui tunnistame, et inimesed on samasugused mustad kastid nagu masinad oleks, siis võime leida, et maailm oleks parem kui meil oleks vähem selliseid läbipaistmatuid otsustajaid. Seega kuivõrd saame püüda masinaid disainida ja ehitada läbipaistvateks, siis see on piisav põhjus rakendamaks neile karmimaid standardeid.
Teiseks võib vastus peituda selles, et tegu on küll topeltstandarditega, aga mitte masinate kahjuks vaid hoopis inimeste kasuks. Teiste sõnadega, võimekused mida nõuame masinatelt, on sellised, mida tegelikult tahaksime nõuda inimestelt. Kuid kuna inimesed pole võimelised aga haldusmenetlust peab kuidagi läbi viima, siis oleme seni leppinud sellega, et kohaldame madalamaid standardeid.
Pöördudes tagasi otsuste põhjendatuse juurde: näib mõistlik nõuda iga haldusvõimu rakenduse detailset põhjendatust. Kui inimesed pole võimelised oma bioloogilise piiratuse tõttu sellist põhjendust pakkuma, siis on see kurb paratamatus. Aga kui meil on nüüd võimalik täiesti uut tüüpi otsustajat kujundada, siis võiksime talle võimaluse korral rakendada neid standardeid, mida tegelikult peame piisavaks.
Kolmandaks võib vastus peituda selles, et hoolimata sellest, mida varem märkisin, pole tegu siiski topeltstandardiga, sest inimene ja masin pole sobival määral võrdsed.
Täpselt nagu täiskasvanud inimene ei saa kurta, et tema puhul rakendatakse topeltstandardit, sest ühiskonna nõudmised tema käitumisele on rangemad kui lapse käitumisele, siis ei tohiks masinate eest kõneleja kurta, et masinate puhul rakendatakse topeltstandardit, sest masin on reaalselt võimekam kui inimene. Isegi parima tahtmise juures ei suudaks inimene koguda, salvestada ja hallata nii palju infot kui üks tehisintellektil põhinev masin.
Seega, kui inimene teeb vea, sest ta ei ole suutnud kõiki vajalikke fakte koguda või neid ühtlaselt meeles pidada või ta unustab ära mõne normi, siis võime talle ehk andestada, sest inimvõimekusel on piirid. Masinate puhul seevastu ootame õigustatult, et sarnased vead ja muu praak oleks viidud põhimõtteliselt nullini, sest arvestades masinate arvutuskiirust ja infotöötlusvõimekust poleks see nende suhtes ülekohtune.
Praegune maailm, kus otsustajaks on inimesed, on võrdlemisi tuttav. Oleme selles väga pikalt elanud ning erinevate teaduste arenguga on oluliselt paranenud meie arusaam inimotsustuste protsessi tugevustest ja nõrkustest. Teame, mis laadi vigu inimesed võivad teha ning seega saame luua kontrollmehhanisme ning tagavaralahendusi, et neid vigu vältida, leida ja parandada.
Homne maailm, kus otsustajateks on masinad inimeste kõrval või koguni asemel, on meile tuttav vaid teoreetiliselt. Saame vaid spekuleerida, mida tähendaks sellises maailmas elada.
Seega me ei tea ega saagi teada, mis laadi vigu või takistusi võib seal tekkida, mis omakorda tähendab, et me ei saa teada kuidas nendest vigadest tulenevaid riske maandada. Selline teadmatus teeb meid eriti ettevaatlikuks ning seega püüame kehtestada võimalikult rangeid standardeid lootuses maandada riski teadmatuse ees.
Mida peaksime eelnevast järeldama? Teadmatust uut tüüpi vigade osas ei saa kahandada muud moodi kui kogedes läbi uut tüüpi otsustusprotsesse, seega viimati mainitud asjaolu võib küll selgitada miks masinatelt nõutakse midagi mida inimestelt ei nõuda, aga see ei saa seda põhjendada.
Kolme esmamainitud asjaolu puhul on vajalik kaaluda tehnilist võimekust ja masinate kasutamisest saadavat mugavust. Kui suudame ehitada masinad, mis vastavad kõrgendatud nõuetele, siis on hästi. Kui mitte, siis peame endalt küsima: kui palju oleme nõus tegema järeleandmisi, et oma asju kergemini ajada.
Mats Volberg on advokaadibüroo LEXTAL jurist ning Tartu Ülikooli filosoofia osakonna teadur.
Toimetaja: Kaupo Meiel