Christian Veske: mitte ainult inimesed ei diskrimineeri

Rääkides diskrimineerimisest kujutame ette, kuidas värbaja jätab intervjuule kutsumata "liiga vana" kandidaadi, kuidas lapsehoolduspuhkuselt naasnud ema töötingimused on jäänud aastate tagusesse aega või kuidas keegi jäetakse teenuse saamisest kõrvale tema puude tõttu. Aga mis juhtub siis, kui otsuse teeb mitte inimene, vaid arvuti, küsib Christian Veske.
Eestis kasutatakse üha enam tehisintellektil ja algoritmidel põhinevaid automatiseeritud otsustussüsteeme. Need aitavad teha otsuseid kiiremini ja tõhusamalt, olgu selleks erinevate toetuste määramine, tööle kandideerimine või ligipääs erinevatele teenustele. Vahel ei pruugi inimene ise arugi saada, et otsuse taga ei ole teine inimene, vaid automatiseeritud süsteem.
Eesti digiriik on olnud edulugu, mille üle võime õigusega uhked olla. IT-lahendused aitavad vähendada bürokraatiat, kiirendada menetlusi ja pakkuda mugavamaid teenuseid.
Automatiseeritud süsteemide kasutus laieneb aga kiiresti kõigisse eluvaldkondadesse. Juba soovitakse tehisintellekti kasutada näiteks õpilaste tulemuste analüüsimiseks ja õppijate taseme hindamiseks.
Tehnoloogiat võetakse kasutusele ka valdkondades, kus kaalul on inimeste turvalisus. Näiteks sõjatööstuses arendatakse süsteeme, mis suudavad analüüsida olukordi ja teha otsuseid kiiremini kui inimene. Ekspertide hinnangul areneb tehnoloogia kiiremini kui seda reguleeriv õigusraamistik.
Meile ei peaks piisama sellest, et süsteemid on tõhusad, need peavad olema ka õiglased.
Kuigi automatiseerimine võib muuta teenused mugavamaks, ei ole ükski süsteem eksimatu. Automatiseeritud otsused võivad peegeldada ühiskonnas juba olemasolevaid ebavõrdsusi.
Kui süsteemi loomisel kasutatud andmed või eeldused on kallutatud, võivad ka otsused olla kallutatud. See tähendab, et inimene võib sattuda ebasoodsasse olukorda oma soo, vanuse, rahvuse või muu seadusega kaitstud tunnuse tõttu, isegi siis, kui selline diskrimineerimine ei ole teadlik. See ei ole pelgalt teoreetiline risk, juhtumid teistest riikidest näitavad, millised võivad olla selliste süsteemide reaalsed tagajärjed.
Näiteks Hollandis põhjustas nn lastetoetuste skandaal olukorra, kus automatiseeritud süsteem märgistas ekslikult tuhanded pered petturitena. Sageli oli tegu topeltkodakondsusega või migranditaustaga inimestega. Pered kaotasid toetused, sattusid majanduslikesse raskustesse ning juhtum viis lõpuks kogu valitsuse tagasiastumiseni.
Tööturulgi on sarnaseid probleeme olnud. Amazoni loodud värbamistööriist hakkas süstemaatiliselt eelistama meeskandidaate, kuna see oli õppinud varasematest andmetest, kus domineerisid mehed. Süsteem hakkas automaatselt madalamalt hindama elulookirjeldusi, mis viitasid naissoole, ning sellega kaasnes selge naiste diskrimineerimine.
Sageli on selline kallutatus varjatud. Otsus näib neutraalne, kuid tegelikult ei ole seda. Lisaks on automatiseeritud otsuste puhul keeruline aru saada, kuidas täpselt otsuseni jõuti. Kui inimene saab näiteks oma taotlusele negatiivse vastuse ilma selge põhjenduseta, võib tal olla keeruline oma õiguste eest seista.
Automatiseeritud süsteemid peavad olema ehitatud nii, et need oleks õiglased ja läbipaistvad. Küsimus ei ole selles, kas me kasutame tehisintellekti, vaid selles, kuidas me seda teeme. Kas nii, et see toetab kõiki inimesi või nii, et see süvendab märkamatult olemasolevaid ebavõrdsusi?
Toimetaja: Kaupo Meiel




