Kadri Mats: kas robotitele tuleks anda inimõigused?
Tom käib kohut oma endise tööandjaga, teraskonstruktsioone tootva ettevõttega. Kui Tom kaks aastat tagasi tööle võeti, asendas ta viis töötajat, kes vabastati töölt, kuna ettevõte soovis tõsta tootlikkust.
Tomi rohketest töötundidest ja vähesest tasustamisest sai probleem, kui ta soovis kasutada aega, mil ta ei tööta, selleks, et arendada omaenda versiooni lõpptoodangust, kasutades seejuures oskusi, mis ta ettevõttes oli omandanud. Ettevõte keeldus Tomi palvest. Tom pöördus seepeale kohtusse kaebusega, et tema kui töötaja õigusi rikutakse ja tehase töötingimused on orjastavad.
Kaebusel tundub olevat sisu, kuid kaebaja paneb kulme kergitama: Tom on robot!
See näide ei ole väljavõte mõnest ulmeromaanist, vaid ajakirjas Journal of Futures Studies 2017. aasta detsembris ilmunud artiklist, kus arutleti arukatele robotitele inimõigustega sarnaste õiguste andmise üle. Teema kerkis esile Euroopa parlamendi resolutsioonist, kus tehakse ettepanek elektroonilise isiku loomiseks õigusruumi.
Artikli autor argumenteerib, et see oleks otsetee inimõigusteni. Ning arusaadavalt tooks see endaga kaasa palju väärtuskonflikte: näiteks tunnustataks robotite inimõigusi enne kui kõikidele inimestele on inimõigused reaalselt tagatud.
Välistada ei saa ka inimeste ja robotite vastandlikke väiteid inimõiguste rikkumiste kohta. Kui robotid suudavad õppida ja ise ennast uuesti programmeerida, siis jätkub inimtööjõu väljavahetamine paljudel töökohtadel. Asendatud töötajad saavad väita, et nende õigust piisavale elatustasemele on piiratud, kuna neid lükatakse tööturult välja. Robotid saavad seevastu väita, et nad kasutavad vaid oma õigust õppida ja reprodutseerida.
Lisaks võib robotitele inimõiguste andmine vähendada inimõiguste moraalset väärtust ühiskonna silmis. Näiteks kui robotit kaitstakse tema mälupanga põhjendamatu läbiotsimise eest, seevastu aga inimene otsitakse tavapärase turvakontrolli käigus läbi ainult seetõttu, et ta paistab kahtlane.
Harjumuspärasemast vaatenurgast uurib seda teemat Euroopa Nõukogu tellitud raport, mis käsitleb automatiseeritud andmetöötlemise tehnoloogiatel ehk algoritmidel põhineva otsustusprotsessi võimalikku negatiivset mõju inimõigustele. Uuringus järeldatakse, et inimese tehtud otsused ei pruugi olla paremad automatiseeritud otsustest, kuid need erinevad automatiseeritud otsustest selle poolest, et võtavad arvesse mitmesuguseid kõrvalekaldeid ja riske. Tehisintellekt kaalutlusotsust teha ei suuda.
Pärast USAs ja Euroopas toimunud terrorirünnakuid kasutavad mõned sotsiaalplatvormid algoritme, mis tuvastavad äärmuslikku sisu genereerivaid kontosid ning teavitavad sellest. See aga mõjutab seda, mil määral on tagatud sõnavabadus, õiglane kohtupidamine, süütuse presumptsioon, õigus saada viivitamatult teavet süüdistuse põhjuse ja olemuse kohta ning õigus ennast kaitsta. Teine küsimus on seotud õigusega privaatsusele, mida rikub algoritmide kasutamine üksikisikute internetikäitumise, asukoha jms jälgimiseks ning andmete kogumiseks.
Uurijad leiavad, et vaja on avalikku arutelu ekspertide ja poliitikakujundajate seas selle üle, millised kriteeriumid tuleks välja töötada, et mõõta algoritmidel põhinevate automatiseeritud otsuste kvaliteeti, tagades seejuures inimõigused. Avalikkuse teadlikkust algoritmide toimimisloogikast ja oskust seda kriitiliselt hinnata tuleb samuti parandada.
Oluliseks peetakse ka algoritmide arendajatele standardite väljatöötamist ja järelevalve korraldamist, pidades silmas inimõiguste tagatust. Autorid rõhutavad, et vastutus selle eest, et algoritmid võtaks arvesse põhimõtet „inimene kõigepealt“, lasub poliitikakujundajatel. •
ERR.ee võtab arvamusartikleid ja lugejakirju vastu aadressil [email protected]. Õigus otsustada artikli või lugejakirja avaldamise üle on toimetusel. Artikli kommentaariumist eemaldatakse autori isikut ründavad ja/või teemavälised, ropud, libainfot sisaldavad jmt kommentaarid.
Toimetaja: Rain Kooli