Oliver Laas: näotuvastussüsteemid võivad näida objektiivsemad kui need on ({{contentCtrl.commentsTotal}})

Sõltumata sellest, kas me usume tehnoloogia neutraalsusse või mitte, näib hetkel, et näotuvastussüsteemid vajavad vähemalt täiendamist ning nende kasutamist tuleks mõnelgi pool täpsemalt reguleerida, arutleb Oliver Laas Vikerraadio päevakommentaaris.

Amazon, IBM ja Microsoft keelasid mõni aeg tagasi USA politseil juurdepääsu oma näotuvastustehnoloogiatele. Põhjenduseks toodi nii tehnoloogia kallutatus kui ka selle kasutamise puudulik seaduslik regulatsioon. See ei ole esimene kord, mil näotuvastustehnoloogia on probleeme tekitanud.

Näotuvastussüsteem on tehnoloogia, mis suudab fotodel ja videol nägusid tuvastada. Praktikas võib see tähendada kas nägude tuvastamist teiste kujutistel esinevate objektide seas või inimese identifitseerimist andmebaasis tema näole vastete leidmise teel ning nende liikumise jälgimist.

Kõige lihtsamal kujul toimub nägude tuvastamine inimeste identifitseerimiseks kahes etapis: esimeses tuvastatakse kujutiselt leitud näo asjakohased omadused (silmad, nina, suu) ja nende omavahelised suhted ning teises püütakse tuvastatud nägu liigitada selle põhjal, millised vasted sellele erinevates andmebaasides leitakse.

Nägude tuvastamiseks kasutatavate algoritmide väljatöötamisel kasutatakse ka masinõpet – algoritmi treenitakse mingisuguse valimi peal teatud eesmärgil nägusid tuvastama.

Enamik meist on nüüdseks mõne näotuvastussüsteemiga kokku puutunud. Neid kasutatakse mitmel pool maailmas dokumendifotode või turvakaamerate lindistuste põhjal isikute tuvastamiseks, identiteedi verifitseerimiseks avalikes asutustes, Snapchati foto- ja videofiltrites, inimeste nimeliseks otsimiseks Facebooki ja Google'i pildiandmepankades ning arvutite ja nutitelefonide kasutajate autentimiseks.

Ühelt poolt pakub näotuvastustehnoloogia justkui mitmeid hüvesid – distantsilt isiku tuvastamine, suurem mugavus ja turvalisus. (Viimase on siiski kahtluse alla seadnud juhtumid, kus nutitelefoni näotuvastusrakendus on ära petetud omanikule sarnase pildiga.)

Teisalt on näotuvastustehnoloogiale ette heidetud mitmeid puudusi. Esiteks võivad näotuvastuse kasutamisega kaasneda privaatsuse riived. Teiseks kardetakse, et näotuvastustehnoloogia kasutusvaldkondade laiendamine võib meid viia lähemale täielikule jälgimisühiskonnale, kus näiteks korrakaitse skaneerib kuritegevuse ennetamise ettekäändel ka süütute inimeste nägusid.

Veel ühe probleemina on välja toodud praeguste näotuvastustehnoloogiate ebatäpsust: ideaalilähedastes katsetingimustes on tulemused head, kuid hakkavad tegelikes oludes märgatavalt halvenema, mistõttu suureneb põhjendamatult politsei uurimise alla sattuvate süütute inimeste hulk.

Näiteks väidetakse MTÜ Big Brother Watch 2018. aasta raportis, et Londoni politsei poolt kasutatava näotuvastustarkvara valepositiivsete tuvastuste määr oli 98 protsenti, mis tähendab, et tarkvara tuvastas inimese õigesti ainult kahel protsendil juhtudest.

Viimasel ajal on näotuvastusele üha enam ette heidetud ka kallutatust. Kui valgete meeste tuvastamisega saab enamik algoritme hästi hakkama, siis naiste ja tumedama nahavärviga inimeste puhul jäävad need hätta. Seda näitavad nii mõningad uuringud kui ka 2019. aasta lõpus avaldatud raport, mille autorid testisid kokku 189 algoritmi ja tuvastasid, et enamik neist olid mingil viisil kallutatud.

Amazon ja teised tehnoloogiahiiud on oma otsuses toetunud seega näotuvastustarkvara kallutatust näitavatele uuringutele. Vastu võiks väita, et kallutatus tuleneb kasutusviisidest ja mitte näotuvastustehnoloogiast endast.

Selline vastuväide toetub levinud arvamusele, et tehnoloogia on moraalselt ja poliitiliselt neutraalne – tehnoloogiad ei ole iseenesest head ega halvad, vaid seda on nende kasutusviisid.

See ei ole aga ilmne, sest alates 1980. aastatest on ilmunud mitmeid uurimusi, mis on konkreetsete tehnoloogiate, näiteks jalgrataste või otsingumootorite, puhul püüdnud näidata, kuidas nende kujunemist mõjutasid nende loomise juures olnud huvigruppide tõekspidamised.

Sõltumata sellest, kas me usume tehnoloogia neutraalsusse või mitte, näib hetkel, et näotuvastussüsteemid vajavad vähemalt täiendamist ning nende kasutamist tuleks mõnelgi pool täpsemalt reguleerida.

Kuna nende aluseks olevad algoritmid on sageli avalikkusele ligipääsmatud, siis võivad näotuvastussüsteemid näida objektiivsemad ja erapooletumad kui need tegelikult on. See eksitav neutraalsus muudab nad moraalselt läbipaistmatuks ehk nendega seotud probleeme on esmapilgul raske märgata.

Ühe lahendusena on välja pakutud näotuvastussüsteemide läbipaistvaks muutmist nende aluseks olevate algoritmide, treenimiseks kasutatud andmebaaside ning valepositiivsete tulemuste määrade avalikustamise kaudu.

See võimaldaks nii neid süsteeme kasutavatel institutsioonidel kui ka nende poolt jälgitavatel inimestel senisest adekvaatsema informatsiooni valguses näotuvastussüsteeme ratsionaalsemalt hinnata, selmet neid pimesi usaldada.


Kõiki Vikerraadio päevakommentaare on võimalik kuulata Vikerraadio päevakommentaaride lehelt.

ERR.ee võtab arvamusartikleid ja lugejakirju vastu aadressil arvamus@err.ee. Õigus otsustada artikli või lugejakirja avaldamise üle on toimetusel. Artikli kommentaariumist eemaldatakse autori isikut ründavad ja/või teemavälised, ropud, libainfot sisaldavad jmt kommentaarid. 

Toimetaja: Kaupo Meiel

Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: