Oliver Laas: näotuvastus korrakaitses

Näotuvastuse kasutamine võiks justkui turvalisust suurendada, aga mõned arendamisel olevad ja juurutatavad tehnoloogiad on moraalselt probleemsed ning võivad viidata murettekitavatele trendidele, vahendab Oliver Laas Vikerraadio päevakommentaaris.

Näotuvastussüsteemid suudavad fotodel ja videodel nägusid tuvastada ning identifitseerida neile andmebaasidest vasteid leides.

Viimase aastakümne silmapaistvad edusammud tehisintellekti vallas on kaasa toonud "tehisintellekti kevade" – valdkonna rahastuse suurenemise, rakenduste loomisele keskendunud idufirmade kasvava arvukuse ja antud tehnoloogia senisest laialdasema kasutuselevõtmise erinevates eluvaldkondades. Üks selline valdkond on sisejulgeolek.

Siiani pigem Lääneriikides loodud tehnoloogiate kopeerimise poolest tuntud Hiina on viimastel aastatel hakanud neile tehisintellekti rakenduste osas üha enam konkurentsi pakkuma. Julgeoleku vallas on esile kerkinud sellised edukaid idufirmad nagu Megvii, SenseTime ja Yitu, mis loovad rahvusvaheliselt konkurentsivõimelisi rakendusi.

Näotuvastussüsteeme võib Hiinas leida näiteks lennujaamades, nutirestoranides, kus külastajad saavad oma näo skaneerimise järel toitumissoovitusi ning turvakontrollina hoonetesse sisenemisel.

Avaliku korra tagamiseks kasutatakse näotuvastussüsteeme nii turvakaamerates kui ka politsei nutiprillides. Näiteks tuvastavad turvakaamerad punasega teed ületanud jalakäijad ning kuvavad avaliku häbistamise eesmärgil nende pildid ja isikuandmed läheduses asuvatele ekraanidele.

Hiina võimud kasutavad näotuvastust ka Xinjiangi piirkonnas uiguuride jälgimiseks. Näiteks hiina firma Hikvision on turundanud kaameraid, mis on välja töötatud spetsiaalselt uiguuride tuvastamiseks. Võimude silmis soovimatu materjali tuvastamiseks on kohalikud elanikud sunnitud oma nutitelefonidesse paigaldama rakenduse, mis saadab neis leiduvate failide kohta käivaid andmeid tõenäoliselt riiklikele julgeolekujõududele kuuluvatesse serveritesse.

Hiina ei tegele ainsana selliste tehnoloogiate arendamise ja rakendamisega. Ameerika Ühendriikides on politsei peaaegu 20 aastat kasutanud riiklikke andmebaase fotode ja videode põhjal kahtlusaluste tuvastamiseks.

Alates 2019. aastast on idufirma Clearview AI politseile ja teistele julgeolekujõududele turundanud rakendust, mis võimaldab kahtlusaluste tuvastamist sotsiaalmeediasse ja avalikku internetti postitatud piltide põhjal. Teadaolevalt on mõned politseijaoskonnad seda ka kahtlusaluste tabamiseks kasutanud.

Enne politsei kätesse jõudmist oli rakendusele juurdepääs investoritel ja teistel eraklientidel, kes kasutasid seda isikliku uudishimu rahuldamiseks.

Masinõpet kasutavaid näotuvastussüsteeme on iseenesest võimalik eksitada. Üheks viisiks on võistlevate näidete kasutamine. Tegemist on inimsilmale sageli nähtamatult muudetud piltidega, mis kallutavad pilte tuvastame treenitud tehisnärvivõrku pildil kujutatut valesti liigitama.

Mitmed kunstnikud ja moedisainerid on välja töötanud meike, maske ja rõivaid, mis muudavad turvakaameratel nägude tuvastamise raskemaks või suisa võimatuks. Siiski ei peaks privaatsuse ja õiguste kaitse jääma iga indiviidi enda õlgadele, vaid näotuvastuse ebamõistliku kasutamise eest peaks meid kaitsma ka seadus.

Võib-olla ei tasu näotuvastussüsteemide võimsust ja neist lähtuvat võimalikku ohtu privaatsusele ning inimõigustele üle hinnata. Mitmete olemasolevate rakenduste näol võib tegemist olla niinimetatud Potjomkini tehisintellektiga – rakendustega, mille justkui masinlike saavutuste taga on tegelikult avalikkuse eest varjule jäävad, sageli madalapalgalised inimesed.

Näiteid ei pea kaua otsima: SpinVox, kõneposti tekstiks transkribeeriv teenus, kasutas lubatud masinate asemel inimtööjõudu ning Facebooki virtuaalne assistent "M", toetus samuti valdavalt kulisside taga töötavatele inimestele. Ka uiguuride peal rakendatavad tehnoloogiad toetuvad paljuski veel inimeste tööjõule, kes algoritmidele vajalike andmebaaside loomiseks kohalikku elanikkonda süstemaatiliselt pildistasid, küsitlesid ja kategoriseerisid.

Tehnoloogia ei ole aga pegalt masinad; see on masinatest, neid loovatest, kasutavatest ja hooldavatest inimestest ning hõlmavatest institutsioonidest koosnev süsteem. Seetõttu ei ole erilist vahet, kas Hiinas kasutatavate süsteemide näol on tegemist Potjomkini tehisintellektiga või mitte, sest seda tüüpi jälgimissüsteemid rikuvad kõigest hoolimata nii uiguuride kui ka kõigi teiste nende sihikule sattunud inimeste privaatsust.

Isegi kui hetkel sõltuvad need veel inimeste tööjõust, siis ei pruugi see tehnoloogilise arengu tõttu peagi enam nii olla. Samuti ei sõltu selliste jälgimissüsteemide tõhusus inimeste kontrollimisel tehnilisest võimekusest, sest inimeste käitumise mõjutamiseks piisab ainuüksi teadmisest, et neid võidakse jälgida.

Kuna uiguuride etniliseks profileerimiseks kasutatavaid tehnoloogiaid loonud firmade eesmärgiks on oma turuosa laiendamine, siis võivad need rakendused peagi jõuda ka teiste valitsuste kätesse. See võib pikemas perspektiivis kujutada ohtu demokraatlikele riikidele, kui need ei suuda vastu seista kiusatusele selliseid tehnoloogiaid juurutada või ise arendada.


Kõiki Vikerraadio päevakommentaare on võimalik kuulata Vikerraadio päevakommentaaride lehelt.

ERR.ee võtab arvamusartikleid ja lugejakirju vastu aadressil [email protected]. Õigus otsustada artikli või lugejakirja avaldamise üle on toimetusel. Artikli kommentaariumist eemaldatakse autori isikut ründavad ja/või teemavälised, ropud, libainfot sisaldavad jmt kommentaarid.

Toimetaja: Kaupo Meiel

Hea lugeja, näeme et kasutate vanemat brauseri versiooni või vähelevinud brauserit.

Parema ja terviklikuma kasutajakogemuse tagamiseks soovitame alla laadida uusim versioon mõnest meie toetatud brauserist: