Henrik Trasberg: tehisintellekt toob kasu, aga ka riskidega tuleb tegeleda
Tehisintellekti turvanõrkus või eksimus inimese suhtes otsuse tegemisel või käitumise juhtimisel võib oluliselt kahjustada isiku põhiõigusi, mida võimendab asjaolu, et selline põhiõiguste kahjustamine võib olla süsteemne, kirjutab Henrik Trasberg.
Nii Eesti kui ka rahvusvahelises meedias on viimastel nädalatel palju räägitud tehisintellekti erakordsest võimekusest ja nendega kaasnevatest riskidest. Erilist kõneainet on pakkunud Future of Life instituudi eelmisel nädalal avaldatud üleskutse ajutiselt peatada väga võimekate tehisintellekti süsteemide arendus, et põhjalikumalt tegeleda nendega kaasnevate ohtude hindamisega.
Sellesse väga olulisse diskussiooni on asjakohane juurde tuua ka regulatiivne pool ehk vaadelda, milliseks on kujunemas tehisintellekti regulatsioon Euroopa Liidus ja Eestis ning kuidas see üritab tagada, et tehisintellekti areng lähtuks ühiskonna huvidest.
Lühidalt tehisintellekti riskidest
Vaatleme esmalt lühidalt, kuidas käsitletakse tehisintellektiga kaasnevaid riske. Future of Life instituudi üleskutses viidatakse mh mitmel korral ka tõeliselt eksistentsiaalsele riskile, mis tehisintellektiga võib kaasneda: on potentsiaalne oht, et tehisintellekti arendajad kaotavad kontrolli tehisintellekti tegevuse ja eesmärkide üle ning tehismõistus hakkab seadma iseendale tegevussuuniseid, mis ei pruugi olla inimeste huvides.
Loomulikult on oluline, et teadlased ja poliitikakujundajad tegeleksid tehisintellekti võimalike eksistentsiaalsete riskidega. Kuid olgu mainitud, et tehisintellekti usaldusväärsuse ja eetikaga tegelevate ekspertide seas on Future of Life'i tehisintellektiga seotud eksistentsiaalseid ohte käsitlev aspekt saanud ka omajagu kriitikat (nt siin, siin ja siin), kuna sellist ohtu võib praegu siiski pidada hüpoteetiliseks ja praegused tehisintellekti arengud (ega arengusuunad) ei tähenda, et see oht oleks realiseerumas.
Võimalike pika perspektiivi riskide kõrval on tehisintellektiga kaasnemas riske, mis on siin ja praegu. Ühelt poolt seonduvad need sellega, et tehisintellekti kasvav mõju kõikides tööstusharudes ja olulistes valdkondades nagu tervishoid, riigijuhtimine või transport tähendab, et tehisintellekt hakkab asendama või suunama inimesi järjest olulisemate otsuste ja tegevuste elluviimisel.
Eelneva valguses võib tehisintellekti turvanõrkus või eksimus inimese suhtes otsuse tegemisel või käitumise juhtimisel oluliselt kahjustada isiku põhiõigusi, mida võimendab asjaolu, et selline põhiõiguste kahjustamine võib olla süsteemne.
Üks enimkäsitletud riske seondub diskrimineerimise ohuga tehisintellekti tehtud või selle suunatud otsustes, kuna tehisintellekt võib õppimiseks kasutada andmeid, mis on kallutatud või ei arvesta teatud ühiskonnagruppide iseärasusega.
Kui sellist süsteemi kasutatakse inimese tööle värbamisel või riigiasutuse, panga vm olulise institutsiooni poolt inimese suhtes otsuse tegemisel, võib see kallutatus kajastuda sadades või tuhandetes otsustes. Negatiivseid näited selle kohta võime leida nii USA kohtusüsteemist kui ka Hollandi maksurikkumisi prognoosivast süsteemist.
Väljakutse saab olema seegi, kuidas tehisintellekti poolt inimese suhtes tehtavates otsustes või käitumise suunamisel tagada inimese sõltumatus ja autonoomia, sh tagada, et kodanikul ja tarbijal säiliks reaalne kontroll ning iseotsustamise õigus tehisintellektiga hallatud maailmas.
Teine grupp riske seondub võimalusega tehisintellekti kui tööriista inimeste poolt kuritarvitada.
Näiteks võimaldavad nn generatiivsed tehisintellekti süsteemid kergemini luua ja levitada desinformatsiooni ja süvavõltsinguid, seekaudu mh veelgi võimendades ühiskondlikku lõhestumist.
Tehisintellekti süsteeme saab kasutada ka selleks, et inimesi profileerida ja nende käitumismustrite ja muude isikuandmete pinnalt teha kaugeleulatuvaid järeldusi isiku tervise, seksuaalse sättumuse, poliitiliste vaadete jm delikaatsete asjaolude osas, võimaldades üha ulatuslikumat sekkumist isiku privaatsfääri ning seekaudu võimendades näiteks inimestega manipuleerimist.
Europol avaldas hiljuti raporti ohtudest seoses teksti genereerivate süsteemide väärkasutamisega kuritegelikel eesmärkidel, käsitledes mh pettust, sotsiaalset manipuleerimist, pahavara loomist ning ohte seoses terrorismiga.
Eelneva kõrval on ka laiemad ühiskondlikud ja majanduslikud mõjud, mis vajavad järgnevatel aastatel poliitikakujundajate, teadlaste, ettevõtjate ja kodanikuorganisatsioonide pingsat tähelepanu. Nendeks on teiste hulgas muudatused tööhõives, võimu kontsentreerumine ülivõimekate tehisintellektisüsteemide omanike kätte, kontroll inforuumi üle ja ka näiteks mõju (inim)loomingule. Tehisintellektiga kaasnevaid ohte ja väljakutseid leidub muidugi veel teisigi.
Küsimus nüüd on, kas ja kuidas me tehisintellekti reguleerime, et neid riske maandada (ja seejuures võimaldada realiseerida see sotsiaalne ja majanduslik kasu, mida tehisintellekt pakub).
Tehisintellekti reguleerimine
Tehisintellekti reguleerimiseks on väljatöötamisel ühtne reeglistik terves Euroopa Liidus, nn AI määrus (algne Euroopa Komisjoni versioon siin), mis hakkab kohalduma nii EL-is arendatavatele tehisintellekti süsteemidele kui ka kõigile neile, mis siin kättesaadavaks tehakse.
Kuigi AI määrus on endiselt läbirääkimisel, siis üldine loogika selle osas, kuidas kavandatakse tehisintellektiga kaasnevaid riske maandada, tõenäoliselt enam palju ei muutu. Seega, eeldusel, et see regulatsioon EL-i seadusandjate poolt vastu võetakse, on meil mitmeid järeldusi tulevase reeglistiku osas võimalik teha juba nüüd.
AI määruse peamine fookus on kehtestada teatud läbipaistvuse, kvaliteedi ja riskide haldamisega seotud kohustused nn kõrge riskiga tehisintellekti süsteemidele. Määrus sätestab konkreetsed valdkonnad ja kasutusjuhud, kus tehisintellekti kasutamine loetakse olevat kõrge riskiga.
Teiste hulgas hõlmab see tehisintellekti kasutamist näiteks haridusasutuses õpilaste hindamisel või vastuvõtmisel, töötaja palkamisel, edutamisel või koondamisel või nn ohutuskriitilistes seadmetes (näiteks isesõitvates sõidukites ja meditsiiniseadmetes).
Paljud kõrge riskiga valdkonnad seonduvad ka avaliku sektori tegevusega – tehisintellekti kasutamisel olulistele avalikele teenustele ja hüvedele ligipääsu võimaldamisel, kohtumõistmisel, õiguskaitse teostamisel ning ka rände-, varjupaiga- ja piirikontrollihalduse teostamisel. Kokku loetleb määrus rohkem kui 30 konkreetset kasutusjuhtu, kus tehisintellekt loetakse olevat kõrge riskiga.
Kõik kõrge riskiga tehisintellekti pakkujad peavad järgima teatud kohustusi. Esiteks tuleb tagada, et algoritm töötaks täpselt, stabiilselt ja turvaliselt ning tehisintellekti treenimisel oleksid andmed kõrge kvaliteediga.
Näiteks on üks andmekvaliteedi element andmete representatiivsus, mis tähendab, et andmestik peegeldab võimalikult korrektselt tegelikku olukorda, sh päriselus eksisteerivat ühiskonnagruppide ja käitumise mitmekesisust, aidates seega vähendada süsteemse diskrimineerimise ohtu.
Regulatsiooni ühe keskse elemendina peavad tehisintellekti pakkujad võtma kasutusele riski- ja kvaliteedijuhtimise süsteemid võimalike ohtude hindamiseks. Seejuures tuleb kõik olulised tegevused logida ning omada ajakohast tehnilist dokumentatsiooni. Tehisintellekti pakkujal peab säilima ka järelevalve süsteemi toimimise üle.
Nende kohustuste eesmärk on luua igakülgne läbipaistvus tehisintellekti toimimise ja mõjude osas, alates selle arendamisest kuni kasutuse lõppemiseni. Selle pinnalt peab tehisintellekti pakkuja juurutama vajalikud meetmed riskide maandamiseks.
Kui küsida, millised on riskid, mida sellise protseduuri kaudu peab maandama, siis kindlasti hõlmab see turvalisuse, ohutuse ja laiemalt kõigi põhiõigustega seotud riske. Määruse sissejuhatavad põhjenduspunktid viitavad ka demokraatia ja õigusriigiga seotud väärtuste kaitsmisele, millest võib järeldada, et näiteks ChatGPT või sarnase süsteemi pakkuja peab minimeerima, et seda ei saaks kasutada desinformatsiooni loomiseks ja levitamiseks. Üsna tõenäoliselt liigub regulatsioon selles suunas, et kõrge riskiga süsteemide kasutamisel tuleb hinnata ja vajadusel maandada ka keskkonnariske.
Selleks, et see kõik praktikas ka sellisel kujul töötaks luuakse mitmeid tugimehhanisme, näiteks nn liivakastid, mis on teenused, kus tehisintellekti pakkuv ettevõte saab koostöös riikliku asutusega analüüsida lahendusi, mis kõige paremini võiksid konkreetsel juhul ohutuse tagada.
Väga suur rõhk on standardiseerimisel, mille eesmärk on ühtlustada seda, kuidas ettevõtted ja riigiasutused reegleid tõlgendavad näiteks treeningandmete kvaliteedi tagamisel, inimjärelevalve teostamisel või põhiõigustele kaasnevate mõjude hindamisel. Selle kõige üle luuakse riiklik järelevalve. Kõrge riskiga tehisintellektid registreeritakse ka Euroopa Liidu üleses registris, mis aitab tagada, et riiklikul järelevalvajal ja ühiskonnal laiemalt tekib parem teadlikkus sellest, milliseid tehisintellekte arendatakse.
AI määrusel on paar väga olulist külge veel. Sellega kehtestatakse loetelu teatud tehisintellekti kasutusjuhtudest, mis on keelatud, kuna nendega seonduvad vastuvõetamatud riskid.
Tuleb märkida, et need keelud ei puuduta otseselt ühtegi tehisintellekti tehnoloogiat, vaid selle tehnoloogia konkreetseid kasutusjuhte. Näiteks keelatakse tehisintellekti kasutamine inimese alateadvusega manipuleerimise eesmärgil või selleks, et kasutada ära haavatavate ühiskonnagruppide teatud nõrkusi, kui see võib tekitada inimesele kahju.
Politseiriigi tekkimise ohu vähendamiseks keelatakse õiguskaitseasutustel kasutada tehisintellekti isikute reaalajas tuvastamiseks ning jälgimiseks tänavakaamera vm isiku kaugtuvastamist võimaldava seadme kaudu (selle keelu osas on erandid, nt ei kohaldu see terrorismi tõkestamisel).
Piiratakse ka nn social scoring süsteemide kasutamist ehk isiku sotsiaalse käitumise või iseloomuomaduste pinnalt ei tohi tema kohta teha laiemat konteksti puudutavaid järeldusi, näiteks määrata tema ühiskondlikku reitingut või usaldusväärsuse taset.
Viimaseks väärib täheldamist, et on mõned tehisintellekti kasutusviisid, mis ei ole regulatsiooni kohaselt kõrge riskiga, kuid mille kasutamisest peab inimest teavitama. Näiteks tuleb inimest teavitada, kui ta suhtleb juturobotiga. Samuti siis, kui levitatakse tehisintellektiga loodud nn süvavõltsinguid või kui süsteem üritab tuvastada inimese emotsioone või kategoriseerib inimest biomeetria alusel (nt kui süsteem määrab videopildi alusel automaatselt inimese soo).
Kui tehisintellekt põhjustab inimesele kahju, siis lisaks riiklikule järelevalvele, on kahju kannatanul võimalik nõuda selle hüvitamist. Selle osas on Euroopa Liidus väljatöötamisel eraldi õigusakt (algatuse esialgne tekst on siin), mille eesmärk on üleeuroopaliselt lihtsustada kahjuhüvitise nõudmist, arvestades, et kahjukannatanul on tihti võimatu või väga keeruline tõendada, et talle on tekitatud kahju seetõttu, et tehisintellekt tegi vea või ei töötanud kooskõlas sellele kehtestatud reeglitega.
Tuleb muidugi arvestada, et kõik see ei jõustu ilmselt varem kui 2025. aasta lõpus. Pigem võib isegi eeldada, et see tähtaeg lükkub edasi. Tehisintellekti puudutavate reeglite puudumine ei tähenda, et selle kasutamine ei oleks ka praegu vähemalt osaliselt reguleeritud. Põhiseadus ja valdkondlikud õigusaktid kehtivad ikkagi ka tehisintellekti kasutusele, sh isikuandmete kaitset, küberturvalisust, tarbijate õigusi ja haldusmenetlust käsitlevad reeglid. Näiteks mõned päevad tagasi piiras Itaalia andmekaitseasutus (esialgu ajutiselt) ChatGPT kasutamise võimalike isikuandmete kaitse reeglite rikkumise eest.
Lisaks olgu märgitud, et Euroopa Liidus toimuva kõrval on veel mitmeid olulisi rahvusvahelisi initsiatiive toetamaks, et tehisintellekti globaalne areng püsiks eetiline ja lähtuks inimeste huvidest. Eetikasuuniseid on välja pakkunud näiteks nii UNESCO kui ka OECD.
Euroopa Nõukogus on paralleelselt väljatöötamisel konventsioon, mis on riikidele siduv ning mille eesmärk saab olema, et sellega liitunud riigid (mis ei piirdu üksnes Euroopa Nõukogu liikmetega, vaid hõlmavad potentsiaalselt ka mitmeid teisi, nt USA ja Kanada) kohustuvad tehisintellekti arendamisel ja kasutamisel tagama tõhusa reeglistiku inimeste põhiõiguste, demokraatia ja õigusriigi kaitseks, sh tehisintellektiga kaasnevate riskide maandamiseks.
Tehisintellekti kasutamine Eesti avalikus sektoris
Kuigi tehisintellekti reguleerimisel on tähtis tagada tugev koostöö Euroopa ja rahvusvahelisel tasandil, siis sellega paralleelselt on ka mitmeid Eesti-siseseid arenguid, eelkõige edendamaks krattide ehk tehisintellekti usaldusväärset kasutamist Eesti riigiasutuste poolt.
Eesti Digiühiskond 2030 arengukava ning kehtiv kratikava rõhutavad ühe keskse eesmärgina, et kratt peab olema inimkeskne, mis tähendab, et krattide kasutamine ei ole eesmärk omaette, vaid vahend inimeste heaolu suurendamiseks, seejuures kaitstes väärtusi nagu inimväärikus, õiglus, võrdne kohtlemine, privaatsus ning turvalisus. Selle oluline komponent on ka tagada, et säiliks ja kasvaks ühiskonna usaldus kratilahenduste vastu.
Seda aitavad saavutada mitmed õiguslikud arengud. Näiteks justiitsministeeriumis on väljatöötamisel haldusmenetluse muudatused, mis konkreetsemalt kirjeldavad tingimusi, mida riigiasutused peavad järgima krattide kasutamisel haldusotsuse või teatud avalike toimingute tegemisel.
Lisaks, arvestades, et riigiasutused hakkavad üha ulatuslikumalt oma tegevuses kratte kasutama, siis tuleb ka avalikus sektoris edendada seda, kuidas nendega kaasnevaid võimalikke riske maandada.
Selle valguses on eelviidatud digiühiskonna arengukava ja kratikava alusel loodud mitmed tugiteenused ja kompetentside kasvatamise meetmed. Näiteks on ellu kutsutud kratitoe portfell, sh nn andmete liivakasti ja andmepaneeli teenused, mis aitavad asutustel saada õiguslikku, tehnilist jm tuge krati või muu andmepõhise projekti läbiviimisel. Majandus- ja kommunikatsiooniministeerium on ka loonud Digiriigi Akadeemia digiteadlikkuse tõstmiseks. Tulemas on ka muid projekte eesmärgiga arendada kompetentse ja tööriistu, mis soodustaksid Eesti digiriigis krattide eetilist arendamist ja kasutamist.
Kuidas edasi?
Instituudi Future of Life palve ajutiselt peatada võimekate tehisintellektisüsteemide arendus peaaegu kindlasti ei realiseeru. Kuid on oluline, et me oleme liikumas tehisintellektile konkreetse õigusliku raamistiku kehtestamise suunas. Seejuures on AI määrus potentsiaalselt üsnagi hea lahendus põhiõigustele kaasnevate riskide maandamiseks, läbipaistvuse loomiseks ning inimjärelevalve tagamiseks. Eesti kontekstis on positiivne, et krattide inimkesksuse edendamine on muutunud oluliseks ning praktiliste väljunditega tegevuseks digiriigi arendamisel.
Kui küsida, kas loodav reeglistik hakkab teiselt poolt tehisintellekti puudutavat innovatsiooni piirama, siis AI määrus on selle ärahoidmiseks mõnevõrra paremini valmis kui näiteks viis aastat tagasi jõustunud GDPR ehk isikuandmete kaitse üldmäärus. AI määrus kohaldub ainult selgelt määratletud probleemjuhtude osas ning rakendab mitmeid tugilahendusi selleks, et reeglistik oleks õigusselge. Samuti luuakse tõhusam järelevalve ja riikide koostöömehhanism.
Võib-olla ei olegi vajalik hakata vastandama tehisintellekti usaldusväärsust ja innovatsiooni. Inimkesksus ja usaldusväärsus on ikkagi kesksed komponendid selleks, et tehisintellektialane innovatsioon oleks väärtuslik ja püsiks kestlik.
Siiski olgu märgitud, et regulatiivne raamistik üksi ei taga riskide maandamist. Tehisintellekti arendajad ja ettevõtted, mis neid oma teenustesse või toodetesse lisavad, ning riigiasutusedki peavad olema hoolsad ning looma organisatsioonis teadlikkuse ja kompetentsi riskide adresseerimiseks.
Tehisintellektiga on kaasnemas ka palju selliseid majanduslikke ja sotsiaalseid väljakutseid, mida praegu loodav õigusraamistik ei käsitle: muudatused tööhõives, massiivne sünteetilise informatsiooni levik, võimu koondumine suurte tehisintellektisüsteemide arendajate kätte, tehisintellekti kasutamine sõjatööstuses jm vajavad järgnevatel aastatel nii poliitikakujundajate, teadlaste kui ka teiste ekspertide olulist tähelepanu.
Toimetaja: Kaupo Meiel