Oliver Laas: uute virtuaalsete assistentide riskid kasutajatele
Kuna näib, et personaalse riigi visioon hõlmab samuti virtuaalse assistendi loomist, siis loodetavasti asenduvad ka loosungid peagi sisulisema analüüsiga, märgib Oliver Laas Vikerraadio päevakommentaaris.
Suurte keelemudelite edu on taastanud tehnoloogiafirmade huvi eelmise kümnendi esimeses pooles avalikkuse tähelepanu köitnud virtuaalsete assistentide vastu. Praegu jooksevad nii tehnoloogiahiiud kui ka idufirmad teineteisega võidu, et turule tuua uusi kasutajaid assisteerivaid rakendusi. Suuri keelemudeleid kasutavate virtuaalsete assistentidega kaasnevad aga olulised riskid kasutajate privaatsusele ja vabadusele.
Virtuaalne assistent on rakendus, mis täidab kasutaja sisendi põhjal erinevaid ülesandeid. Tuntuimad näited on Amazoni Alexa nende nutikõlaris Echo, Google Assistant nii telefonides kui ka nutikõlaris Nest, Microsofti Cortana ja Apple'i Siri. Need ja mitmed teised assistendid esinevad enamasti juturobotite kujul, mis kasutaja käskluste peale informatsiooni edastavad, meediasisu mängivad või kalendrisse kohtumisi märgivad.
ChatGPT edust kantuna on tehnoloogiahiiud ja idufirmad hakanud oma virtuaalsetes assistentides suuri keelemudeleid rakendama. Lubaduste kohaselt peaks see viima senisest kasutajasõbralikumate, võimekamate ja inimlikumana näivate assistentideni. Lisaks turundusele püütakse kasutajaid ka uute seadmete ning klaviatuuridele uute nuppude lisamise teel täiustatud virtuaalseid assistente kasutama suunata.
Nathan Sanders ja Bruce Schneier leiavad, et suuri keelemudeleid kasutavate juturobotitega seotud riskide mõistmiseks tasub neid võrrelda sotsiaalmeediaga. Mõlemal tehnoloogial on nende arvates viis ühist, ühiskonnale kahjulikku omadust: reklaam, jälgimine, viraalsus, kasutajate platvormidele lukustamine ja monopoliseerumine.
Tasuta sotsiaalmeedia kasutamise hinnaks on personaliseeritud reklaam. Sanders ja Schneier kirjutavad, et tasuta TI juturobotite kasutamiseks hinnaks võib samuti saada vestluste sekka pikitud reklaam. Dialoogi kontekstis võib kasutajal aga olla senisest raskem hinnata, kas juturoboti vastus on sisuliselt turunduslik või mitte.
Personaliseeritud sisu ja reklaami pakkumiseks peavad sotsiaalmeedia platvormid oma kasutajaid üha rohkem jälgima. Masinõppe mudelite, kaasaarvatud suurte keelemudelite, kvaliteet on seotud treeningandmete suurusega. See tähendab, et selliseid tehnoloogiaid kasutavad virtuaalsed assistendid peavad kasutajatele personaliseeritud abi pakkumiseks nende kohta võimalikult palju andmeid koguma. Sanders ning Schneier leiavad, et see hõlbustab kasutajatega manipuleerimist.
Teoorias võib sotsiaalmeedia võimendada uute teadmiste levikut. Praktikas kipuvad viraalseks muutuma poliitiliselt polariseerivad ja desinformatsiooni levitavad sõnumid. Sanders ning Schneier hoiatavad, et juturobotid võivad seda trendi süvendada, sest hõlbustavad sedasorti sisu loomist ning levitamist.
Sotsiaalmeedia ettevõtete huvides on kasutajaid oma platvormidel hoida, et nende kohta kogutud andmetelt rohkem teenida. Sanders ja Schneier kirjutavad, et kui mõni juturobot muutub kasulikuks, siis on selle omanikel samuti ajend kasutajaid oma platvormil hoida. Kui ühe juturoboti juures loodud personaalse profiili teisele platvormile kolimine on keeruline, siis on omanikel sellevõrra lihtsam oma teenust kasumi nimel roojastama hakata.
Sotsiaalmeedia roojastamist on hõlbustanud ettevõtete domineeriv turupositsioon ning sisuliste alternatiivide puudumine kasutajate jaoks. Sanders ja Schneier hoiatavad, et sarnasesse positsiooni jõudnud juturobotite tootjad võivad samamoodi hakata oma teenust roojastama.
Monopolistlike sotsiaalmeedia platvormide kahjud, näiteks desinformatsiooni levik, mõjutavad neidki, kes antud platvorme ei kasuta. Samamoodi kannatavad masinõppe rakenduste poolt tekitatud kahjude, näiteks süvavõltsingute, tõttu ka need, kes neid rakendusi ise ei kasuta.
Riske saaks kollektiivsel tasandil maandada nii parema seadusandluse kui ka kasutajate andmete ühelt platvormilt teisele kolimist hõlbustavate standardite abil, leivad Sanders ning Schneier. Kuna näib, et personaalse riigi visioon hõlmab samuti virtuaalse assistendi loomist, siis loodetavasti asenduvad ka loosungid peagi sisulisema analüüsiga. Individuaalsel tasandil tasub igal kasutajal aga endalt küsida, kas uute virtuaalsete assistentide lubatav kasu kaalub üles eespool toodud riskid.
Kõiki Vikerraadio päevakommentaare on võimalik kuulata Vikerraadio päevakommentaaride lehelt.
ERR.ee võtab arvamusartikleid ja lugejakirju vastu aadressil [email protected]. Õigus otsustada artikli või lugejakirja avaldamise üle on toimetusel.
Toimetaja: Kaupo Meiel