Oliver Laas: ChatGPT eetilisest kasutamisest koolides
Kui eesmärk on ChatGPT ja teiste sarnaste juturobotite eetiline õppetöösse kaasamine, siis peaks sellega kaasnema ka asjakohase allikakriitika väljaarendamine kasutajate seas, arutleb Oliver Laas Vikerraadio päevakommentaaris.
OpenAI avalikustas 14. märtsil oma suure keelemudeli GPT-4. Tegemist on multimodaalse mudeliga, mis suudab kasutaja poolt sisestatud piltide või teksti põhjal uusi tekste genereerida. Juturoboti ChatGPT tasuline versioon lubab nüüd juurdepääsu uuele multimodaalsele mudelile. Microsofti otsingumootorisse Bing on see integreeritud olnud juba enne avalikustamist. Haridusasutused aga alles töötavad välja ChatGPT kasutamisega seotud juhiseid ja reegleid nii tudengitele kui ka töötajatele.
Kui esimese hooga keelati ChatGPT teiste seas nii New Yorgi koolides kui ka Hong Kongi ülikoolis, siis hetkel otsivad ülikoolid pigem võimalusi ChatGPT õppe- ja teadustöösse kaasamiseks, sest keeldudest on võimalik tehniliste vahenditega mööda minna ning ChatGPT ja teist sarnaste tehnoloogiatega puutuvad lõpetajad tulevastes töökohtades tõenäoliselt niikuinii kokku. Ilmuma ongi hakanud esimesed nõuanded, kuidas ChatGPT-d akadeemilises kontekstis eetiliselt kasutada. Näiteks filosoofid Benjamin Smart ja Catherine Botha on välja pakkunud neli soovitust.
Esiteks leiavad Smart ja Botha, et ChatGPT-d võiks kasutada arutlevate esseede struktureerimiseks ja planeerimiseks. Peale iseseisvat uurimistööd ja andmete kogumist saaksid õppijad ChatGPT abiga endale essee kondikava genereerida. Sellise kasutusviisi puhul oleks ChatGPT, sarnaselt õppejõule, õpilase jaoks esmase tagasiside allikaks.
Teiseks pakuvad Smart ja Botha välja, et õppijad saaksid ChatGPT-d kasutada dialoogipartnerina. Selles rollis aitaks juturobot kaardistada argumente essee keskse teesi poolt ja vastu. Näiteks oma kirjutises tahtevabaduse olemasolu kaitsev õpilane saaks ChatGPT-le esitada argumente tahtevabaduse poolt ning lasta sellel neile vastuargumentidega vastata. Selline dialoog aitaks selgitada essees käsitletavaid ideid ja avastada uusi viise nende kritiseerimiseks.
Smarti ja Botha kolmas ettepanek on, et õpilased saaksid ChatGPT abil oma tekste toimetada. See hõlmaks õigekirja parandamist, stiili ühtlustamist, viidete vormistamist ja sõnavaliku parandamist. Praegu on sellest ettepanekust enim kasu inglise keeles kirjutatud tekstide puhul, sest ChatGPT õigekiri võib erinevate keelte vahel märgatavalt varieeruda.
Viimaks leiavad Smart ja Botha, et õppijate jaoks võiks ChatGPT olla täiendava tagasiside allikaks, mis aitaks neil oma tekstide osi parandada ja täiendada. Ka siin täiendaks ChatGPT õppejõude, kes võivad esmase tagasiside ennetähtaegseks andmiseks suurte kursuste või administratiivsete kohustustega liialt hõivatud olla.
Tervikuna ChatGPT poolt genereeritud teksti hindamiseks esitamine oleks Smarti ja Botha hinnangul ebaeetiline, sest nende hinnangul oleks tegemist plagiaadiga. Samuti tuleks nende sõnul arvesse võtta ChatGPT kalduvust fakte ning allikaviiteid välja mõelda.
Eespool resümeeritud soovitusi saaks kindlasti mitmeti täiendada. Kindlasti tuleks ChatGPT abi kasutamine ja ulatus teksti autori poolt ausalt välja tuua. Lisaks tuleks ChatGPT kasutamisel kriitilist mõtlemist rakendada ning keelemudeli vastuste võimalikule kallutatusele tähelepanu pöörata.
Näiteks ühe hiljutise uurimuse andmetel on ChatGPT poliitiliselt kallutatud. Juturoboti poliitiliste eelistuste tuvastamiseks palusid uurijad sellel võtta seisukoht 630 poliitilise väite osas, mis pärinesid kahest valijate nõustamisrakendusest ja ühest poliitilise kompassi testis, mida on viimase kahe kümnendi jooksul kokku kasutanud üle 120 miljoni inimese.
ChatGPT vastustest ilmnes, et see on poliitiliselt pigem vasaklibertaarse ja rohelise maailmavaatega, kuivõrd keelemudeli puhul saab üleüldse maailmavaatest rääkida. Teiste sõnadega, juturobot pooldab üksikisiku vabadust, sotsiaalset võrdsust ja keskkonnasäästlikku poliitikat. Saksamaa ja Hollandi viimastel valimistel oleks ChatGPT uurimuse autorite sõnul hääletanud roheliste poolt.
Uurijate sõnul raskendab ChatGPT kallutatuse tuvastamist selle analüütiline ja pigem emotsioonitu keelekasutus. Seetõttu mõjuvad juturobotilt saadud vastused kasutajatele erapooletumalt, kui need tegelikult võib-olla on. Lisaksin siia omalt poolt, et erapooletuse muljele võib kaasa aidata ka levinud eeldus, et masinad on üldiselt inimestest erapooletumad ja objektiivsemad. Kuna uurimuse läbiviimise ajal ei olnud GPT-4 veel avalikustatud, siis selle (poliitiline) kallutatus selgub alles tulevikus.
Jäägu igaühe enda otsustada, kas ChatGPT selline poliitiline erapoolikus on probleem või mitte. Siinkohal soovin pigem tähelepanu juhtida masinõppe algoritmide ja mudelite kallutatusele üldisemalt, sest tegemist ei ole haruldase probleemiga.
Kui eesmärk on ChatGPT ja teiste sarnaste juturobotite eetiline õppetöösse kaasamine, siis peaks sellega kaasnema ka asjakohase allikakriitika väljaarendamine kasutajate seas, sest nende seisukohalt on sellised rakendused sageli mustad kastid, mille väljundeid on keeruline seletada ning mille kallutatust võib olla raske märgata.
Kõiki Vikerraadio päevakommentaare on võimalik kuulata Vikerraadio päevakommentaaride lehelt.
ERR.ee võtab arvamusartikleid ja lugejakirju vastu aadressil [email protected]. Õigus otsustada artikli või lugejakirja avaldamise üle on toimetusel.
Toimetaja: Kaupo Meiel