
Moguće zlouporabe i etički izazovi pri korištenju generativne umjetne inteligencije
Za Akademski.hr piše Goran Bubaš, redoviti profesor u trajnom izboru na Fakultet organizacije i informatike Sveučilišta u Zagrebu. Objavio je nekoliko radova iz primjene velikih jezičnih modela u nastavi, kao i upotrebljivosti i korisničkog iskustva kod njihove uporabe
Krajem 2022. godine istraživačka tvrtka OpenAi predstavila je ChatGPT alat umjetne inteligencije (UI) koji je po dijaloškim mogućnostima višestruko nadmašio mogućnosti dotadašnje konverzacijske alate (chatbotove), a po općem znanju, verbalnim sposobnostima i „prosuđivanju“ sve ranije javno dostupne sustave UI opće namjene.
Mediji su tijekom 2023. godine često navodili koje bi sve prijemne ispite i testove mogao položiti ChatGPT i njegov nasljednik GPT-4 (poslovnih škola, pravnih fakulteta, medicinskih organizacija, kao i iz drugih disciplina; vidjeti: https://openai.com/index/gpt-4-research/ ).

ChatGPT i drugi alati iz iste obitelji (GPT-3.5, GPT-3.5 Turbo, GPT-4, GPT-4 Turbo, GPT-4o i GPT-4 Mini) postigli su veliku popularnost u manje od dvije godine, a kao konkurencija ubrzo su ih pratili javno dostupni alati UI koje su razvili korporacija Google (u početku je to bio Bard, a danas Gemini s naprednim verzijama Gemini 1.5 Pro i Gemini 1.5 Flash) te odnedavno istraživačka tvrtka Antrophic (s trenutačno najnaprednijim modelima Claude 3.5 Sonnet, Claude 3 Opus i Claude 3 Haiku).
Nakon predstavljanja ChatGPT alata, već u 2023. godini objavljeno je više stotina radova vezanih uz istraživanja i različite mogućnosti primjene velikih jezičnih modela (engl. Large Language Model; u daljnjem tekstu LLM) u obrazovanju.
Na primjer, u bazi Scopus za 2023 godinu riječi „ChatGPT“ i „education“ pojavljuju se zajedno u više od 800 sažetaka radova, a u bazi Web of Science u više od 500 sažetaka. Pregledni radovi i pretraživanje navedenih baza pokazali su da su najčešća istraživanja obrazovne primjene ChatGPT alata bila u području medicine, programiranja i engleskog jezika, ali i prirodoslovnih (matematika, fizika, biologija, kemija) te društvenih disciplina (ekonomija, pravo i psihologija).
Prema preglednim radovima, najčešća područja zabrinutosti obrazovne i istraživačke zajednice bila su vezana uz teme kao što su akademska čestitost (engl. academic integrity), netočnosti u podacima koje generiraju ChatGPT i srodni alati (tzv. „halucinacije“ ili „konfabulacije“ u odgovorima na upite korisnika), autorska prava nad podacima kojima su „trenirani“ UI sustavi, mogućnost da se razvije prevelika ovisnost o sustavima UI, kao i moguće probleme u procjeni studentskog znanja kod njegove online provjere ili kod ocjenjivanja uradaka koje studenti rade od kuće, odnosno bez kontrole nastavnika u učionici visokog učilišta.
Naprimjer, u vrijeme pandemije COVID-19 virusa utvrđeno je znatno povećanje postotka studenata koji varaju u online provjerama znanja, a ChatGPT i drugi LLMovi omogućili su studentima da to čine još lakše i efikasnije.
Zato su nastavnicima povećani izazovi kod vrednovanja domaćih zadaća, eseja, pregleda literature, prezentacija, seminara, završnih i diplomskih radovi koje studenti rade kod kuće, tj. izvan njihovog nadzora. Posebno se u pitanje dovodi mogućnost korištenja e-učenja koje uključuju asinkrone zadatke i zadaće, ali i sinkrone testove znanja. Mnogi se nastavnici ograničavaju na tradicionalne provjere znanja u učionici te vrednuju samo one testove i zadatke koje studenti obavljaju i predaju na ocjenu u kontroliranim uvjetima u prostorijama visokog učilišta. Naime, uspjeh studenata trebao bi biti zasnovan na njihovim znanjima i sposobnostima, a ne na sklonosti i spretnosti u uporabi alata UI.
S druge strane, dio nastavnika na visokim učilištima počinju koristiti LLMove za bržu izradu nastavnih sadržaja, zadataka za studente i testova za provjeru znanja. Nažalost, LLMovi se u akademskoj zajednici počinju koristiti i za pisanje znanstvenih i stručnih radova za konferencije i časopise.
Tako je autor ovog teksta još u ožujku 2023. dobio na recenziju konferencijski rad koji je bio pisan ChatGPT alatom, a također je pronašao jedan rad dijelom napisan pomoću UI koji je istog mjeseca objavljen u online časopisu izdavača iz Indije.
Kao zanimljivost treba napomenuti i istraživanje koje je još 2023. godine utvrdilo da je „između 6.5% i 16.9% tekstova koji su predani kao recenzije na četiri promatrane konferencije možda bilo bitno modificirano uporabom LLMova“.
I pored mogućih zlouporaba i etičkih izazova, sve veći broj znanstvenih radova bavi se mogućnostima korištenja alata generativne UI, kao što su javno dostupni LLMovi opće namjene, u različitim fazama istraživačkog rada. Tako je moguće naći navode da uporaba takvih alata može pomoći kod generiranja istraživačkih ideja, izrade i poboljšavanja naslova i sažetka rada, pisanja uvoda i razloga za istraživanje, izbora ciljeva i problema istraživanja, definiranja istraživačkih pitanja, planiranja i dizajna istraživanja (metoda, uzorak, instrumenti, način obrade podataka), pregleda literature i pisanja povezanog teksta, interpretacije rezultata, rasprave, zaključka, kao i kod prevođenja, odnosno jezične provjere teksta.
Visoka učilišta brzo su definirala etičke i praktične preporuke za istraživače, nastavnike i studente u vezi odgovornog korištenja generativne UI.
Na primjer, relevantni dokumenti Sveučilišta Stanford u SAD-u uključuju napomene vezane uz kodeks časti (engl. honor code), sigurnosne preporuke, faktore rizika, primjere nabolje prakse, analizu dostupnih UI alata, savjete nastavnicima vezane uz njihove nastavne predmete (uključujući npr. moguće pedagoške primjene, „politiku“ nastavnog predmeta u vezi UI i sl.), kao i brojne druge relevantne informacije.
Na kraju treba napomenuti se, osim ranije navedenih, neprestance pojavljuju novi modeli LLMova (npr. Grok-2 tvrtke xAI i Llama 3 tvrtke Meta), kao i usavršenije i probne verzije postojećih modela (npr. o1 tvrtke OpenAI) tako da je područje generativne UI i dalje u intenzivnom razvoju, a njena primjena u obrazovanju i istraživanjima tek se započela znanstveno analizirati.