Kao odgovor na sve veću pažnju javnosti posvećenu ChatGPT-u, Laboratorija za inovacije Europola organizirala je brojne radionice sa stručnjacima iz cijelog Europola kako bi istražili kako kriminalci mogu zloupotrijebiti velike jezičke modele kao što je ChatGPT, kao i kako to može pomoći istražitelja u svakodnevnom radu.
Njihovi uvidi su sastavljeni u prvom Europolovom Tech Watch Flash izvještaju objavljenom danas. Pod nazivom „ChatGPT – uticaj velikih jezičkih modela na provođenje zakona“, ovaj dokument pruža pregled potencijalne zloupotrebe ChatGPT-a i nudi pogled na ono što tek može doći.
- Cilj ovog izvještaja je podizanje svijesti o potencijalnoj zloupotrebi LLM-a, otvaranje dijaloga sa kompanijama koje se bave umjetnom inteligencijom (AI) kako bi im se pomoglo da ugrade bolje mjere zaštite i promovirao razvoj sigurnih i pouzdanih AI sistema. Duža i detaljnija verzija ovog izvještaja napravljena je samo za provođenje zakona- navode iz Europola.
ŠTA SU VELIKI JEZIČKI MODELI?
Veliki jezički model je vrsta AI sistema koji može da obrađuje, manipuliše i generiše tekst.
Obuka LLM-a uključuje hranjenje velikim količinama podataka, kao što su knjige, članci i web stranice, tako da može naučiti obrasce i veze između riječi kako bi generisao novi sadržaj. ChatGPT je LLM koji je razvio OpenAI i pušten široj javnosti kao dio pregleda istraživanja u novembru 2022.
- Trenutni javno dostupan model koji je u osnovi ChatGPT-a je sposoban za obradu i generiranje ljudskog teksta kao odgovor na upite korisnika. Konkretno, model može odgovarati na pitanja o raznim temama, prevoditi tekst, uključivati se u razgovorne razmjene („čavrljanje“), generirati novi sadržaj i proizvoditi funkcionalni kod- pojašnjavaju iz Europola.
TAMNA STRANA VELIKIH JEZIČKIH MODELA
Kako se sposobnosti LLM-a kao što je ChatGPT aktivno poboljšavaju, potencijalna eksploatacija ovih tipova AI sistema od strane kriminalaca pruža mračnu perspektivu.
Sljedeća tri područja kriminala su među mnogim područjima zabrinutosti koje su identificirali Europolovi stručnjaci:
- Prevara i društveni inženjering: ChatGPT-ova sposobnost da izradi vrlo realističan tekst čini ga korisnim alatom za phishing svrhe. Sposobnost LLM-a da reprodukuje jezičke obrasce može se koristiti za oponašanje stila govora određenih pojedinaca ili grupa.
Ova sposobnost može biti zloupotrijebljena u velikim razmjerima kako bi se potencijalne žrtve dovele u zabludu da svoje povjerenje stave u ruke kriminalnih aktera.
- Dezinformacije: ChatGPT se ističe u stvaranju autentičnog zvučnog teksta brzinom i razmjerom. To čini model idealnim za propagandne i dezinformacijske svrhe, jer omogućava korisnicima da generišu i šire poruke koje odražavaju specifičnu priču uz relativno malo truda.
- Sajber kriminal: Pored generisanja ljudskog jezika, ChatGPT je sposoban da proizvede kod na više različitih programskih jezika. Za potencijalnog kriminalca sa malo tehničkog znanja, ovo je neprocjenjiv resurs za proizvodnju zlonamjernog koda.
Kako tehnologija bude napredovala, a novi modeli postali dostupni, postaće sve važnije da organi za sprovođenje zakona ostanu na čelu ovog razvoja kako bi predvidjeli i spriječili zloupotrebe.