Modelet e inteligjencës artificiale (IA) po përparojnë dhe kanë mundësi të zbulojnë gjuhën e urrejtjes në internet, dhe në këtë mënyrë të ndikojnë në mënyrë parandaluese në përhapjen e saj, veçanërisht përmes rrjeteve kryesore sociale, të cilat përdoren nga shumica e qytetarëve të Maqedonisë. Megjithatë, edhe “risitë” e individëve që përhapin gjuhën e urrejtjes po përparojnë, me qëllim që ta reduktojnë zbulimin e përmbajtjeve problematike. Në këtë lloj beteje mes autorëve të përmbajtjeve të tilla si krijues dhe inteligjencës artificiale si mekanizëm parandalues, është thelbësore që të mos pësojë liria e shprehjes, shkruan Meta.mk, transmeton Portalb.mk.

Në Maqedoninë e Veriut, gjuha e urrejtjes në internet prek kategori të ndryshme qytetarësh. Fondacioni “Metamorfozis” në hulumtimin “Gjuha e urrejtjes në internet drejtuar grave në Maqedoninë e Veriut” zbuloi se gjuha e urrejtjes në internet me element gjinor shfaqet kryesisht në postimet dhe komentet në rrjetin social “Facebook”, si dhe në pjesën e komenteve të portaleve të caktuara. Autoret e hulumtimit, Milla Josifovska Danillovska, Vesna Radinovska dhe Despina Kovaçevska, konstatuan se gratë që ishin shënjestër e gjuhës së urrejtjes në internet zakonisht kanë funksion publik ose ndonjë lloj pozite publike, si gazetare apo aktiviste.

Milla Josifovska Danillovska, foto: Vanço Xhambaski
Milla Josifovska Danillovska, foto: Vanço Xhambaski

“Hulumtimi ynë tregon se gjuha e përdorur në internet ka më shumë gjasa të gjendet në platformat sociale si p.sh. “Facebook”, kështu që nëse algoritmi i përdorur nga rrjetet sociale për të zbuluar dhe hequr gjuhën e urrejtjes është i njëanshëm, atëherë ai do të synojë në mënyrë disproporcionale grupe të caktuara që mund të rezultojë në trajtim të pabarabartë të komuniteteve të ndryshme”, shpjegon Milla Josifovska Danillovska.

Gjithashtu, në hulumtim trajtohet edhe përmendja e termit “gjuhë e urrejtjes” në mediat online, e cila është analizuar përmes agregatorit të lajmeve Time.mk. Në të njëjtën kohë, u konstatua se problemi ka qenë i pranishëm në diskursin publik maqedonas gjatë gjashtë viteve të fundit, nga viti 2017 deri në vitin 2022.

Përmendja e termit “gjuhë e urrejtjes” në mediat online u përshkallëzua në vitin 2020, kur u arrit kulmi me numrin më të madh të përmendjeve (869). Pikërisht në atë vit filloi pandemia e Kovid-19, e për shkak të kufizimeve të kontakteve fizike, shumica e popullsisë kaloi në komunikimin online.

Gjithashtu, niveli i ulët i edukimit digjital në vend, i kombinuar me rritjen e numrit të përdoruesve të internetit në vitin 2020, çoi në rritje të gjuhës së urrejtjes në internet gjatë kësaj periudhe. Megjithatë, kjo nuk do të thotë se ky problem nuk është akut edhe sot, pasi pjesa më e madhe e shoqërisë i tejkaloi pasojat e pandemisë së Kovid.

Komiteti i Helsinkit për të Drejtat e Njeriut njofton për Meta.mk se nga 1 janari deri më 31 korrik 2023 në platformën govornaomraza.mk janë regjistruar gjithsej 568 raste të gjuhës së urrejtjes mbi baza të ndryshme.

“Në varësi të kontekstit socio-politik në të cilin ndodhemi, intensiteti dhe shpeshtësia e gjuhës së urrejtjes rritet ose zvogëlohet. Për shembull, gjatë muajit të krenarisë, proporcionalisht me rritjen e dukshmërisë së komunitetit LGBTI dhe organizimit të Paradës së krenarisë, u rrit edhe gjuha e urrejtjes ndaj këtij komuniteti që ishte e dukshme në hapësirën online dhe në rrjetet sociale”, shpjegojnë nga Komiteti i Helsinkit për të Drejtat e Njeriut.

Komiteti i Helsinkit për të Drejtat e Njeriut, përmes metodologjisë së brendshme dhe monitorimit të jashtëm, e monitoron dhe e regjistron gjuhën e urrejtjes, si në hapësirën online, ashtu edhe në atë fizike. Megjithatë, ata gjithashtu shtojnë se jo rrallë ndodh që viktimat e gjuhës së urrejtjes të kërkojnë personalisht mbrojtje, e duke pasur parasysh mosndëshkimin e gjuhës së urrejtjes drejtuar grupeve të margjinalizuara, viktimat dekurajohen ta raportojnë gjuhën e urrejtjes.

Nga ana tjetër, fakti që viktimat nuk e raportojnë gjithmonë gjuhën e urrejtjes në internet nuk do të thotë se komuniteti duhet të heshtë dhe të mos bëjë asgjë për këtë problem. Një mjet i fuqishëm parandalues kundër gjuhës së urrejtjes mund të jenë modelet e inteligjencës artificiale të krijuara dhe të përdorura vazhdimisht nga rrjetet sociale.

Profesori universitar Hristijan Gjoreski nga Fakulteti i Elektroteknikës dhe Teknologjive të Informacionit në UKM shpjegon se pothuajse të gjitha rrjetet e popullarizuara sociale përdorin modele të inteligjencës artificiale për të zbuluar dhe trajtuar gjuhën e urrejtjes në internet.

“Këto modele funksionojnë në bazë të algoritmeve nga fusha e mësimit të makinës dhe mënyra e plotë e funksionimit të tyre mund të ndryshojë ndërmjet rrjeteve të ndryshme sociale” – thotë profesor Gjoreski.

Media sociale, rrjete sociale, telefon. Foto: Pixabay
Media sociale, Foto: Pixabay

Si shembull, ai e merr “Facebook”-un dhe modelet e tij të inteligjencës artificiale, të cilat identifikuan 27 milionë raste të gjuhës së urrejtjes në tre muajt e fundit të vitit 2020. Në 97 përqind të rasteve, sistemi ndërmori veprime dhe hoqi përmbajtjen përpara se njerëzit të shënonin këto postime si gjuhë urrejtjeje.

Profesor Gjoreski shpjegon se modelet e tilla të inteligjencës artificiale e ndjekin mënyrën klasike të procesimit dhe përpunimit të tekstit dhe modelimin e tyre me ndihmën e inteligjencës artificiale.

“Kjo nënkupton mbledhjen e sasive të mëdha të teksteve për të cilat e dimë se janë gjuhë urrejtjeje nga njëra anë dhe gjuhës normale nga ana tjetër. Më pas përdoren algoritme për përpunimin e tekstit për të mësuar nga shembujt e mëparshëm për të dalluar gjuhën e urrejtjes nga ajo normale. Kjo përfshin mësimin e rregullave se si duken fjalët, shprehjet dhe konstruksionet që përdoren në gjuhën e urrejtjes. Aktualisht modelet më të mira përfshijnë algoritme nga fusha e Mësimit të Makinës dhe Rrjeteve të Thella Neurale, përkatësisht: rrjetet nervore rekurente, rrjetet nervore konvolucionale, transformuesit, më të famshmit prej të cilëve janë: CNN, GPT, LSTM, BERT dhe versionet dhe kombinimet e tyre”, thekson Hristijan Gjoreski.

Ai shton se çelësi i modeleve të inteligjencës artificiale janë të dhënat e mbledhura, gjegjësisht sa më shumë shembuj të shënuar të gjuhës së urrejtjes të kemi, aq më i mirë do të jetë vetë modeli në njohjen dhe shënjimin e gjuhës së tillë.

“Këtu po flasim për miliona shembuj, të cilët janë të vështirë për t’u mbledhur dhe shënjuar. Kjo është arsyeja pse “crowd sourcing” përdoret si mekanizëm për mbledhjen e të dhënave të tilla, gjegjësisht duke u mundësuar vetë përdoruesve të shënojnë kur ka gjuhë urrejtjeje. Natyrisht, këtu mund të ketë gabime, por imagjinoni kur ndonjë përmbajtje të shënohet si gjuhë e urrejtjes nga 1.000 përdorues – atëherë probabiliteti që ajo përmbajtje të jetë me të vërtetë gjuhë urrejtjeje është e madhe” – sqaron Gjoreski.

Intelegjenca artificiale, foto: Tara Winstead/Pexels
Intelegjenca artificiale (IA), foto: Tara Winstead/Pexels

Ajo që është pak më sfiduese sot është zbulimi i gjuhës së urrejtjes në përmbajtjet video, por me zhvillimin e algoritmeve të inteligjencës artificiale, tashmë po shohim rezultate edhe në atë fushë, thotë profesori i Fakultetit të Elektroteknikës dhe Teknologjive të Informacionit.

“Inteligjenca artificiale ka një potencial të madh për të qenë një instrument efektiv për zbulimin dhe parandalimin e gjuhës së urrejtjes në mediat online. Përparësitë e përdorimit të modeleve të IA-së për të zbuluar gjuhën e urrejtjes janë se modelet mund të analizojnë sasi të mëdha të përmbajtjes pothuajse në kohë reale – gjegjësisht brenda sekondave të para të vetë postimit. Kjo mundëson zbulimin pothuajse në kohë reale dhe mundëson që përmbajtja kontestuese të mos përhapet fare. “Gjithashtu, modelet e IA-së mund të mësojnë dhe të përmirësohen dhe përshtaten me përmbajtjet dhe mënyrat e reja të publikimit të gjuhës së urrejtjes”, shton profesori Gjoreski.

Për sa i përket zbatueshmërisë së modeleve të inteligjencës artificiale në vend, ai shpjegon se është logjike që këto modele fillimisht të zhvillohen në gjuhën angleze. Sidoqoftë, pengesa gjuhësore te inteligjenca artificiale është shumë më e ulët se në botën reale, gjegjësisht, ose ka algoritme që i përkthejnë lehtësisht gjuhët ose algoritmet më të fundit të IA-së janë më pak të varura nga gjuha konkrete. Megjithatë, nuk është vetëm përkthimi sfidë, por edhe diversiteti i kulturave dhe kontekstet lokale.

“Prandaj lind nevoja për të trajnuar modele në gjuhën përkatëse, e cila mund të jetë më e vështirë dhe kërkon shumë burime dhe kohë. Por, në IA ka mekanizma dhe algoritme për modelet e zhvilluara për anglishten, ato mund të mësohen relativisht lehtë dhe të përshtaten për gjuhën maqedonase ose shqipe, me teknika si “transfer learning”, “fine tuning” e të ngjashme” , shpjegon Gjoreski.

Kur bëhet fjalë për kontekstin lokal, Maqedonia e Veriut është në proces të përgatitjes së Strategjisë Kombëtare për Inteligjencën Artificiale. Në kuadër të Fondit për Inovacion dhe Zhvillim Teknologjik është krijuar një grup pune, megjithëse deri më sot nuk është përcaktuar një draft-version i këtij dokumenti. Drejtoresha ekzekutive e Shoqatës Konekt, Nikica Kusinikova, e cila është edhe anëtare e grupit punues, informon se deri më tani kanë pasur vetëm një takim dhe as vetë ata nuk kanë informacion nëse ka afate për zbatimin e një strategjie të tillë. Megjithatë, Kusinikova thekson se në Strategjinë Kombëtare duhet të përfshihet aspekti i mbrojtjes së të drejtave të njeriut, pasi ai është segment kyç në kuadër të të cilit bën pjesë edhe mbrojtja nga gjuha e urrejtjes online.

Kusinikova sqaron se Bashkimi Evropian aktualisht është duke e finalizuar kornizën rregullatore për inteligjencën artificiale dhe ndoshta mund të jetë veprim i mençur që vendi të presë për miratimin e Strategjisë Kombëtare për Inteligjencën Artificiale, në mënyrë që të harmonizohemi me politikat dhe aktet evropiane.

Nikica Kusinikova apelon që të mos pritet vetëm Strategjia Kombëtare, por organizatat joqeveritare që kanë më shumë përvojë në monitorimin e gjuhës së urrejtjes online, të vazhdojnë me krijimin e një lloj leksiku fjalësh dhe frazash në gjuhën maqedonase dhe shqipe, të cilat mund të ndihmojë në zbulimin automatik dhe parandalimin e përhapjes së gjuhës së urrejtjes në internet.

Ajo e përmend shembullin e fjalëve “vdis” ose “do të të ther”, të cilat në gjuhën maqedonase, p.sh., nuk mund të gjenden në kontekst pozitiv, dhe nëse ato gjenden në mënyrë të paracaktuar (default) në postime të caktuara në rrjetet sociale, mund të fillohet automatikisht që ato të hiqen menjëherë pas publikimit të tyre.

“Tek ne besimi në gjyqësor është në nivel shumë të ulët dhe disa prej tyre [v.j. viktimat] kanë frikë se do të viktimizohen më tej dhe se do t’u duhet të mbrohen në vend që sistemi t’i mbrojë. Nuk jam e sigurt se sa Avokati i Popullit merret me këto çështje. Ajo që duhet të bëjë inteligjenca artificiale është të përpiqet të parandalojë një pjesë më të madhe, gjegjësisht të reagojë paraprakisht dhe të identifikojë gjuhën e mundshme të urrejtjes duke u bazuar në fjalët dhe shprehjet kyçe”, thekson Kusinikova.

Megjithatë, të gjithë bashkëbiseduesit nga të cilët Meta.mk kërkoi mendim janë unanimë se “dora e njeriut” nuk duhet të hiqet nga funksionimi i modeleve të inteligjencës artificiale në zbulimin e gjuhës së urrejtjes online.

Ata pajtohen që duhet të ketë ekipe recensentësh për të shqyrtuar rastet e diskutueshme, ku kufiri midis gjuhës së urrejtjes dhe lirisë së shprehjes është i paqartë, që do të thotë se njerëzit mund të ndihmojnë në përcaktimin e aspekteve etike dhe ligjore, si dhe në sqarimin e kontekstit dhe qëllimit pas përmbajtjes së caktuar.

“Konsiderojmë se për të përcaktuar nëse një fjalim është gjuhë urrejtjeje apo liri e shprehjes, duhet të përcaktohen disa parametra, si dhe konteksti, qëllimi dhe synimi në të cilin është thënë shprehja. Në këtë kuptim, konsiderojmë se në këtë moment duhet “dorë njerëzore” për ta marrë vendimin përfundimtar nëse një gjuhë e përdorur është gjuhë urrejtjeje”, thonë nga Komiteti i Helsinkit për të Drejtat e Njeriut.

Intelegjenca artificiale (IA)
Intelegjenca artificiale (IA), foto nga rawpixel.com / Freepik

Nga Komiteti i Helsinkit shtojnë se algoritmi i inteligjencës artificiale është krijuar nga njerëzit, andaj nëse algoritmi është krijuar me paragjykime ndaj një grupi, mund të pritet që inteligjenca artificiale të vendosë duke aplikuar paragjykime.

Milla Josifovska Danillovska nga Fondacioni Metamorfozis shpjegon se algoritmet mund të kenë vështirësi në identifikimin e saktë të gjuhës së urrejtjes që shprehet përmes sarkazmit, ironisë ose referencave kulturore, mund të mos e kuptojnë kontekstin e bisedës që zhvillohet, madje mund të krijojnë “dhoma jehonash”, ku përdoruesit i ekspozohen vetëm përmbajtjeve që përputhen ekskluzivisht me pikëpamjet dhe bindjet e tyre, duke e amplifikuar potencialisht gjuhën e urrejtjes në komunitete të caktuara.

“Prandaj, mënyra se si algoritmet ushqehen me informacione është shumë e rëndësishme për të shmangur gabimet sistematike dhe të përsëritura në sistemet kompjuterike që krijojnë rezultate të padrejta dhe paragjykime.” Adresimi i paragjykimeve të algoritmeve ndaj cilësdo qoftë kategorie grupesh dhe qytetarësh kërkon një kombinim të strategjive të orientuara nga të dhënat, konsideratave etike dhe një përkushtimi për të nxitur diversitetin dhe gjithëpërfshirjen në zhvillimin dhe aplikimin e teknologjisë”, thotë Milla Josifovska Danillovska nga Fondacioni Metamorfozis.

Ajo shton se për të hequr ose të paktën për të zbutur paragjykimet e algoritmeve në zbulimin e gjuhës së urrejtjes, algoritmet duhet të trajnohen me një grup të dhënash të larmishme dhe përfaqësuese që përfshin forma të ndryshme të gjuhës së urrejtjes dhe gjuhës që nuk shkakton urrejtje nga komunitete dhe këndvështrime të ndryshme. Është e rëndësishme të zhvillohen algoritme që mund ta kuptojnë më mirë kontekstin e bisedave për të identifikuar me saktësi gjuhën e urrejtjes, si dhe për të vendosur udhëzime të qarta etike që e theksojnë rëndësinë e drejtësisë, diversitetit dhe trajtimit të barabartë.

Fondacioni për internet dhe shoqëri "Metamorfozis". Foto: Fisnik Xhelili/Portalb.mk
Fondacioni për internet dhe shoqëri “Metamorfozis”. Foto: Fisnik Xhelili/Portalb.mk

Nikica Kusinikova nga Shoqata Konekt pajtohet se algoritmet bazohen në të dhëna dhe parametra të vendosur nga njerëzit, duke shtuar se është shumë e rëndësishme se si vendosen ato parametra që të mos pengohet liria e fjalës.

Ajo shton se asnjë sistem nuk është i përsosur, duke përfshirë edhe modelet e inteligjencës artificiale në zbulimin e gjuhës së urrejtjes në internet.

“Edhe nëse përfshihet njerëzit, edhe nëse nuk përfshihen njerëzit, do të ketë lëshime, do të duhet të krijohen procedura dhe protokolle që do të mundësojnë mekanizma korrigjues”, thotë Nikica Kusinikova.

Si shembull i përshtatshëm, ajo i jep rastet kur modele të tilla të inteligjencës artificiale hoqën një postim të caktuar në rrjetet sociale, pas së cilës kishte ankesa nga përdoruesit në vetë rrjetet sociale: “Prisni, postimi im është hequr në mënyrë jo adekuate ose nuk më lejohet të postoj”. Për raste të tilla, sistemi i ankesave dhe mundësia e ndërhyrjes pas vendimit të modeleve të inteligjencës artificiale për një përmbajtje të caktuar është vendimtare.

Mu për këtë arsye, Milla Josifovska Danillovska shton se duhet të ekzistojë mundësia e reagimeve (informatave kthyese) nga përdoruesit, gjegjësisht që komuniteti të jetë aleat i fortë në luftën kundër gjuhës së urrejtjes online.

“Nuk duhet të përjashtohet mbikëqyrja njerëzore, e cila do ta monitoronte të gjithë procesin, do të bënte rishikim të vazhdueshëm dhe vlerësim të performancës së algoritmeve për t’u siguruar që proceset janë korrekte ose për të korrigjuar të metat e zbuluara” – thotë Milla Josivoska Danillovska.

Në anën tjetër, Nikica Kusinikova thotë se pajtohet me pikëpamjen se modelet e inteligjencës artificiale mund të ndihmojnë në parandalimin e përhapjes së gjuhës së urrejtjes në internet, por kjo nuk do të thotë se subjektet shoqërore duhet të përjashtohen nga përgjegjësia, duke përfshirë shtetin dhe sistemin gjyqësor, por edhe kompanitë që janë pronare të rrjeteve sociale, si dhe sektori joqeveritar si faktor korrigjues.

Bashkëbiseduesit të cilët i kontaktoi Meta.mk përkujtojnë se nuk ekziston një definicion i njohur ndërkombëtarisht se çfarë është gjuhë e urrejtjes, gjegjësisht ka dallime në përkufizimin se çfarë është gjuhë urrejtjeje dhe si rrjedhojë e kësaj vështirësohet edhe puna e modeleve të inteligjencës artificiale. Nuk duhet harruar as rastet aktuale kur vetë algoritmi nuk mund të zbulojë përmbajtje të caktuara si gjuha e urrejtjes, gjë që nga ana tjetër mundëson që ato të përhapen në internet. Në raste të tilla, është pikërisht raportimi i përmbajtjes kontestuese nga përdoruesit që u mundëson rrjeteve sociale të reagojnë në mënyrën e duhur ndaj kësaj përmbajtjeje.

“Duhet të ndërmerren masa mbrojtëse për t’i parandaluar ato, e nëse ndodh ndonjë shkelje, duhet të sigurohet qasja në mjete juridike nëse dikush është viktimë e gjuhës së urrejtjes në një medium online ose diku në mediat sociale. Këtë duhet ta imponojë shteti” – përfundon Nikica Kusinikova.

Ndaje: