Tədqiqatçılar deyirlər ki, onlayn toksiklik yalnız insanlar və birlikdə işləyən maşınlar tərəfindən qarşılana bilər
Ən iyrənc bitləri tapmaq üçün hər saniyə istehsal olunan heyrətamiz miqdarda sosial media məzmunundan keçmək tək insanlar üçün iş deyil.
Hətta ən yeni dərin öyrənmə alətləri olsa belə, problemli yazıları müəyyən edən və nəzərdən keçirən işçilər hər gün qarşılaşdıqları şeydən əsəbləşə və tez-tez travma ala bilərlər. Maşın öyrənməsini təkmilləşdirməyə kömək etmək üçün məlumatları təhlil edən və etiketləyən konserli annotatorlara işlənmiş vahidə görə qəpiklər ödənilə bilər.
IEEE Technology and Society Magazine -də nəşr olunan Concordia-nın rəhbərlik etdiyi məqalədə tədqiqatçılar iddia edirlər ki, bu işçilərə dəstək vacibdir və onların zəhərli məzmunu müəyyən etmək üçün istifadə etdikləri texnika və vasitələrin daimi yenidən qiymətləndirilməsini tələb edir.
Müəlliflər toksikliyin avtomatik aşkarlanması üçün sosial, siyasi və texniki yanaşmaları araşdırır və potensial həll yollarını təklif edərkən onların çatışmazlıqlarını nəzərə alırlar.
Məqalənin həmmüəlliflərindən biri və Cəmiyyətdə Mühəndislik Mərkəzinin dosenti Ketra Şmitt deyir: “Biz həm maşın öyrənmə, həm də zəhərli dilin insan annotatorlarını əhatə edən cari moderasiya üsullarının nə qədər yaxşı işlədiyini bilmək istəyirik”. Gina Cody Mühəndislik və Kompüter Elmləri Məktəbi.
O hesab edir ki, insan töhfələri mülayim olmaq üçün vacib olaraq qalacaq. Mövcud avtomatlaşdırılmış toksikliyin aşkarlanması üsulları təkmilləşə bilsə də, heç biri səhvsiz deyil. İnsan qərar verənlər qərarları nəzərdən keçirmək üçün vacibdir.
“Maşın öyrənməsi olmadan moderasiya səyləri əbəs olardı, çünki həcm çox böyükdür. Lakin süni intellekt (AI) ətrafında şırıngada itirilən əsas faktdır ki, maşın öyrənməsi insan annotatorunun işləməsini tələb edir. Biz nə insanları, nə də AI-ni çıxara bilmərik. “
https://www.youtube.com/embed/gSnvimmhAU0?color=whiteKredit: Concordia Universiteti
Arezo Bodaghi Concordia İnformasiya Sistemləri Mühəndisliyi İnstitutunda tədqiqatçı köməkçisi və məqalənin aparıcı müəllifidir. “Biz zəhərli məzmunu müəyyən etmək üçün maşın və dərin öyrənmədə olan cari qiymətləndirmə matrisinə sadəcə etibar edə bilmərik” dedi Bodaghi. “Bizə onların daha dəqiq və çoxdilli olması lazımdır.
“Bizim də onların çox sürətli olmasına ehtiyacımız var, lakin maşın öyrənmə üsulları sürətli olduqda onlar dəqiqliyini itirə bilərlər. Mübadilə etmək lazımdır.”
Müxtəlif qrupların geniş məlumatı maşın öyrənmə vasitələrinin mümkün qədər əhatəli və qərəzsiz olmasına kömək edəcək. Buraya qeyri-ingilis dili bilməyən və LGBTQ2S+ və irqiləşmiş icmalar kimi az təmsil olunan qruplardan gələn işçilərin işə götürülməsi daxildir. Onların töhfələri maşın öyrənmə vasitələrinin istifadə etdiyi böyük dil modellərini və məlumat dəstlərini təkmilləşdirməyə kömək edə bilər.
https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=135&slotname=2793866484&adk=675901022&adf=1873531024&pi=t.ma~as.2793866484&w=540&fwrn=4&lmt=1709645649&rafmt=11&format=540×135&url=https%3A%2F%2Ftechxplore.com%2Fnews%2F2024-02-online-toxicity-countered-humans-machines.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTUuMC4wIiwieDg2IiwiIiwiMTIyLjAuNjI2MS45NSIsbnVsbCwwLG51bGwsIjY0IixbWyJDaHJvbWl1bSIsIjEyMi4wLjYyNjEuOTUiXSxbIk5vdChBOkJyYW5kIiwiMjQuMC4wLjAiXSxbIkdvb2dsZSBDaHJvbWUiLCIxMjIuMC42MjYxLjk1Il1dLDBd&dt=1709623232794&bpp=2&bdt=137&idt=370&shv=r20240228&mjsv=m202402270101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Dd8c6cdc5123375cd%3AT%3D1709623025%3ART%3D1709645330%3AS%3DALNI_MY2ynj5TDpMXqOZBx7W90OihbbXuw&gpic=UID%3D00000d6971a748b6%3AT%3D1709623025%3ART%3D1709645330%3AS%3DALNI_MaTILJ6PYHOKRZlSvHcKJ4LkDsnLQ&eo_id_str=ID%3D34d5e14efb6a7c5d%3AT%3D1709623025%3ART%3D1709645330%3AS%3DAA-Afjbw5XrDrmZOIEp3UV8fgvCO&prev_fmts=0x0%2C1519x695&nras=2&correlator=4273506672544&frm=20&pv=1&ga_vid=1833901760.1709623018&ga_sid=1709623233&ga_hid=1215122602&ga_fc=1&rplot=4&u_tz=240&u_his=1&u_h=864&u_w=1536&u_ah=816&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=2660&biw=1519&bih=695&scr_x=0&scr_y=0&eid=44759876%2C44759927%2C44759837%2C44798934%2C95325752%2C95326317%2C31081511%2C95322183%2C95324160%2C31078663%2C31078665%2C31078668%2C31078670&oid=2&pvsid=2339521387453021&tmod=1748235331&uas=0&nvt=1&ref=https%3A%2F%2Ftechxplore.com%2Fpage2.html&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C0%2C0%2C1536%2C695&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=0&td=1&psd=W251bGwsbnVsbCwibGFiZWxfb25seV8xIiwxXQ..&nt=1&ifi=2&uci=a!2&btvi=1&fsb=1&dtd=M
Onlayn dünyanı sosial saxlamaq
Tədqiqatçılar toksikliyin aşkarlanmasını yaxşılaşdırmaq üçün şirkətlərin qəbul edə biləcəyi bir neçə konkret tövsiyə təklif edirlər.
İlk növbədə annotatorların iş şəraitinin yaxşılaşdırılmasıdır. Bir çox şirkət onlara saatla deyil, iş vahidi ilə ödəyir. Bundan əlavə, bu vəzifələr Şimali Amerika və ya Avropalı həmkarlarından daha aşağı əmək haqqı tələb edən işçilər üçün asanlıqla ofşor edilə bilər, beləliklə şirkətlər işçilərinə saatda bir dollardan az maaş verə bilər.
Bu işçilər ən dəhşətli onlayn məzmunun bəzilərinə qarşı ön cəbhədə dayansalar da, psixi sağlamlığın müalicəsi üçün çox az şey təklif olunur.
Şirkətlər həmçinin toksikliyi qeyd edən Gab, 4chan, 8chan və Truth Social kimi digərlərindən fərqli olaraq xeyirxahlıq, qayğı və qarşılıqlı hörmətə üstünlük verən onlayn platforma mədəniyyətlərini qəsdən qura bilərlər.
Alqoritmik yanaşmaların təkmilləşdirilməsi böyük dil modellərinə yanlış identifikasiya və kontekst və dilin fərqləndirilməsi ilə bağlı edilən səhvlərin sayını azaltmağa kömək edərdi.
Nəhayət, platforma səviyyəsində korporativ mədəniyyət istifadəçi səviyyəsində təsir göstərir.
Mülkiyyət, məsələn, istifadəçi etibarını və təhlükəsizlik qruplarını prioritetləşdirdikdə və ya hətta aradan qaldırdıqda, təsirlər şirkət miqyasında hiss oluna bilər və mənəviyyat və istifadəçi təcrübəsinə zərər verə bilər.
“Sənayedə baş verən son hadisələr, hörmət edilən, dəstəklənən, layiqli maaş alan və öz mühakimələrini vermək üçün müəyyən qədər təhlükəsizliyə malik olan insan işçilərinin olmasının nə üçün bu qədər vacib olduğunu göstərir” deyə Schmitt yekunlaşdırır.
Ətraflı məlumat: Arezo Bodaghi və digərləri, Onlayn Toksikliyə Texnoloji Həllər: Potensial və Tələlər, IEEE Texnologiya və Cəmiyyət Jurnalı (2024). DOI: 10.1109/MTS.2023.3340235Concordia Universiteti tərəfindən təmin edilmişdir