AI qərəzi: avtomatlaşdırılmış ayrı-seçkiliyə qarşı mütəşəkkil mübarizə
Avropanın dövlət idarələrində süni intellekt (AI) və avtomatlaşdırılmış qərar qəbuletmə (ADM) sistemlərindən artıq geniş şəkildə istifadə olunur.
Çox vaxt qeyri-şəffaf “qara qutu” alqoritmləri üzərində qurulan bu sistemlər ictimai yerlərdə üzümüzü tanıyır, işsizlik proqramları təşkil edir və hətta imtahan qiymətlərini proqnozlaşdırır . Onların vəzifəsi insan davranışını proqnozlaşdırmaq və hətta rifah, sağlamlıq və sosial xidmətlər kimi həssas sahələrdə belə qərarlar qəbul etməkdir.
Alqoritmik polisin asanlıqla qəbul edildiyi ABŞ-da göründüyü kimi , bu qərarlar təbii olaraq əsas qərəz və səhvlərdən təsirlənir. Bunun fəlakətli nəticələri ola bilər: 2020-ci ilin iyun ayında Miçiqan ştatında qaradərili bir kişi törətmədiyi cinayətə görə həbs olundu, sorğu-sual edildi və bir gecədə saxlandı. Onu AI sistemi səhvən tanıyıb.
Bu sistemlər öz təbiətinə görə qüsurlu olan əvvəlcədən mövcud olan insan tərəfindən hazırlanmış məlumatlar üzərində öyrədilir. Bu o deməkdir ki, onlar ayrı-seçkiliyin və qərəzliliyin mövcud formalarını davam etdirə bilərlər ki, bu da Virciniya Eubanksın “bərabərsizliyin avtomatlaşdırılması” adlandırdığı şeyə gətirib çıxarır .
Süni intellektə cavabdeh olmaq
Bu sistemlərin geniş şəkildə mənimsənilməsi təcili sual doğurur: alqoritmin öz qərarlarına cavab verməsi üçün nə lazımdır?
https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=135&slotname=2793866484&adk=675901022&adf=1873531024&pi=t.ma~as.2793866484&w=540&fwrn=4&lmt=1709643729&rafmt=11&format=540×135&url=https%3A%2F%2Ftechxplore.com%2Fnews%2F2024-03-ai-bias-struggle-automated-discrimination.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTUuMC4wIiwieDg2IiwiIiwiMTIyLjAuNjI2MS45NSIsbnVsbCwwLG51bGwsIjY0IixbWyJDaHJvbWl1bSIsIjEyMi4wLjYyNjEuOTUiXSxbIk5vdChBOkJyYW5kIiwiMjQuMC4wLjAiXSxbIkdvb2dsZSBDaHJvbWUiLCIxMjIuMC42MjYxLjk1Il1dLDBd&dt=1709623104909&bpp=2&bdt=749&idt=690&shv=r20240228&mjsv=m202402270101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Dd8c6cdc5123375cd%3AT%3D1709623025%3ART%3D1709643599%3AS%3DALNI_MY2ynj5TDpMXqOZBx7W90OihbbXuw&gpic=UID%3D00000d6971a748b6%3AT%3D1709623025%3ART%3D1709643599%3AS%3DALNI_MaTILJ6PYHOKRZlSvHcKJ4LkDsnLQ&eo_id_str=ID%3D34d5e14efb6a7c5d%3AT%3D1709623025%3ART%3D1709643599%3AS%3DAA-Afjbw5XrDrmZOIEp3UV8fgvCO&prev_fmts=0x0%2C1519x695&nras=2&correlator=6943478510052&frm=20&pv=1&ga_vid=1833901760.1709623018&ga_sid=1709623105&ga_hid=228900592&ga_fc=1&rplot=4&u_tz=240&u_his=1&u_h=864&u_w=1536&u_ah=816&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=1568&biw=1519&bih=695&scr_x=0&scr_y=0&eid=44759876%2C44759927%2C44759837%2C95325752%2C31081511%2C95322182%2C95324160%2C31078663%2C31078665%2C31078668%2C31078670&oid=2&pvsid=1811366216047833&tmod=971840517&uas=0&nvt=1&ref=https%3A%2F%2Ftechxplore.com%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C0%2C0%2C1536%2C695&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=0&td=1&psd=W251bGwsbnVsbCwibGFiZWxfb25seV8xIiwxXQ..&nt=1&ifi=4&uci=a!4&btvi=1&fsb=1&dtd=M
Bu, bu yaxınlarda Kanadada sınaqdan keçirildi, məhkəmələr bir aviaşirkətə süni intellektlə işləyən chatbot tərəfindən verilən pis məsləhətə görə hərəkət edən müştəriyə təzminat ödəməyi əmr etdikdə. Aviaşirkət chatbotun “öz hərəkətlərinə görə məsuliyyət daşıdığını” bildirərək bu iddianı təkzib etməyə çalışıb.
Avropada, bu yaxınlarda qəbul edilmiş Süni İntellekt Aktı şəklində süni intellektdən istifadəni tənzimləmək üçün institusional bir addım atıldı .
Bu Qanun böyük və güclü süni intellekt sistemlərini tənzimləmək, onların sistemli təhlükə törətməsinin qarşısını almaq, eyni zamanda vətəndaşları onların potensial sui-istifadəsindən qorumaq məqsədi daşıyır. Qanunun qüvvəyə minməsi Aİ-yə üzv dövlətlərdə vətəndaş cəmiyyəti təşkilatları tərəfindən həyata keçirilən geniş bir sıra əvvəlki birbaşa fəaliyyətlər, təşəbbüslər və kampaniyalarla müşayiət olunub.
Problemli süni intellekt sistemlərinə qarşı artan müqavimət son illərdə təcil və görünürlük qazandı. O, həmçinin tənzimləyicilərin seçimlərinə mühüm yollarla təsir edərək, onlara fundamental hüquqları qoruyan tədbirlər tətbiq etmək üçün təzyiq göstərib .
İnsan Səhvləri Layihəsi
İsveçrədəki St. Gallen Universitetində yerləşən İnsan Səhvləri Layihəsinin bir hissəsi olaraq biz vətəndaş cəmiyyəti aktorlarının Avropada avtomatlaşdırılmış ayrı-seçkiliyin artmasına qarşı durma yollarını öyrənmişik. Layihəmiz qərəzliliyi, ayrı-seçkiliyi və alqoritmlərin və AI-nin məsuliyyətsizliyini əhatə edən çətir termini olan AI səhvlərinə diqqət yetirir.
Ən son araşdırma hesabatımız “ Avropada vətəndaş cəmiyyətinin alqoritmik ədalətsizliyə qarşı mübarizəsi ” adlanır . Fəallar və vətəndaş cəmiyyəti təşkilatlarının nümayəndələri ilə müsahibələrə əsaslanaraq, o, Avropa rəqəmsal hüquqlar təşkilatlarının süni intellekt səhvlərini necə başa düşdüyünü, AI sistemlərinin istifadəsini necə şübhə altına aldıqlarını araşdırır və bu müzakirələrə təcili ehtiyac olduğunu vurğulayır.
Tədqiqatımız narahatlıq doğuran mənzərəni ortaya qoydu, çünki müsahibə götürdüyümüz şəxslərin əksəriyyəti süni intellekt üzrə alimlər tərəfindən irəli sürülən indi geniş şəkildə qəbul edilmiş fikri bölüşdülər : süni intellekt insanı anlamağa gəldikdə çox vaxt irqçi, ayrı-seçkilik və reduksiyaçı ola bilər.
Müsahiblərimizin çoxu onu da qeyd etdi ki, süni intellekt səhvlərini sırf texnoloji məsələ kimi qəbul etməməliyik. Əksinə, onlar son texnoloji inkişaflardan əvvəl olan daha geniş sistemli sosial problemlərin simptomlarıdır.
Proqnozlaşdırıcı polis fəaliyyəti bunun bariz nümunəsidir. Bu sistemlər əvvəlki, potensial olaraq saxtalaşdırılmış və ya pozulmuş polis məlumatlarına əsaslandığından , onlar irqi ayrı-seçkiliyin mövcud formalarını davam etdirir, çox vaxt irqi profilləşdirməyə və hətta qeyri-qanuni həbslərə səbəb olur.
https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=135&slotname=2793866484&adk=675901022&adf=1897700409&pi=t.ma~as.2793866484&w=540&fwrn=4&lmt=1709643764&rafmt=11&format=540×135&url=https%3A%2F%2Ftechxplore.com%2Fnews%2F2024-03-ai-bias-struggle-automated-discrimination.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTUuMC4wIiwieDg2IiwiIiwiMTIyLjAuNjI2MS45NSIsbnVsbCwwLG51bGwsIjY0IixbWyJDaHJvbWl1bSIsIjEyMi4wLjYyNjEuOTUiXSxbIk5vdChBOkJyYW5kIiwiMjQuMC4wLjAiXSxbIkdvb2dsZSBDaHJvbWUiLCIxMjIuMC42MjYxLjk1Il1dLDBd&dt=1709623104966&bpp=5&bdt=807&idt=666&shv=r20240228&mjsv=m202402270101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Dd8c6cdc5123375cd%3AT%3D1709623025%3ART%3D1709643599%3AS%3DALNI_MY2ynj5TDpMXqOZBx7W90OihbbXuw&gpic=UID%3D00000d6971a748b6%3AT%3D1709623025%3ART%3D1709643599%3AS%3DALNI_MaTILJ6PYHOKRZlSvHcKJ4LkDsnLQ&eo_id_str=ID%3D34d5e14efb6a7c5d%3AT%3D1709623025%3ART%3D1709643599%3AS%3DAA-Afjbw5XrDrmZOIEp3UV8fgvCO&prev_fmts=0x0%2C1519x695%2C540x135%2C1005x124&nras=3&correlator=6943478510052&frm=20&pv=1&ga_vid=1833901760.1709623018&ga_sid=1709623105&ga_hid=228900592&ga_fc=1&rplot=4&u_tz=240&u_his=1&u_h=864&u_w=1536&u_ah=816&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=2991&biw=1519&bih=695&scr_x=0&scr_y=223&eid=44759876%2C44759927%2C44759837%2C95325752%2C31081511%2C95322182%2C95324160%2C31078663%2C31078665%2C31078668%2C31078670&oid=2&psts=AOrYGsmvSPKmG8k0ocjtY4jz2ywha9lUsuuRiEZG2gsKUhhVOYUUFzKbwtjzIyAnamVAvPjI8Sh-eaZ8nE6yc8ikXrVE7ymMOCbLueeT_vg-_Tx8RTgXkg%2CAOrYGslJrMdrWPywt9VgItiFicKRVZFY8QUhv9JSYltuWdflCRIxwPPKkt-epTgKBsGjP53sL57jr3DYHXaf5C46PAP1vurE&pvsid=1811366216047833&tmod=971840517&uas=3&nvt=1&ref=https%3A%2F%2Ftechxplore.com%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C1536%2C816%2C1536%2C695&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=1&td=1&psd=W251bGwsbnVsbCwibGFiZWxfb25seV8xIiwxXQ..&nt=1&ifi=5&uci=a!5&btvi=3&fsb=1&dtd=M
Süni intellekt artıq gündəlik həyatınıza təsir edir
Avropalı vətəndaş cəmiyyəti aktyorları üçün əsas problemlərdən biri cəmiyyətdə süni intellektdən həyatlarının bir çox sahələrində qərar qəbul etmək üçün istifadə edildiyi barədə məlumatlılığın olmamasıdır. İnsanlar xəbərdar olsalar belə, bu sistemlərin necə işlədiyi və ya ədalətsiz qərar qəbul etdikdə kimin məsuliyyət daşımalı olduğu çox vaxt aydın olmur.
Bu görünməzlik o deməkdir ki, alqoritmik ədalət uğrunda mübarizə təkcə siyasi deyil, həm də simvolik məsələdir: o, bizim obyektivlik və dəqiqlik ideyalarımızı şübhə altına alır.
İlk araşdırma hesabatımızın göstərdiyi kimi, süni intellektlə bağlı müzakirələrdə media şırıngası və çaxnaşma üstünlük təşkil edir . Nəticə etibarilə, Avropa vətəndaş cəmiyyəti təşkilatları iki məqsəd güdmək məcburiyyətindədirlər: məsələ haqqında aydın danışmaq və AI-nın sosial problemlər üçün panacea kimi baxışına meydan oxumaq.
Problemin adlandırılmasının vacibliyi yeni hesabatımızda aydın görünür, burada müsahiblər hətta “AI Etikası” kimi ifadələrdən istifadə etməkdə tərəddüd edirdilər və ya “AI” haqqında ümumiyyətlə qeyd etmədilər. Bunun əvəzinə onlar “qabaqcıl statistika”, “Avtomatlaşdırılmış qərar qəbulu” və ya “ADM sistemləri” kimi alternativ terminlərdən istifadə edirdilər.
Böyük texnologiyaya hakim olmaq
Geniş ictimaiyyət arasında məlumatlılığın artırılması ilə yanaşı, əsas məsələlərdən biri böyük texnologiyanın dominant gücünün cilovlanmasıdır. Əlaqə saxladığımız bir neçə təşkilat Aİ-nin AI Aktı ilə bağlı təşəbbüslərdə iştirak edib və bəzi hallarda texnoloji firmaların istifadə edə biləcəyi problemlərin işıqlandırılmasında və boşluqların aradan qaldırılmasında birbaşa rol oynayıb.
Bəzi təşkilatların fikrincə, ictimai yerlərdə sifətin biometrik tanınması kimi elementlər var ki, burada açıq qadağadan başqa heç nə kifayət etməyəcək. Digərləri hətta bütövlükdə qanunvericiliyə skeptik yanaşırlar, belə hesab edirlər ki, alqoritmik sistemlərin davamlı yayılmasının yaratdığı bütün problemləri tək tənzimləmə həll edə bilməz.
Tədqiqatlarımız göstərir ki, alqoritmik sistemlərin gücünü həll etmək üçün biz süni intellekt səhvini texnoloji problem kimi görməyi dayandırmalı və onu siyasi bir problem kimi görməliyik. Təmirə ehtiyacı olan şey sistemdəki texnoloji səhv deyil, bu sistemlərin davam etdirdiyi sistem bərabərsizlikləridir.The Conversation tərəfindən təmin edilmişdir