Siyasi dərin saxta videolar digər saxta xəbərlərdən daha aldadıcı deyil
“Deepfakes” – insanın üzünün, bədəninin və ya səsinin rəqəmsal olaraq dəyişdirildiyi sintez edilmiş videolar və audio kliplər – 2024-cü il seçkiləri ərəfəsində siyasi keçidin hər iki tərəfindən narahatlıq doğurdu.
İnternetdə dezinformasiyanın viral yayılması son seçkilərə təsir edərək, əhalinin demokratiyaya olan inamını sarsıtdı. Çoxları süni intellektin (AI) texnologiyasının problemi daha da gücləndirəcəyindən narahatdır.
Bu seçki mövsümünün əvvəlində 20,000 Nyu-Hempşir sakini prezident Joe Biden-i təqlid edən robot zəng aldı ki, bu da onları yanvar ayında ştatda keçirilən ilkin seçkidən qaçmağa təşviq etdi. Bu yaxınlarda İlon Mask vitse-prezident Kamala Harrisi təqlid edən səs klonlama texnologiyasından istifadə edən reklamı paylaşdığı üçün tənqid olundu.
Keçən ilin payızında ABŞ Senatında süni intellekt tərəfindən yaradılan dərin saxta siyasi reklamları tənzimləyən iki partiyalı qanun layihəsi təqdim edildi. Federal Seçki Komissiyası da televiziya və radioda bu reklamları tənzimləmək üçün bir təklif təqdim etdi və ən azı 39 ştat oxşar qanunları qəbul etdi və ya nəzərdən keçirir.
Bəs bu narahatlıqlar əsaslıdırmı? Sent-Luisdəki Vaşinqton Universitetinin İncəsənət və Elmlər üzrə siyasi elmlər üzrə dosenti Kristofer Lukasın fikrincə, bu, dərin saxta videoların ictimaiyyəti digər dezinformasiya formalarına nisbətən daha çox inandırıb aldada bilməsindən asılıdır.
Onun Çikaqo Universitetində Soubhik Barari və Pensilvaniya Dövlət Universitetində Kevin Munger ilə birlikdə Journal of Politics jurnalında dərc olunan yeni araşdırması göstərir ki, dərin saxtakarlıqlar Amerika ictimaiyyətini heç vaxt həyəcan verici sürətlə baş verməyən qalmaqallara inandıra bilər – nümayəndənin 40%-dən çoxu. nümunə – lakin mətn başlıqları və ya audio yazılar vasitəsilə ötürülən ekvivalent dezinformasiyadan çox deyil.
Bundan əlavə, tədqiqat göstərir ki, dərin saxta videolara məruz qalmaq fərdi hədəfə qarşı mənfi münasibəti artırsa da, tetikleyici effekt saxta xəbərlərin digər formalarına, eləcə də onilliklər köhnə texnologiyadan istifadə edən mənfi kampaniya reklam videolarına bənzəyir.
“Ümumilikdə, araşdırmamız dərin saxta videoların seçiciləri aldatmaq və ya siyasətçilər haqqında təsəvvürlərini dəyişdirmək üçün unikal qabiliyyətə malik olduğuna dair çox az sübut tapır” dedi Lucas. “Ümumilikdə, bizim nəticələrimiz, dəstəkləyici dəlillərdən asılı olmayaraq, fərdlərin qalmaqalın öz partiyaları haqqında zəif əks etdirdiyi təqdirdə, onun etibarlılığına şübhə etmə ehtimalı daha yüksək olduğu, tərəfdar motivli əsaslandırma hekayəsi ilə uyğundur.”
https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=135&slotname=8188791252&adk=2329133447&adf=1857921027&pi=t.ma~as.8188791252&w=540&abgtt=6&fwrn=4&lmt=1724102429&rafmt=11&format=540×135&url=https%3A%2F%2Fphys.org%2Fnews%2F2024-08-political-deepfake-videos-deceptive-fake.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTUuMC4wIiwieDg2IiwiIiwiMTI3LjAuNjUzMy4xMjAiLG51bGwsMCxudWxsLCI2NCIsW1siTm90KUE7QnJhbmQiLCI5OS4wLjAuMCJdLFsiR29vZ2xlIENocm9tZSIsIjEyNy4wLjY1MzMuMTIwIl0sWyJDaHJvbWl1bSIsIjEyNy4wLjY1MzMuMTIwIl1dLDBd&dt=1724102426009&bpp=1&bdt=111&idt=276&shv=r20240814&mjsv=m202408130101&ptt=9&saldr=aa&abxe=1&cookie=ID%3D6bf3eefe49031f83%3AT%3D1721367059%3ART%3D1724102403%3AS%3DALNI_MacAfAOJA8VyURIyKJCZKOtEk96_Q&eo_id_str=ID%3D253fe466b124068d%3AT%3D1721367059%3ART%3D1724102403%3AS%3DAA-Afja3CR3UFVWEVuVSmzApOeu3&prev_fmts=0x0%2C1519x695&nras=2&correlator=6491285074628&frm=20&pv=1&rplot=4&u_tz=240&u_his=1&u_h=864&u_w=1536&u_ah=816&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=2424&biw=1519&bih=695&scr_x=0&scr_y=0&eid=44759876%2C44759927%2C44759837%2C44795921%2C95332927%2C95334528%2C95334830&oid=2&pvsid=2805950793132315&tmod=777168794&uas=0&nvt=1&ref=https%3A%2F%2Fphys.org%2Fsort%2Fdate%2Fall%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C0%2C0%2C1536%2C695&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=0&td=1&tdf=0&psd=W251bGwsbnVsbCwibGFiZWxfb25seV8xIiwxXQ..&nt=1&ifi=2&uci=a!2&btvi=1&fsb=1&dtd=3858
Tədqiqat haqqında
Tədqiqatçılar 2020-ci ilin payızında 5724 respondentdən ibarət milli nümunə ilə iki sorğu təcrübəsi keçirdilər.
İlk eksperiment iştirakçıların dezinformasiyanı aşkar etmək qabiliyyətini və ona necə reaksiya verdiklərini yoxladı. İştirakçılara Demokratlar Partiyasından 2020-ci ildə keçiriləcək prezident seçkilərində namizədlər haqqında real xəbərlərin yer aldığı Facebook-a bənzər xəbər lenti nümayiş etdirildi. Xəbər lentlərində ya kampaniya hücumu reklamı da var idi; 2020-ci il Demokratlar Partiyasının ilkin namizədi Elizabeth Warren ilə bağlı uydurma siyasi qalmaqalı təsvir edən dərin saxta video , audio, mətn və ya skeç təqdimatı – yerində təqlid olaraq adlandırılan; ya da yalan xəbər yoxdur.
Ümumilikdə, bu araşdırma göstərdi ki, aldatma dərəcəsi 42% olan deepfake videoları statistik olaraq subyektləri aldatmaqda audio (44%) və ya mətndə (42%) təqdim edilən eyni məlumatdan daha yaxşı deyil.
Deepfake videoları Uorrenə qarşı mənfi münasibəti artırdı, lakin müəlliflərin əhəmiyyətsiz hesab etdiyi saxta audio kliplərdən və saxta xəbərlərdən bir qədər çox. Təəccüblüdür ki, deepfake videoları, onilliklər ərzində istifadə edilən kampaniya hücumu reklamlarından belə əhəmiyyətli dərəcədə təsirli deyildi.
Tədqiqatçılar iştirakçı alt qruplar arasında maraqlı fərqləri qeyd etdilər. Məsələn, məlumatlar göstərir ki, 65 və ya daha yuxarı insanlar gənclərlə müqayisədə saxta xəbərlərə daha çox meyllidirlər. Bununla belə, onlar dərin saxta videoları və digər saxta xəbərləri aşkar etmək qabiliyyətinə malikdirlər.
Həmçinin diqqətəlayiqdir: Yüksək siyasi biliyə malik kohort üç saxta media növünün hər hansı birini aşkar etməkdə digər iştirakçılardan yaxşı deyildi.
İkinci eksperimentdə “deepfakes”in məzmunu və keyfiyyətinin idrak qabiliyyətinə, eləcə də media savadlılığı təhsilinin effektivliyinə necə təsir etdiyi sınaqdan keçirilib. İlk sorğunun eyni respondentlərindən səkkiz xəbər videosundan ibarət lenti vərəqləmək və manipulyasiya edilməmiş xəbər kliplərindən dərin saxtakarlıqları aşkar etmək istənilib. Deepfake videoları üslub, məkan, keyfiyyət və hədəflənən ayrı-ayrı siyasətçilərə görə fərqlənirdi və xəbər lentlərində də müxtəlif miqdarda saxta xəbərlər yer alırdı.
Bu tapşırıqdan əvvəl bəzi respondentlər ilk təcrübədə dərin saxtakarlığa məruz qalıb-qalmadıqları və/yaxud media savadlılığı təhsili ilə tanış olub-olmadıqları barədə məlumat aldılar.
Həqiqi xəbər kliplərini saxta ilə ayırmaq üçün açıq şəkildə soruşduqda, siyasi məlumatlı qrup orta hesabla 60%-ni və ya xəbər lentindəki səkkiz videodan beşini ayırd edərək ən yaxşı aşkarlama dəqiqliyinə nail oldu. Koqnitiv düşüncə tərzinə malik olanlar, yəni onlar kəskin mühakimələri boğmaq və düzgün cavabı tapmaq üçün aktiv şəkildə məşğul olmaq və düşünmək ehtimalı daha yüksək idi – həmyaşıdlarını üstələyiblər.
Ən yüksək rəqəmsal savadlı olanlar bu araşdırmada ən böyük qazancı gördülər. Savadlılığın tək vahid artımı aşkarlama dəqiqliyində təxminən 25% artım yaratdı.
Təəccüblü deyil ki, deepfake videosu nə qədər sensasiyalı olarsa, respondentlərin onun saxta olduğunu düzgün müəyyən etmə ehtimalı bir o qədər yüksək idi. Ən az düzgün müəyyən edilmiş klip (21% doğru) qısa bir dərin saxtakarlıq idi. Burada Hillari Klinton prezidentlik debatında rəqibinin vergi planı haqqında kəskin, lakin mübahisəsiz fikirlər səsləndirir. Ən düzgün müəyyən edilmiş klip (89% doğru) prezident Donald Trampın seçkilərdən əvvəl istefasını açıq elan etdiyi dərin saxtakarlıq olub.
“Tədqiqatımız göstərir ki, dərin saxta təsvir olunan hadisədə mübahisənin subyektiv səviyyəsi artdıqca, hadisənin empirik etibarlılığı azalır və onun siyasi qalmaqala səbəb olmaq potensialı azalır” dedi Lukas.
https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=135&slotname=8188791252&adk=2329133447&adf=2996406042&pi=t.ma~as.8188791252&w=540&abgtt=6&fwrn=4&lmt=1724102470&rafmt=11&format=540×135&url=https%3A%2F%2Fphys.org%2Fnews%2F2024-08-political-deepfake-videos-deceptive-fake.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTUuMC4wIiwieDg2IiwiIiwiMTI3LjAuNjUzMy4xMjAiLG51bGwsMCxudWxsLCI2NCIsW1siTm90KUE7QnJhbmQiLCI5OS4wLjAuMCJdLFsiR29vZ2xlIENocm9tZSIsIjEyNy4wLjY1MzMuMTIwIl0sWyJDaHJvbWl1bSIsIjEyNy4wLjY1MzMuMTIwIl1dLDBd&dt=1724102426010&bpp=1&bdt=112&idt=291&shv=r20240814&mjsv=m202408130101&ptt=9&saldr=aa&abxe=1&cookie=ID%3D6bf3eefe49031f83%3AT%3D1721367059%3ART%3D1724102403%3AS%3DALNI_MacAfAOJA8VyURIyKJCZKOtEk96_Q&eo_id_str=ID%3D253fe466b124068d%3AT%3D1721367059%3ART%3D1724102403%3AS%3DAA-Afja3CR3UFVWEVuVSmzApOeu3&prev_fmts=0x0%2C1519x695%2C540x135&nras=2&correlator=6491285074628&frm=20&pv=1&rplot=4&u_tz=240&u_his=2&u_h=864&u_w=1536&u_ah=816&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=4633&biw=1519&bih=695&scr_x=0&scr_y=1869&eid=44759876%2C44759927%2C44759837%2C44795921%2C95332927%2C95334528%2C95334830&oid=2&pvsid=2805950793132315&tmod=777168794&uas=3&nvt=1&ref=https%3A%2F%2Fphys.org%2Fsort%2Fdate%2Fall%2F&fc=1920&brdim=-1%2C-1%2C-1%2C-1%2C1536%2C0%2C1538%2C818%2C1536%2C695&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=1&td=1&tdf=0&psd=W251bGwsbnVsbCwibGFiZWxfb25seV8xIiwxXQ..&nt=1&ifi=3&uci=a!3&btvi=2&fsb=1&dtd=44043
Partizan effekti
İkinci eksperimentin maraqlı nəticələrindən biri o idi ki, orijinal videoların fərqi dərin saxtakarlıqdan daha çox tərəfkeşliklə fərqlənir. Partizanlar öz partiyalarının elitaları haqqında həqiqi neqativ xəbərlərlə qarşılaşdıqda, daha çox səhv olaraq xəbərləri saxta adlandırırdılar. Məsələn, Respublikaçıların 50%-i demokratların 20%-i ilə müqayisədə Obamanın Rusiya prezidenti ilə seçkidən sonra sövdələşməyə eyham vuran real sızdırılmış görüntülərinin həqiqi olduğuna inanırdı.
Əksinə, partizanlar da qarşı tərəfin real, müsbət təsvirlərini saxta adlandırmaq ehtimalı daha yüksək idi. Demokratların yalnız 58%-i o vaxtkı prezident Trampın amerikalıları COVID-19 pandemiyası ilə bağlı ehtiyatlı olmağa çağıran orijinal klipini düzgün qeyd etdi, halbuki respublikaçıların 81%-i bunun doğru olduğuna inanırdı.
“Partizan əsaslandırılmış mülahizə siyasi xəbərlər və məlumatların qiymətləndirilməsimizə çox təsir edir və işimiz bunun dərin saxtakarlığa qədər uzandığını göstərir” dedi Lucas.
“Ümumiyyətlə, bizim işimiz onu göstərir ki, deepfakes unikal şəkildə aldadıcı deyil, lakin onların mövcudluğu real medianı gözdən sala bilər. Bizim araşdırmalarımız da göstərir ki, insanlar çox vaxt həqiqi xəbərləri saxta hesab edirlər, xüsusən də bu xəbərlər öz partiyasından olan siyasi xadimi mənfi şəkildə təsvir etdikdə. .”
Deepfakes ilə mübarizə üçün təhsil açarı
Müəlliflərin fikrincə, tədqiqatın nəticələri bir qədər ümidvericidir. Dezinformasiya kampaniyalar üçün problem olaraq qalmağa davam etsə də, onların araşdırmaları göstərir ki, dərin saxtakarlıqlar, hətta peşəkar şəkildə istehsal olunsa və görkəmli siyasətçini ləkələmək üçün nəzərdə tutulsa belə, aldatma və ya affektiv manipulyasiyada bənzərsiz güclü deyil.
Müəlliflər həmçinin rəqəmsal savadlılığın respondentlərin saxta xəbərləri aşkar etmək qabiliyyətinə göstərdiyi müsbət təsirin onları həvəsləndirdiyini bildiriblər.
“Xüsusilə, siyasət haqqında ən yüksək ümumi biliyə, rəqəmsal texnologiya sahəsində savadlılığa və koqnitiv düşünməyə meylli respondentlər aşkarlama eksperimentində ən yaxşı nəticə göstəriblər. Rəqəmsal video texnologiyası realizm həddinə yaxınlaşdıqca bu bacarıqların əhəmiyyəti daha da artacaq. “müəllifləri yazıblar.
“Biz manipulyasiya edilmiş videoların yayılmasının qarşısını almaq üçün texnoloji həlləri təşviq etsək də, demokratiya təcrübəsi üçün məlumatlı, rəqəmsal savadlı və düşüncəli ictimaiyyətin əvəzi heç vaxt olmayacaq.”
Jurnal məlumatı: Journal of Politics
Sent-Luisdəki Vaşinqton Universiteti tərəfindən təmin edilmişdir