#İnnovativ texnologiyalar #Robototexnika və AI #Xəbərlər

Yeni alət dərin saxta səs fırıldaqlarından qoruya bilər

 Bu , süni intellektin inkişaf edən istifadəsinin həyatımıza necə təsir etdiyini və bu təsirləri mümkün qədər faydalı etmək üçün işləyə biləcəyimiz yolları müəyyən edən bir il davam edən hekayələr seriyasından başqa bir şeydir  .

Təsəvvür edin ki, TikTok-da sürüşdürün və məşhur YouTuber MrBeast-in göründüyünü görən. O, yeni iPhone-ları hədiyyə etdiyini deyir. “İndi sizinkini iddia etmək üçün aşağıdakı linkə klikləyin!” klik edirsiniz? Bəlkə. Bu, şübhəsiz ki, MrBeast kimi görünür və səslənir. Amma bu, əslində dərin saxtakarlıqdır – süni intellekt və ya AI tərəfindən yaradılmış saxta klipdir . Keçən ilin oktyabr ayında bu TikTok klipi bəzi pərəstişkarlarını aldatdı və şəxsi məlumatlarını paylaşdı. Heç vaxt gəlməyəcək bir telefon üçün göndərmə haqqı da ödədilər. Ancaq yeni bir vasitə – AntiFake – bu cür fırıldaqların qarşısını almağa kömək edə bilər.

Deepfake müdafiə vasitələrinin əksəriyyəti sadəcə olaraq mövcud video və ya audio faylları skan edərək onların həqiqi olub-olmadığını yoxlayır. AntiFake fərqlidir. Bu, səslərimizin qeydlərini qorumaq məqsədi daşıyır ki, deepfake AI modelləri ilk növbədə onları təqlid etməyi öyrənməkdə daha çox çətinlik çəksinlər.

"Naməlum" kimi işarələnmiş gələn telefon zəngi olan smartfonu tutan əl
2023-cü ildə kanadalı bir qadına qorxulu zəng gəldi. Nəvəsi avtomobil qəzasına düşdüyünü və həbsxanaya düşməmək üçün pula ehtiyacı olduğunu söylədi. O, hekayəyə inandı və pulunu ödədi. Amma bu, fırıldaq idi. Süni intellekt nəvəsinin səsinin dərin saxtakarlığını yaratmışdı.Tero Vesalainen/iStock/ Getty Images Plus

Bu, süni intellektin dərin saxta videolar üçün səs yaratmasını çətinləşdirə bilər. Bu, həmçinin telefon fırıldaqları üçün dərin saxta səslər yaratmağı çətinləşdirə bilər. Bu fırıldaqların bəzilərində fırıldaqçılar kiminsə ailə üzvlərinə zəng edərək pul istəmək üçün dərin saxta səslərdən istifadə ediblər. Digərlərində fırıldaqçılar eyni üsuldan istifadə edərək insanların səsi ilə qorunan bank hesablarını sındırıblar.

Zhiyuan Yu deyir: “Biz gördük ki, təcavüzkarlar [AI alətlərindən] maliyyə fırıldaqları etmək və ya ailəmizi və dostlarımızı aldatmaq üçün istifadə edirlər”. “Bu, əsl riskdir.” Yu Sent-Luisdəki Vaşinqton Universitetində kompüter elmləri üzrə fəlsəfə doktorudur. O, AntiFake yaratmaq üçün universitetin Ning Zhang ilə birlikdə çalışıb.

Kompüter alimləri öz tədqiqatlarını 2023-cü ildə ACM Kompüter və Rabitə Təhlükəsizliyi Konfransında təsvir ediblər. Ötən ilin noyabrında Danimarkanın paytaxtı Kopenhagendə keçirilib.

AntiFake, şəkilləri süni intellekt tərəfindən dərin saxta kopyalardan qoruyan digər qrupların keçmiş işini tamamlayır . “Cəmiyyətin süni intellektdən məsuliyyətlə istifadə etdiyinə necə əmin ola bilərik?” Zhang soruşur. “Bizim işimizin əsas məqsədi budur.”

Aprelin əvvəlində  bu vasitə bir müsabiqə qazandı ! Ning Zhang’ın qrupu Səs Klonlama müsabiqəsində 35.000 dollarlıq birinci mükafatı bölüşən dörd nəfərdən biri idi. Onu ABŞ Federal Ticarət Komissiyası idarə edirdi. Bu müsabiqə tədqiqatçılardan insanları saxta səslərdən istifadə edən fırıldaqlardan qorumaq üçün yaradıcı yollar istədi. 

Tərbiyəçilər və Valideynlər, Fırıldaq Vərəqinə Qeydiyyatdan Keçin

Tədris mühitində Science News Explores istifadə etməyinizə kömək edəcək həftəlik yeniləmələrE-poçt ünvanı*Get

Bir az səs-küy sal

Deepfake səs yaratmaq üçün lazım olan hər şey kiminsə danışdığı real audio və ya videodur. Çox vaxt süni intellekt modeli yalnız 30 saniyə və ya daha çox nitq əsasında kiminsə səsini təqlid etməyi öyrənə bilər. Bunu yerləşdirmə adlanan bir şey yaratmaqla edir.

Bu, əsasən, “rəqəmlər silsiləsi” dir, Yu. Rəqəmlər bütün səslərin geniş riyazi xəritəsində danışanın şəxsiyyətinin ünvanı kimidir. Oxşar səslənən səslər bu xəritədə bir-birinə daha yaxındır.

İnsanlar, əlbəttə ki, səsləri tanımaq üçün bu cür xəritədən istifadə etmirlər. Səs dalğalarının bəzi tezliklərinə daha çox diqqət yetiririk və digər tezliklərə daha az diqqət yetiririk. AI modeli yaxşı yerləşdirmələr yaratmaq üçün bütün bu tezliklərdən istifadə edir.

AntiFake insanların daha az diqqət yetirdiyi tezliklərə bəzi səs-küy əlavə edərək səs yazılarını qoruyur. İnsan dinləyiciləri hələ də nitqi başa düşə bilirlər. Bununla belə, bu səs-küy bir AI modelinin səsin yaxşı bir şəkildə daxil edilməsini yaratmaq qabiliyyətini poza bilər . Bu süni intellekt xəritənin yanlış hissəsinə ünvan yaratmaqla nəticələnir. Beləliklə, bu daxiletmə ilə yaradılan hər hansı dərin saxta orijinal səs kimi səslənməyəcək.

İnsanlar AntiFake ilə qorunan faylda fon səs-küyü eşidə bilərlər. Bu ideal deyil. Lakin bu səs-küy səviyyəsinin əlavə edilməsi alətə müxtəlif dərin saxta hücumlardan qorunmağa imkan verir. Əgər onlar fırıldaqçının kiminsə səsini təqlid etmək üçün hansı süni intellekt modelindən istifadə edəcəyini bilsəydilər, Yu deyir ki, onun komandası daha konkret, daha incə səs-küydən qorunma – insanların eşitmədiyi səslər hazırlaya bilərdi.

Ancaq real dünyada o, fırıldaqçıların hansı vasitələrdən istifadə edəcəyini “heç bir şəkildə bilməyiniz mümkün deyil” deyir. Müdafiəçilər hər şeyə hazır olmalıdırlar.

Elmi sualınız var? Biz kömək edə bilərik!

Sualınızı burada təqdim edin və biz ona Science News Explores jurnalının qarşıdan gələn sayında cavab verə bilərik 

Sınaq, sınaq

AntiFake-i sınamaq üçün Yu komandası özünü dərin saxta hücumçular kimi göstərdi. Onlar müxtəlif insanları təqlid edən 60.000 səs faylı yaratmaq üçün beş fərqli deepfake AI modelindən istifadə ediblər. Daha sonra onlar insan dinləyicilərini və səs identifikasiyası sistemlərini (bəzi bank hesabları üçün olanlar kimi) aldada biləcəyini yoxladılar. Tədqiqatçılar həm insanları, həm də maşınları aldadan 600 dərin saxta klip seçiblər.

Daha sonra komanda bu deepfakelərin əsaslandığı 600 səs klipinə AntiFake qorunması əlavə etdi. Daha sonra elm adamları qorunan faylları beş dərin saxta süni intellekt modeli vasitəsilə geri göndərdilər. Bu dəfə həmin modellər o qədər də yaxşı iş görmədilər. Yeni deepfake nümunələrinin 95 faizindən çoxu artıq insanları və ya səsli identifikasiya sistemlərini aldatmır.

Saxta çıxış

Tədqiqatçılar AntiFake-i danışan insanların 600 audio klipi üzərində sınaqdan keçiriblər. Bu nümunədə Zhiyuan Yu insanları öz kanalında salamlayan bir YouTuber kimi özünü göstərir. Müvəffəqiyyətli deepfake mimikasında, onun öz səsi əslində heç vaxt deməyəcəyi bir şeyi söyləyir (çünki peyvəndlər xərçəngə səbəb olmur!) AntiFake nümunənin qorunan versiyasına fon səsi əlavə edir. Bu səs-küy dərin saxta süni intellektdən uzaqlaşır ki, o, Yu kimi səslənməyən bir səs çıxarsın.

Orijinal səs nümunəsi:
Uğurlu deepfake mimikası:
AntiFake-dən qorunan səs nümunəsi:
Uğursuz dərin saxta mimik:

Audio: Coen Elemans/University of Southern Danimarka

Şimaa Əhməd qeyd edir ki, banklar və digər şirkətlər əslində AntiFake ilə qorunan faylları yoxlamaq üçün istifadə edilən səsli autentifikasiya sistemlərindən istifadə edirlər. “Bu, çox yaxşı idi.” Əhməd Viskonsin-Madison Universitetində kompüter təhlükəsizliyi üzrə mütəxəssisdir və AntiFake-in yaradılmasında iştirak etməyib.

O, insanların şəxsiyyətlərini qorumaq üçün AntiFake istifadə etdiyini təsəvvür edə bilər. “Bunun bir dəyəri var” deyir. “O, bir çox tətbiqlərlə inteqrasiya oluna bilər.” Məsələn, sosial media saytı nə vaxtsa istifadəçiləri yüklədikləri fayla qoruma əlavə etmək istədikləri halda qutunu işarələməyi təklif edə bilər.

Ancaq səsləri qorumaq üçün bir az səs-küy əlavə etmək Əhmədi narahat edir. “Məsələn, mənim səsim mənim işimdirsə, səsimin olduğu kimi olmasını istərdim” deyir. Odur ki, səs ifaçısı və ya müğənni olan insanlar bu şəkildə səslərini qorumaqdan çəkinə bilərlər.

“Bu, əslində gələcəkdə həll etmək istədiyimiz bir problemdir” dedi Yu. Səs-küy əlavə etmək əvəzinə, AntiFake-in səsin ritmini və ya tonunu dəyişdirə biləcəyini düşünür. Səs dinləyicilərə aydın və dəyişməz səslənərdi. Lakin o, dərin saxta süni intellekt modellərini aldatmaq üçün diqqətlə gizli siqnallardan ibarət olacaq.

Kimsə onu qorumaq üçün səs faylına AntiFake tətbiq etməlidir. Beləliklə, texnika kiminsə artıq yerləşdirdiyi və ya paylaşdığı audionu qoruya bilməz. Bu, həm də fırıldaqçının kiminsə danışdıqlarını gizli şəkildə qeyd etməsinə mane ola bilməz. Amma bu, dərin saxtakarlıqlardan müdafiə üçün maraqlı yeni bir vasitədir, Əhməd deyir – bu, “çox çətin” bir işdir. İnsanlar onlayn olaraq şəxsiyyətlərini qorumaq üçün əldə edə biləcəkləri bütün köməyə ehtiyac duyurlar.

Qeyd: Bu hekayə AntiFake-in səs klonlamasını məhdudlaşdırmaq üçün texnologiya üzrə federal müsabiqədə ən yüksək mükafatı paylaşdığını qeyd etmək üçün yeniləndi.

Bu , Lemelson Fondunun səxavətli dəstəyi ilə mümkün olan texnologiya və innovasiya haqqında xəbərləri təqdim edən seriyalardan biridir  . 

Güclü Sözlər

Power Words Haqqında Ətraflı

süni intellekt : Maşınlar və ya kompüterlər tərəfindən nümayiş etdirilən biliyə əsaslanan qərar qəbuletmə növü. Termin eyni zamanda elm adamlarının ağıllı davranışa qadir olan maşınlar və ya kompüter proqramları yaratmağa çalışdıqları tədqiqat sahəsinə də aiddir.

audio : Səslə əlaqəlidir.

tamamlamaq : tamamlamaq üçün başqa bir şeyə uyğun gəlmək və ya uyğunlaşdırmaq.

informatika : Kompüterlərin prinsipləri və istifadəsinin elmi tədqiqi. Bu sahədə çalışan alimlər kompüter alimləri kimi tanınırlar.

fırıldaqçılıq : aldatmaq; ya da aldatma yolu ilə edilən bir şeyin nəticəsi. Yaxud səhv etmək və qəsdən səhvi ört-basdır etmək.

tezlik : Müəyyən vaxt intervalında bəzi dövri hadisələrin baş vermə sayı. (fizikada) Müəyyən bir zaman aralığında baş verən dalğa uzunluqlarının sayı.

onlayn : (n.) İnternetdə. (sifət) İnternetdə tapıla bilən və ya əldə edilə bilən şeylər üçün termin.

PhD : (həmçinin doktorantura kimi də tanınır) Universitetlər tərəfindən təklif olunan bir növ – adətən beş və ya altı illik təhsildən sonra – yeni biliklər yaradan iş üçün. İnsanlar bu tip magistr təhsilinə yalnız ilk dəfə kollec dərəcəsini bitirdikdən sonra (adətən dörd il təhsil alan bir proqram) başlaya bilərlər.

sosial media : İnsanların bir-biri ilə əlaqə saxlamasına (çox vaxt anonim) və məlumat paylaşmasına imkan verən rəqəmsal media. Məsələn, Twitter, Facebook, Instagram, TikTok və WhatsApp.

cəmiyyət : Hamısının daha böyük rifahı üçün ümumiyyətlə əməkdaşlıq edən və bir-birini dəstəkləyən birləşmiş insanlar və ya heyvanlar qrupu.

səs dalğası : Səsi ötürən dalğa. Səs dalğaları yüksək və aşağı təzyiqin bir-birini əvəz edən sahələrinə malikdir.

sistem : Bəzi funksiyaları yerinə yetirmək üçün birlikdə işləyən hissələr şəbəkəsi. Məsələn, qan, damarlar və ürək insan bədəninin qan dövranı sisteminin əsas komponentləridir. Eynilə, qatarlar, platformalar, yollar, yol siqnalları və yerüstü keçidlər bir ölkənin dəmir yolu sisteminin potensial komponentləri arasındadır. Sistem hətta hansısa metodun bir hissəsi olan proseslərə və ya ideyalara və ya tapşırığı yerinə yetirmək üçün sifarişli prosedurlar toplusuna tətbiq oluna bilər.

ton : (akustikada) Xüsusilə musiqi notları üçün səsin yüksəkliyi.

alət : Bir insanın və ya başqa bir heyvanın düzəltdiyi və ya əldə etdiyi və sonra qidaya çatmaq, özünü müdafiə etmək və ya baxım kimi bəzi məqsədləri həyata keçirmək üçün istifadə etdiyi bir obyekt.

dalğa : Kosmosda və maddədə nizamlı, salınan tərzdə hərəkət edən pozğunluq və ya variasiya.

Sitatlar

Görüş: Z. Yu et al. AntiFake: İcazəsiz nitq sintezinin qarşısını almaq üçün rəqib səsdən istifadə . Kompüter və Rabitə Təhlükəsizliyi üzrə 2023 ACM SIGSAC Konfransının materialları. 26-30 noyabr 2023-cü il, Kopenhagen, Danimarka. doi: 10.1145/3576915.3623209.

Kathryn Hulick haqqında

Kathryn Hulick müstəqil elmi yazıçı və kabuslar, yadplanetlilər və s. elmi haqqında kitab olan Qəribə Amma Doğru: Dünyanın 10 ən böyük sirrinin izahı kitabının müəllifidir . O, gəzinti, bağçılıq və robotları sevir.