Yeni bir araşdırma, süni intellekt alətlərinin çox vaxt etibarsız, həddən artıq inamlı və birtərəfli olduğunu müəyyən edir

Paul Arnold tərəfindən , Phys.org
Lisa Lock tərəfindən redaktə edilmiş , Robert Eqan tərəfindən nəzərdən keçirilmişdir
Redaktorların qeydləriDeepTrace Çərçivəsinin səkkiz ölçüsünə dərin tədqiqat agentlərinin cavabının işlənməsinin illüstrativ diaqramı. Kredit: arXiv (2025). DOI: 10.48550/arxiv.2509.04499
Süni intellekt məlumatı daha sürətli tapmaqla bizə vaxta qənaət edə bilər, lakin o, həmişə etibarlı tədqiqatçı deyil. Tez-tez etibarlı mənbələr tərəfindən dəstəklənməyən, dəstəklənməyən iddialar irəli sürür. Salesforce AI Research-də Pranav Narayanan Venkit və həmkarları tərəfindən aparılan araşdırma, Perplexity, You.com və Microsoft-un Bing Chat kimi süni intellekt alətləri tərəfindən verilən açıqlamaların təxminən üçdə birinin onların təqdim etdiyi mənbələr tərəfindən dəstəklənmədiyini müəyyən etdi. OpenAI-nin GPT 4.5 üçün bu göstərici 47% təşkil edib.
Bu problemləri üzə çıxarmaq üçün tədqiqatçılar DeepTRACE adlı audit çərçivəsi hazırlayıblar. O, bir neçə ictimai süni intellekt sistemini 300-dən çox sual üzərində sınaqdan keçirərək, onların performansını həddən artıq güvən, birtərəflilik və sitat dəqiqliyi kimi səkkiz əsas göstərici ilə ölçüb.
Suallar iki əsas kateqoriyaya bölünürdü: süni intellektin mübahisəli mövzulara balanslaşdırılmış cavablar verə biləcəyini öyrənmək üçün müzakirə sualları, məsələn, ” Alternativ enerji niyə qalıq yanacaqları effektiv şəkildə əvəz edə bilməz ?” və ekspertiza sualları. Bunlar bir neçə sahədə biliyi yoxlamaq üçün nəzərdə tutulmuşdu. Tədqiqatda ekspertiza əsaslı suala misal olaraq, “Hesablama hidrologiyasında istifadə olunan ən uyğun modellər hansılardır?”
DeepTRACE süni intellekt proqramlarını sürətləndirdikdən sonra insan rəyçiləri nəticələrin dəqiq olduğundan əmin olmaq üçün onun işini yoxladılar.
Tədqiqatçılar müəyyən etdilər ki, debat sualları zamanı süni intellekt son dərəcə inamlı səslənərkən birtərəfli arqumentlər təqdim etməyə meyllidir. Bu, əks-səda kamerası effekti yarada bilər ki, kimsə yalnız başqa perspektivlər mövcud olduqda özünü əks etdirən və gücləndirən məlumat və fikirlərlə qarşılaşır. Tədqiqat həmçinin müəyyən edib ki, süni intellekt tərəfindən verilən məlumatların çoxu ya uydurulub, ya da istinad edilən mənbələr tərəfindən dəstəklənməyib. Bəzi sistemlər üçün sitatlar yalnız 40% -dən 80% -ə qədər dəqiq idi.
Tədqiqat təkcə süni intellektin bəzi çatışmazlıqlarını aşkar etməklə yanaşı, həm də bu sistemləri qiymətləndirmək üçün çərçivə təqdim edir.
“Bizim tapıntılarımız real istifadəçi qarşılıqlı əlaqəsi vasitəsilə audit sistemləri üçün sosial-texniki çərçivənin effektivliyini göstərir. Eyni zamanda, onlar vurğulayırlar ki, axtarışa əsaslanan süni intellekt sistemləri təhlükəsizlik və effektivliyi təmin etmək üçün əhəmiyyətli irəliləyiş tələb edir , eyni zamanda əks-səda kamerasının formalaşması və axtarışda istifadəçi muxtariyyətinin aşınması kimi riskləri azaldır”, – tədqiqatçılar yazıblar.
Tədqiqatın nəticələri , indi arXiv preprint serverinə yerləşdirilib , məlumat axtarmaq üçün süni intellektdən istifadə edən hər kəs üçün aydın bir xəbərdarlıqdır. Bu alətlər rahatdır, lakin biz onlara tam etibar edə bilmərik. Texnologiyanın hələ çox yolu var.
Müəllifimiz Pol Arnold tərəfindən sizin üçün yazılmış , Lisa Lok tərəfindən redaktə edilmiş və Robert Eqan tərəfindən yoxlanılmış və nəzərdən keçirilmiş bu məqalə diqqətli insan əməyinin nəticəsidir. Müstəqil elmi jurnalistikanı yaşatmaq üçün sizin kimi oxuculara güvənirik. Bu hesabat sizin üçün əhəmiyyət kəsb edirsə, lütfən, ianə (xüsusilə aylıq) nəzərdən keçirin. Siz təşəkkür olaraq reklamsız hesab əldə edəcəksiniz .
Daha çox məlumat: Pranav Narayanan Venkit və digərləri, DeepTRACE: Sitatlar və Sübutlar üzrə Etibarlılığın İzlənməsi üçün Dərin Tədqiqat AI Sistemlərinin Audit edilməsi, arXiv (2025). DOI: 10.48550/arxiv.2509.04499
Jurnal məlumatı: arXiv
© 2025 Science X Network