#Robototexnika və AI #Xəbərlər

Süni intellekt bizim kimi düşünür – qüsurlar və hər şey: Tədqiqat ChatGPT-nin testlərin yarısında insan qərarlarının qərəzliliyini əks etdirir.

İnsanlardan daha yaxşı qərarlar qəbul etmək üçün süni intellektə etibar edə bilərikmi? Yeni bir araşdırma deyir … həmişə deyil. Tədqiqatçılar aşkar etdilər ki, ən qabaqcıl və populyar süni intellekt modellərindən biri olan OpenAI-nin ChatGPT bəzi hallarda insanlarla eyni cür qərar qəbul etmə səhvlərinə yol verir – isti əlin (qumarbazın) yanlışlığına həddən artıq inamlılıq kimi qərəzli yanaşmalar göstərərək, digərlərində isə qeyri-insani davranır (məsələn, əsas qiymətdən əziyyət çəkməmək və ya laqeydlikdən əziyyət çəkməmək).

https://dc39b8352dade1d802d5f6fc322de6d6.safeframe.googlesyndication.com/safeframe/1-0-41/html/container.html

Manufacturing & Service Operations Management jurnalında dərc edilən araşdırma göstərir ki, ChatGPT sadəcə rəqəmləri sındırmır, o, insanlara zehni qısa yollar və kor nöqtələr də daxil olmaqla dəhşətli dərəcədə oxşar şəkildə “düşünür”. Bu qərəzlər müxtəlif iş vəziyyətlərində kifayət qədər sabit qalır, lakin AI bir versiyadan digərinə dəyişdikcə dəyişə bilər.

AI: İnsana bənzər qüsurları olan ağıllı köməkçi

“Menecer və süni intellekt bara girir: ChatGPT bizim etdiyimiz kimi qərəzli qərarlar verirmi?” adlı araşdırma ChatGPT-ni 18 fərqli qərəzlilik testindən keçirdi. Nəticələr?

  • Süni intellekt insan qərarlarının tələsinə düşür – ChatGPT testlərin təxminən yarısında həddən artıq güvən və ya qeyri-müəyyənliyə qarşı ikrah və birləşmə yanlışlığı (aka “Linda problemi” kimi) kimi qərəzlər göstərdi.
  • Süni intellekt riyaziyyatda əladır, lakin mühakimə çağırışları ilə mübarizə aparır—Məntiqi və ehtimala əsaslanan problemlərdə üstündür, lakin qərarlar subyektiv əsaslandırma tələb etdikdə büdrəyir.
  • Qərəz aradan qalxmır—Daha yeni GPT-4 modeli sələfindən daha analitik dəqiqliyə malik olsa da, bəzən mühakimə əsaslı tapşırıqlarda daha güclü qərəzlər nümayiş etdirirdi.

Bu niyə vacibdir

İşə qəbuldan tutmuş kreditlərin təsdiqinə qədər AI artıq biznes və hökumətdə əsas qərarları formalaşdırır. Bəs süni intellekt insan qərəzlərini təqlid edirsə, bu, səhv qərarları düzəltmək əvəzinə onları gücləndirə bilərmi?

Qərb Universitetinin aparıcı müəllifi və dosenti Yang Chen deyir: “Süni intellekt insan məlumatlarından öyrəndikcə, o, insan kimi də düşünə bilər – qərəzlər və hər şey”. “Tədqiqatlarımız göstərir ki, süni intellekt mühakimə yürütmək üçün istifadə edildikdə, bəzən insanlarla eyni zehni qısa yollardan istifadə edir.”

Tədqiqat ChatGPT-nin aşağıdakılara meylli olduğunu göstərdi:

  • Təhlükəsiz oynayın – daha riskli seçimlər daha yaxşı nəticələr verə bilsə belə, AI riskdən qaçır.
  • Özünü həddən artıq qiymətləndirin—ChatGPT onun həqiqətən olduğundan daha dəqiq olduğunu güman edir.
  • Təsdiq axtarın – AI mövcud fərziyyələrə etiraz etmək əvəzinə onları dəstəkləyən məlumatlara üstünlük verir.
  • Qeyri-müəyyənlikdən çəkinin – AI daha çox müəyyən məlumat və daha az qeyri-müəyyənlik olan alternativlərə üstünlük verir.

Kraliça Universitetindən Anton Ovçinnikov deyir: “Qərarın dəqiq düzgün cavabı olduqda, süni intellekt onu dırnaqlayır – düzgün düstur tapmaqda əksər insanlardan daha yaxşıdır”. “Ancaq mühakimə söz mövzusu olduqda, süni intellekt insanlarla eyni koqnitiv tələlərə düşə bilər.”

https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=188&slotname=2793866484&adk=1121470953&adf=746485419&pi=t.ma~as.2793866484&w=750&abgtt=6&fwrn=4&lmt=1743589596&rafmt=11&format=750×188&url=https%3A%2F%2Ftechxplore.com%2Fnews%2F2025-04-ai-flaws-chatgpt-mirrors-human.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTkuMC4wIiwieDg2IiwiIiwiMTM0LjAuNjk5OC4xNzgiLG51bGwsMCxudWxsLCI2NCIsW1siQ2hyb21pdW0iLCIxMzQuMC42OTk4LjE3OCJdLFsiTm90OkEtQnJhbmQiLCIyNC4wLjAuMCJdLFsiR29vZ2xlIENocm9tZSIsIjEzNC4wLjY5OTguMTc4Il1dLDBd&dt=1743589593389&bpp=1&bdt=326&idt=384&shv=r20250401&mjsv=m202503310101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Dfdc40d724f2dca57%3AT%3D1735367325%3ART%3D1743589593%3AS%3DALNI_MYStQ6fUQQQLyo5Z7z1h-XhXcWBtA&gpic=UID%3D00000f80eacffadc%3AT%3D1735367325%3ART%3D1743589593%3AS%3DALNI_MYaOugky0UawScoidzfbXof3-N-iw&eo_id_str=ID%3De43bb863646b60b8%3AT%3D1735367325%3ART%3D1743589593%3AS%3DAA-AfjbQoPwZqH28q9IwcCLRSzzg&prev_fmts=0x0%2C1905x945&nras=2&correlator=8699267489349&frm=20&pv=1&rplot=4&u_tz=240&u_his=1&u_h=1080&u_w=1920&u_ah=1032&u_aw=1920&u_cd=24&u_sd=1&dmc=8&adx=448&ady=2415&biw=1905&bih=945&scr_x=0&scr_y=0&eid=95355973%2C95355975%2C95330276%2C95353450%2C95356499%2C95356506%2C31091408%2C31088250%2C95356661%2C95356787%2C95356809%2C95356929&oid=2&pvsid=1888223772728451&tmod=1410709725&uas=0&nvt=1&ref=https%3A%2F%2Fphys.org%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1920%2C0%2C1920%2C1032%2C1920%2C945&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=1&td=1&tdf=2&psd=W251bGwsbnVsbCxudWxsLDNd&nt=1&ifi=2&uci=a!2&btvi=1&fsb=1&dtd=3572

Beləliklə, böyük qərarlar vermək üçün AI-yə etibar edə bilərikmi?

Dünya miqyasında hökumətlərin süni intellekt qaydaları üzərində işlədiyi bir vaxtda tədqiqat aktual sual doğurur: biz süni intellekt insanlar kimi qərəzli ola bildiyi halda mühüm çağırışlar etmək üçün ona etibar etməliyikmi?

UNSW Biznes Məktəbindən Samuel Kirshner deyir: “AI neytral hakim deyil”. “Əgər nəzarət edilməzsə, bu, qərar vermə problemlərini həll etməyə bilər – əslində onları daha da pisləşdirə bilər.”

Tədqiqatçılar deyirlər ki, buna görə bizneslər və siyasətçilər süni intellektlə bağlı qərarları insan qərar qəbul edən şəxs kimi yaxından izləməlidirlər.

McMaster Universitetindən Meena Andiappan deyir: “AI-yə mühüm qərarlar verən işçi kimi yanaşmaq lazımdır – ona nəzarət və etik qaydalar lazımdır”. “Əks halda, biz qüsurlu düşüncəni təkmilləşdirmək əvəzinə avtomatlaşdırmağa risk edirik.”

Sonra nə var?

Tədqiqatın müəllifləri qərəzliyi azaltmaq üçün süni intellektə əsaslanan qərarların müntəzəm olaraq yoxlanılmasını və AI sistemlərinin təkmilləşdirilməsini tövsiyə edir. Süni intellektin təsiri artdıqca, onun insan qüsurlarını təkrarlamaqdansa, qərar vermə prosesini təkmilləşdirdiyinə əmin olmaq əsas olacaq.

“GPT-3.5-dən 4.0-a qədər olan təkamül göstərir ki, ən son modellər bəzi sahələrdə daha insana çevrilir, lakin digərlərində daha az insan olur, lakin digərlərində daha dəqiqdir” dedi Queens Universitetindən Tracy Jenkin. “Menecerlər müxtəlif modellərin qərar qəbul edərkən istifadə vəziyyətlərində necə çıxış etdiyini qiymətləndirməli və sürprizlərdən qaçmaq üçün mütəmadi olaraq yenidən qiymətləndirməlidirlər. Bəzi istifadə halları modelin əhəmiyyətli dərəcədə təkmilləşdirilməsinə ehtiyac duyur.”

Daha çox məlumat: Yang Chen və digərləri, Menecer və süni intellekt bara girir: ChatGPT bizim kimi qərəzli qərarlar qəbul edirmi?, İstehsalat və Xidmət Əməliyyatlarının İdarə Edilməsi (2025). DOI: 10.1287/msom.2023.0279Əməliyyat Tədqiqatları və İdarəetmə Elmləri İnstitutu tərəfindən təmin edilmişdir 

Leave a comment

Sizin e-poçt ünvanınız dərc edilməyəcəkdir. Gərəkli sahələr * ilə işarələnmişdir