Niyə AI insanlar kimi bir çiçəyi başa düşə bilmir?

ChatGPT kimi süni intellekt (AI) aləti bütün təlim və kompüter gücünə baxmayaraq, yeni bir araşdırmaya görə, çiçək anlayışını bir insanın etdiyi kimi təmsil edə bilməz.
Bunun səbəbi süni intellekt köməkçilərini gücləndirən böyük dil modellərinin (LLM) adətən yalnız dilə, bəzən də şəkillərə əsaslanmasıdır.
Ohayo Dövlət Universitetində tədqiqatın aparıcı müəllifi və psixologiya üzrə doktoranturadan sonrakı tədqiqatçı Qihui Xu, “Böyük dil modeli qızılgülün qoxusunu ala bilməz, çobanyastığın ləçəklərinə toxuna bilməz və ya çöl çiçəkləri tarlasında gəzə bilməz” dedi.
“Həmin duyğu və motor təcrübələri olmadan o, çiçəyin nə olduğunu bütün zənginliyi ilə həqiqətən təmsil edə bilməz. Eyni şey bəzi digər insan anlayışlarına da aiddir.”
Tədqiqat Nature Human Behavior jurnalında dərc olunub .
Xu, tapıntıların süni intellekt və insanların bir-biri ilə necə əlaqəli olduğuna təsir etdiyini söylədi.
“Əgər süni intellekt dünyanı insanlardan tamamilə fərqli şəkildə şərh edərsə, bu, onun bizimlə qarşılıqlı əlaqəsinə təsir edə bilər” dedi.
Xu və onun həmkarları 4442 sözdən ibarət bilik təmsillərində insanlar və LLM-ləri müqayisə etdilər – “çiçək” və “dırnaq”dan “yumoristik” və “yelləncək”ə qədər hər şey.
Onlar OpenAI (GPT-3.5 və GPT-4) və Google (PaLM və Gemini) şirkətinin iki ən müasir LLM ailəsi ilə insanlar arasında təmsillərin oxşarlığını müqayisə etdilər.
İnsanlar və LLM-lər iki ölçü üzrə sınaqdan keçirildi. Qlazqo normaları adlanan biri oyanıqlıq, konkretlik və obrazlılıq kimi doqquz ölçü üzrə sözlərin reytinqini tələb edir. Məsələn, ölçü bir çiçəyin nə qədər emosional oyatdığı və bir çiçəyi nə qədər zehni olaraq təsəvvür edə biləcəyini (yaxud onun nə qədər təsvir oluna biləcəyini) qiymətləndirməyi tələb edir.
https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=280&slotname=2793866484&adk=2520359048&adf=1100001614&pi=t.ma~as.2793866484&w=750&abgtt=6&fwrn=4&fwrnh=0&lmt=1749039054&rafmt=1&armr=3&format=750×280&url=https%3A%2F%2Ftechxplore.com%2Fnews%2F2025-06-ai-humans.html&fwr=0&rpe=1&resp_fmts=3&wgl=1&uach=WyJXaW5kb3dzIiwiMTkuMC4wIiwieDg2IiwiIiwiMTM3LjAuNzE1MS41NyIsbnVsbCwwLG51bGwsIjY0IixbWyJHb29nbGUgQ2hyb21lIiwiMTM3LjAuNzE1MS41NyJdLFsiQ2hyb21pdW0iLCIxMzcuMC43MTUxLjU3Il0sWyJOb3QvQSlCcmFuZCIsIjI0LjAuMC4wIl1dLDBd&dt=1749039052312&bpp=1&bdt=326&idt=297&shv=r20250602&mjsv=m202505290101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Dfdc40d724f2dca57%3AT%3D1735367325%3ART%3D1749039052%3AS%3DALNI_MYStQ6fUQQQLyo5Z7z1h-XhXcWBtA&gpic=UID%3D00000f80eacffadc%3AT%3D1735367325%3ART%3D1749039052%3AS%3DALNI_MYaOugky0UawScoidzfbXof3-N-iw&eo_id_str=ID%3De43bb863646b60b8%3AT%3D1735367325%3ART%3D1749039052%3AS%3DAA-AfjbQoPwZqH28q9IwcCLRSzzg&prev_fmts=0x0%2C1905x945&nras=2&correlator=7856141521577&frm=20&pv=1&rplot=4&u_tz=240&u_his=1&u_h=1080&u_w=1920&u_ah=1032&u_aw=1920&u_cd=24&u_sd=1&dmc=8&adx=448&ady=1886&biw=1905&bih=945&scr_x=0&scr_y=0&eid=31092756%2C42531705%2C95353386%2C95362441%2C95344790%2C95362174%2C95360684%2C95360294&oid=2&pvsid=494224695989127&tmod=964906233&uas=0&nvt=1&ref=https%3A%2F%2Fphys.org%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1920%2C0%2C1920%2C1032%2C1920%2C945&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=1&td=1&tdf=2&psd=W251bGwsbnVsbCxudWxsLDNd&nt=1&ifi=2&uci=a!2&btvi=1&fsb=1&dtd=1713
Lancaster Normları adlanan digər ölçü, söz anlayışlarının duyğu məlumatı (toxunma, eşitmə, qoxu, görmə kimi) və hərəkətlərlə əlaqəli olan hərəkət məlumatı ilə necə əlaqəli olduğunu araşdırdı – məsələn, insanların ağız, əl, qol və gövdə ilə təmasda etdikləri kimi.
Məsələn, ölçü bir insanın çiçəkləri iyləməklə nə qədər hiss etdiyinə və gövdənin hərəkətlərindən istifadə edərək çiçəkləri nə qədər hiss etdiyinə dair reytinq tələb edir.
Məqsəd LLM-lərin və insanların sözlərin reytinqlərində necə uyğunlaşdıqlarını görmək idi. Təhlillərdən birində tədqiqatçılar insan və süni intellektin anlayışlar üzərində nə qədər əlaqəli olduğunu araşdırdılar. Məsələn, LLM-lər və insanlar bəzi anlayışların digərlərindən daha yüksək emosional həyəcana malik olması ilə razılaşırlarmı?
İkinci təhlildə tədqiqatçılar müxtəlif ölçülərin bir sözün ümumi konseptual təsvirinə necə birgə töhfə verə biləcəyinə və müxtəlif sözlərin bir-biri ilə necə əlaqəli olduğuna qərar verməkdə insanların LLM-lərlə müqayisədə necə olduğunu araşdırdılar.
Məsələn, “makaron” və “qızılgül” anlayışları qoxu hissini nə qədər əhatə etdiyinə görə yüksək reytinq ala bilər. Bununla belə, makaron qızılgüldən daha çox əriştəyə bənzəyir – ən azı insanlar üçün – yalnız qoxusuna görə deyil, həm də vizual görünüşünə və dadına görə.
Ümumiyyətlə, LLM-lər hisslərlə və motor hərəkətləri ilə heç bir əlaqəsi olmayan sözləri təmsil etməkdə insanlarla müqayisədə çox yaxşı nəticə göstərdilər. Ancaq gördüyümüz, daddığımız və ya bədənimizdən istifadə ilə qarşılıqlı əlaqədə olan şeylərlə əlaqəsi olan sözlərə gəldikdə, AI insan anlayışlarını tuta bilmədi.
Tədqiqatçılar məqalədə deyirlər: “Gülün sıx ətirindən, ləçəkləri sığalladığımız zaman parlaq ipək kimi toxunuşdan, oyandırılan dərin sevincə qədər, “çiçəyin” insan təsviri bu müxtəlif təcrübələri və qarşılıqlı əlaqələri əlaqəli bir kateqoriyaya bağlayır”.
Məsələ ondadır ki, LLM-lərin əksəriyyəti dildən asılıdır və “dil özü bütün zənginliyi ilə konseptual təmsili tam bərpa edə bilməz” dedi Xu.
LLM-lər bəzi insan anlayışlarını təxmin edə bilsələr də, xüsusən də hisslər və ya motor hərəkətləri əhatə etmədikdə, bu cür öyrənmə səmərəli deyil.
“Onlar bildiklərini böyük miqdarda mətn istehlak edərək əldə edirlər – insanın bütün həyatı boyu məruz qaldığından daha böyük ölçülər – və hələ də bəzi anlayışları insanlar kimi tam şəkildə ələ ala bilmirlər” dedi Xu.
“İnsan təcrübəsi yalnız sözlərin tuta biləcəyindən daha zəngindir.”
Lakin Xu qeyd etdi ki, LLM-lər daim təkmilləşir və çox güman ki, onlar insan anlayışlarını ələ keçirməkdə daha yaxşı olacaqlar. Tədqiqat müəyyən etdi ki, şəkillərlə, eləcə də mətnlə öyrədilmiş LLM-lər görmə ilə bağlı anlayışları təmsil etməkdə yalnız mətn modellərindən daha yaxşı işləyirlər.
Gələcək LLM-lər sensor məlumatları və robototexnika ilə gücləndirildikdə , onlar fiziki dünya haqqında fəal şəkildə nəticə çıxara və hərəkət edə bilərlər, dedi.
Tədqiqatın həmmüəllifləri Honq Konq Politexnik Universitetindən Yingying Peng, Ping Li və Minghua Wu idi; Princeton Universitetindən Samuel Nastase; və Nyu York Şəhər Universitetindən Martin Chodorow.
Ətraflı məlumat: Torpaqlama olmadan böyük dil modelləri insan anlayışlarının sensorimotor olmayan, lakin sensorimotor xüsusiyyətlərini bərpa edir, Nature Human Behavior (2025). DOI: 10.1038/s41562-025-02203-8
Jurnal məlumatı: Nature Human Behavior Ohayo Dövlət Universiteti tərəfindən təmin edilmişdir