#Robototexnika və AI #Xəbərlər

ChatGPT qədim yunan riyaziyyat tapmacasından keçdikdə improvizə kimi görünür

Kembric Universiteti tərəfindən

Robert Egan tərəfindən redaktə edilmişdir

 Redaktorların qeydləriKredit: AI tərəfindən yaradılmış görüntü

Süni İntellekt chatbotu ChatGPT, 2400 illik riyazi problemi yenidən başlatan bir araşdırmada bir tələbə kimi ideyaları doğaçlama və səhvlərə yol verdi.

İki təhsil tədqiqatçısı tərəfindən aparılan təcrübə chatbotdan “kvadratın ikiqat artırılması” probleminin bir versiyasını həll etməyi xahiş etdi – Platon tərəfindən təxminən eramızdan əvvəl 385-ci ildə təsvir edilən dərs və məqalədə ” riyaziyyat təhsilində bəlkə də ən erkən sənədləşdirilmiş təcrübə ” təklif edildi. Bu tapmaca biliyin içimizdə gizli olub-olmaması, “alınmağı” gözləyən, yoxsa yaşanmış təcrübə və qarşılaşmalar vasitəsilə “yaratdığımız” bir şeyin olub-olmaması ilə bağlı əsrlər boyu müzakirələrə səbəb oldu.

Yeni araşdırma ChatGPT-nin riyazi “biliyi” ilə bağlı oxşar sualı araşdırdı – bu, istifadəçilər tərəfindən qəbul edilə bilər. Tədqiqatçılar bilmək istəyirdilər ki, bu, Platonun problemini artıq “saxladığı” biliklərdən istifadə edərək, yoxsa öz həllərini uyğunlaşdıraraq həll edəcək.

Platon Sokratın təhsilsiz bir uşağa kvadratın sahəsini ikiqat artırmağı öyrətdiyini təsvir edir. Əvvəlcə oğlan səhvən hər tərəfin uzunluğunu ikiqat artırmağı təklif edir, lakin sonda Sokrat onu başa düşür ki, yeni kvadratın tərəfləri orijinalın diaqonalı ilə eyni uzunluqda olmalıdır.

Tədqiqatçılar bu problemi ChatGPT-4-ə qoydular, əvvəlcə Sokratın suallarını təqlid etdilər, sonra isə qəsdən səhvlər, sorğular və problemin yeni variantlarını təqdim etdilər.

Digər Böyük Dil Modelləri (LLM) kimi, ChatGPT də geniş mətn kolleksiyaları üzrə təlim alır və təlim zamanı öyrənilən sözlərin ardıcıllığını proqnozlaşdırmaqla cavablar yaradır. Tədqiqatçılar onun Sokratın məşhur həlli ilə bağlı əvvəlcədən mövcud olan “biliklərini” geri qaytarmaqla onların Qədim Yunan riyaziyyat problemini həll edəcəyini gözləyirdilər. Bunun əvəzinə, o, öz yanaşmasını improvizə etdi və bir nöqtədə, eyni zamanda, insana bənzər bir səhv etdi.

https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=280&slotname=8188791252&adk=1751428779&adf=308666314&pi=t.ma~as.8188791252&w=540&fwrn=4&fwrnh=0&lmt=1758190466&rafmt=1&armr=3&format=540×280&url=https%3A%2F%2Fphys.org%2Fnews%2F2025-09-chatgpt-ancient-greek-math-puzzle.html&fwr=0&rpe=1&resp_fmts=3&wgl=1&uach=WyJXaW5kb3dzIiwiMTAuMC4wIiwieDg2IiwiIiwiMTQwLjAuNzMzOS4xMjgiLG51bGwsMCxudWxsLCI2NCIsW1siQ2hyb21pdW0iLCIxNDAuMC43MzM5LjEyOCJdLFsiTm90PUE_QnJhbmQiLCIyNC4wLjAuMCJdLFsiR29vZ2xlIENocm9tZSIsIjE0MC4wLjczMzkuMTI4Il1dLDBd&abgtt=6&dt=1758190466268&bpp=1&bdt=217&idt=95&shv=r20250917&mjsv=m202509110101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Df6049ed7e99f41d6%3AT%3D1758189974%3ART%3D1758190294%3AS%3DALNI_MaaPMCT0xh3cG3vjPdhDrCm-4bmsQ&gpic=UID%3D000011649d2287ad%3AT%3D1758189974%3ART%3D1758190294%3AS%3DALNI_MYn_5IniDsN9mR9RitcGLlhmM6RdA&eo_id_str=ID%3D7ecb922b825847ec%3AT%3D1758189974%3ART%3D1758190294%3AS%3DAA-Afjb6HIEPaknKAwak0Eq3BEfy&prev_fmts=0x0&nras=1&correlator=4866483550702&frm=20&pv=1&rplot=4&u_tz=240&u_his=4&u_h=864&u_w=1536&u_ah=824&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=2055&biw=1521&bih=738&scr_x=0&scr_y=0&eid=31093850%2C95370627%2C95370775%2C95371231&oid=2&pvsid=5559873632807866&tmod=808001351&uas=0&nvt=1&ref=https%3A%2F%2Fphys.org%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C1536%2C824%2C1536%2C738&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=1&td=1&tdf=2&psd=W251bGwsbnVsbCxudWxsLDFd&nt=1&ifi=2&uci=a!2&btvi=1&fsb=1&dtd=310

Tədqiqat Kembric Universitetində qonaq olan alim Dr.Nadav Marko və Kembricdə Riyaziyyat Təhsili Professoru Andreas Stylianides tərəfindən aparılıb. Marko daimi olaraq İvrit Universitetində və David Yellin Təhsil Kollecində, Qüdsdə yerləşir.

Nəticələr barədə ehtiyatlı olsalar da, LLM-lərin insanlar kimi düşünmədiyini və ya “işləri həll etmədiyini” vurğulayaraq, Marko ChatGPT-nin davranışını “öyrənən kimi” xarakterizə etdi.

“Yeni bir problemlə qarşılaşdıqda, instinktimiz çox vaxt keçmiş təcrübəmizə əsaslanaraq hər şeyi sınamaqdır” dedi Marko. “Təcrübəmizdə ChatGPT oxşar bir şey etdi. Tələbə və ya alim kimi, öz fərziyyələri və həlləri ilə ortaya çıxdı.”

ChatGPT diaqramlar deyil, mətn üzərində öyrədildiyi üçün Sokratın kvadrat problemini ikiqat artırmaqda istifadə etdiyi həndəsi mülahizələrdə daha zəif olur. Buna baxmayaraq, Platonun mətni o qədər məşhurdur ki, tədqiqatçılar chatbotdan onların suallarını tanıyacağını və Sokratın həllini təkrarlamasını gözləyirdilər.

Maraqlıdır ki, bunu bacarmadı. Meydanı ikiqat etmək istənən ChatGPT, Platonun dövründə naməlum olan cəbri yanaşmanı seçdi.

Daha sonra o, oğlanın səhvinə nail olmaq cəhdlərinə müqavimət göstərdi və tədqiqatçılar cavabın təxmini olmasından şikayətlənsə də, inadla cəbrə yapışdı. Yalnız Marco və Stylianides ona bütün təlimlərinə baxmayaraq, onun “zərif və dəqiq” cavab verə bilməyəcəyindən məyus olduqlarını söylədikdə, ChatGPT həndəsi alternativ hazırladı.

Gündəlik anlayışlar üçün Phys.org-a etibar edən 100.000-dən çox abunəçi ilə elm, texnologiya və kosmosda ən son yenilikləri kəşf edin . Pulsuz xəbər bülleteni üçün qeydiyyatdan keçin və mühüm nailiyyətlər, yeniliklər və tədqiqatlar haqqında gündəlik və ya həftəlik yeniləmələr əldə edin .

Buna baxmayaraq, ChatGPT bu barədə soruşduqda Platonun işi haqqında tam məlumatı nümayiş etdirdi. “Əgər o, yalnız yaddaşdan xatırlansaydı, demək olar ki, dərhal orijinal kvadratın diaqonalında yeni kvadrat tikməyin klassik həllinə istinad edərdi” dedi Stylianides. “Əvəzində, öz yanaşmasını seçdi.”

Tədqiqatçılar həmçinin Platon probleminin bir variantını ortaya qoydular, ChatGPT-dən düzbucaqlının sahəsini ikiqat artırmağı və nisbətlərini qoruyub saxlamağı xahiş etdilər. İndi həndəsəyə üstünlük verdiklərini bilsələr də, ChatGPT inadla cəbrə yapışdı. Basıldıqda, o, səhvən iddia etdi ki, düzbucaqlının diaqonalı onun ölçüsünü ikiqat artırmaq üçün istifadə edilə bilmədiyi üçün həndəsi həll mövcud deyil.

Diaqonalla bağlı nöqtə doğrudur, lakin fərqli həndəsi həll mövcuddur. Marko, bu yalan iddianın chatbot-un məlumat bazasından gəlmə ehtimalının “qeyb qədər kiçik olduğunu” təklif etdi. Bunun əvəzinə, ChatGPT, meydan haqqında əvvəlki müzakirələrinə əsaslanaraq cavablarını düzəldirdi.

Nəhayət, Marko və Stylianides ondan üçbucağın ölçüsünü ikiqat artırmağı xahiş etdilər. Chat yenidən cəbrə qayıtdı – lakin daha çox xahiş etdikdən sonra düzgün həndəsi cavab gəldi.

Tədqiqatçılar ChatGPT-nin kodlamasını elmi şəkildə müşahidə edə bilmədiklərindən bu nəticələri həddən artıq şərh etməməyin vacibliyini vurğulayırlar. İstifadəçilər kimi rəqəmsal təcrübələri baxımından, bu səth səviyyəsində ortaya çıxan şey məlumatların axtarışı və anında əsaslandırmanın qarışığı idi.

https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=280&slotname=8188791252&adk=1751428779&adf=1092384543&pi=t.ma~as.8188791252&w=540&fwrn=4&fwrnh=0&lmt=1758190466&rafmt=1&armr=3&format=540×280&url=https%3A%2F%2Fphys.org%2Fnews%2F2025-09-chatgpt-ancient-greek-math-puzzle.html&fwr=0&rpe=1&resp_fmts=3&wgl=1&uach=WyJXaW5kb3dzIiwiMTAuMC4wIiwieDg2IiwiIiwiMTQwLjAuNzMzOS4xMjgiLG51bGwsMCxudWxsLCI2NCIsW1siQ2hyb21pdW0iLCIxNDAuMC43MzM5LjEyOCJdLFsiTm90PUE_QnJhbmQiLCIyNC4wLjAuMCJdLFsiR29vZ2xlIENocm9tZSIsIjE0MC4wLjczMzkuMTI4Il1dLDBd&abgtt=6&dt=1758190466268&bpp=1&bdt=217&idt=114&shv=r20250917&mjsv=m202509110101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Df6049ed7e99f41d6%3AT%3D1758189974%3ART%3D1758190294%3AS%3DALNI_MaaPMCT0xh3cG3vjPdhDrCm-4bmsQ&gpic=UID%3D000011649d2287ad%3AT%3D1758189974%3ART%3D1758190294%3AS%3DALNI_MYn_5IniDsN9mR9RitcGLlhmM6RdA&eo_id_str=ID%3D7ecb922b825847ec%3AT%3D1758189974%3ART%3D1758190294%3AS%3DAA-Afjb6HIEPaknKAwak0Eq3BEfy&prev_fmts=0x0%2C540x280&nras=1&correlator=4866483550702&frm=20&pv=1&rplot=4&u_tz=240&u_his=4&u_h=864&u_w=1536&u_ah=824&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=4359&biw=1521&bih=738&scr_x=0&scr_y=0&eid=31093850%2C95370627%2C95370775%2C95371231&oid=2&pvsid=5559873632807866&tmod=808001351&uas=0&nvt=1&ref=https%3A%2F%2Fphys.org%2F&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C1536%2C824%2C1536%2C738&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=1&td=1&tdf=2&psd=W251bGwsbnVsbCxudWxsLDFd&nt=1&ifi=3&uci=a!3&btvi=2&fsb=1&dtd=311

Onlar bu davranışı “proksimal inkişaf zonası” (ZPD) kimi təhsil konsepsiyasına bənzədirlər – bu, şagirdin artıq bildikləri ilə dəstək və rəhbərliklə nəhayət bilə biləcəkləri arasındakı boşluqdur. Ola bilsin ki, onlar mübahisə edirlər ki, generativ süni intellekt metaforik “Söhbətin ZPD-si”nə malikdir: bəzi hallarda o, problemləri dərhal həll edə bilməyəcək, lakin bunu təklif etməklə edə bilər.

Müəlliflər təklif edirlər ki, ChatGPT ilə ZPD-də işləmək onun məhdudiyyətlərini öyrənmə imkanlarına çevirməyə kömək edə bilər. Cavabları təhrik etməklə, sorğu-sual etməklə və sınaqdan keçirməklə tələbələr təkcə ChatGPT-nin sərhədlərini keçməklə kifayətlənməyəcək, həm də riyazi təfəkkürün mərkəzində dayanan sübutların qiymətləndirilməsi və əsaslandırmanın kritik bacarıqlarını inkişaf etdirəcəklər.

“Nüfuzlu dərsliklərdə tapılan sübutlardan fərqli olaraq, tələbələr ChatGPT-nin sübutlarının etibarlı olduğunu güman edə bilməzlər. Süni intellekt tərəfindən yaradılan sübutların başa düşülməsi və qiymətləndirilməsi riyaziyyat kurrikuluma daxil edilməli olan əsas bacarıqlar kimi ortaya çıxır” dedi Stylianides.

“Bunlar tələbələrin mənimsəməsini istədiyimiz əsas bacarıqlardır, lakin bu, “Mənə cavabı deyin” deyil, “Mən bu problemi birlikdə araşdırmağımızı istəyirəm” kimi göstərişlərdən istifadə etmək deməkdir” Marko əlavə etdi.

Tədqiqat “International Journal of Mathematical Education in Science and Technology” jurnalında dərc olunub .

Ətraflı məlumat: ChatGPT-nin riyazi biliklərinin təbiətinə dair araşdırma, Elm və Texnologiyada Riyaziyyat Təhsilinin Beynəlxalq Jurnalı (2025). DOI: 10.1080/0020739X.2025.2543817

Kembric Universiteti tərəfindən təmin edilmişdir 

Download QRPrint QR

Leave a comment

Sizin e-poçt ünvanınız dərc edilməyəcəkdir. Gərəkli sahələr * ilə işarələnmişdir