#Robototexnika və AI #Xəbərlər

Süni intellektdə izaholunmazın müəyyən edilməsi

Adətən süni intellekt kimi qısaldılmış “süni intellekt” termini bir çox insanlar üçün çox şey deməkdir. Əvvəlcə bu ifadə maşınların, kompüterlərin potensialına işarə etmək üçün istifadə edildi, xüsusən də insan şüuru ilə eyni dərəcədə həssaslıq qazandı. Bu anlayış insan olmağın nə demək olduğunu və maşının özünü dərk edib-etməməsi ilə bağlı bir çox fəlsəfi müzakirələrə ilham verdi. Eyni anlayış XX əsr boyunca və bu günə qədər bir çox elmi fantastikanın mərkəzində dayanırdı, baxmayaraq ki, insanlardan başqa, insana bənzər şüura sahib olan varlıqlar ideyası minilliklər boyu mövcuddur.

Süni intellekt texnologiyasının inkişafında yeni mərhələyə qədəm qoyduqca, bu terminlə nəyi nəzərdə tutduğumuzu əhatə edən anlayışlar dəyişir. İndi biz maşın öyrənməsindən keçmək və indi süni intellekt adlandırdığımız müəyyən xüsusiyyətləri götürmək üçün genetik olaraq öyrədilə bilən neyron şəbəkələri nəzərdən keçiririk.

Bununla belə, bu alətlərin bir çoxu, nəhəng məlumat bazaları ilə dəstəklənən kompüter alqoritmləri şüur ​​nümayiş etdirməyə yaxınlaşmır və onların bir çoxu, məsələn, indi bədnam olan böyük dil modelləri insan kimi davranmağa yaxınlaşır. Mətnlə tələb olunduqda, onlar zahirən orijinal cavab verə bilərlər ki, bu da ən azı səthi olaraq insanın həmin sorğuya verə biləcəyi cavabla üst-üstə düşür.

Əlbəttə ki, bu modellər yalnız onlara verilən təlim və cavablarını yaratmaq üçün işlətdikləri alqoritmlər qədər yaxşıdır. Bu növ süni intellekt tarixinin bu nöqtəsində biz “qara qutu” süni intellekt anlayışına sürətlə yaxınlaşırıq. Tez verilən bir sistem hətta sistemin proqramçıları və tərtibatçılarının belə proqnozlaşdıra bilməyəcəyi cavab yaradır. Bu cür sistemlər və onların cavabları izah edilə bilməyəcəyi nöqtəyə çatır, baxmayaraq ki, bu, sistemin özünüdərketmə , emosional davranış və hər cür doğru və ya yanlış anlayışının elmi-fantastik təkliyinə hər hansı bir şəkildə yaxınlaşdığını söyləmək deyil. .

https://googleads.g.doubleclick.net/pagead/ads?gdpr=0&us_privacy=1—&gpp_sid=-1&client=ca-pub-0536483524803400&output=html&h=135&slotname=2793866484&adk=675901022&adf=1873531024&pi=t.ma~as.2793866484&w=540&fwrn=4&lmt=1709709396&rafmt=11&format=540×135&url=https%3A%2F%2Ftechxplore.com%2Fnews%2F2023-06-unexplainable-artificial-intelligence.html&wgl=1&uach=WyJXaW5kb3dzIiwiMTUuMC4wIiwieDg2IiwiIiwiMTIyLjAuNjI2MS45NSIsbnVsbCwwLG51bGwsIjY0IixbWyJDaHJvbWl1bSIsIjEyMi4wLjYyNjEuOTUiXSxbIk5vdChBOkJyYW5kIiwiMjQuMC4wLjAiXSxbIkdvb2dsZSBDaHJvbWUiLCIxMjIuMC42MjYxLjk1Il1dLDBd&dt=1709709388519&bpp=2&bdt=356&idt=231&shv=r20240304&mjsv=m202402290101&ptt=9&saldr=aa&abxe=1&cookie=ID%3Dd8c6cdc5123375cd%3AT%3D1709623025%3ART%3D1709709387%3AS%3DALNI_MY2ynj5TDpMXqOZBx7W90OihbbXuw&gpic=UID%3D00000d6971a748b6%3AT%3D1709623025%3ART%3D1709709387%3AS%3DALNI_MaTILJ6PYHOKRZlSvHcKJ4LkDsnLQ&eo_id_str=ID%3D34d5e14efb6a7c5d%3AT%3D1709623025%3ART%3D1709709387%3AS%3DAA-Afjbw5XrDrmZOIEp3UV8fgvCO&prev_fmts=0x0%2C1519x695&nras=2&correlator=1867147394466&frm=20&pv=1&ga_vid=1833901760.1709623018&ga_sid=1709709389&ga_hid=847092629&ga_fc=1&rplot=4&u_tz=240&u_his=1&u_h=864&u_w=1536&u_ah=816&u_aw=1536&u_cd=24&u_sd=1.25&dmc=8&adx=395&ady=1748&biw=1519&bih=695&scr_x=0&scr_y=0&eid=44759876%2C44759927%2C44759842%2C31081586%2C44798934%2C95322748%2C95325752%2C95321963%2C95324160%2C95325784%2C95326914%2C31078663%2C31078665%2C31078668%2C31078670&oid=2&pvsid=3001107892864416&tmod=881060343&uas=0&nvt=1&fc=1920&brdim=0%2C0%2C0%2C0%2C1536%2C0%2C0%2C0%2C1536%2C695&vis=1&rsz=%7C%7CpeEbr%7C&abl=CS&pfx=0&fu=128&bc=31&bz=0&td=1&psd=W251bGwsbnVsbCwibGFiZWxfb25seV8xIiwxXQ..&nt=1&ifi=2&uci=a!2&btvi=1&fsb=1&dtd=8357

Biz alqoritmləri hazırlayır və öyrədirik, ondan proqnoz verməsini xahiş edirik və cavabları alırıq. Bu cavablar cəmiyyətdə, iqtisadiyyatda və maliyyədə, sənayedə, səhiyyə və tibbi tədqiqatlarda , elmin daha geniş sferasında, siyasətdə və ən çox da hərbi maşında mühüm qərarlar qəbul etmək üçün istifadə edildikdə problemlər yarana bilər .

Əgər proqramlaşdırma və təlim izaholunmazdırsa, o zaman biz və ya AI sistemlərini cavab verməyə dəvət edən maşınlar çox yanlış cavab kimi nəticələnə bilər. Əgər biz bu cür operativ reaksiya verən sistemlərə mühüm sistemlərə nəzarət etmişiksə, o zaman bir xəbərdarlıq səhiyyə mühitində, fabrikdə və ya dünya səhnəsində tamamilə qeyri-münasib cavab yaradanda dayana bilərik.

Fabian Wahler və Michael Neubert, Beynəlxalq Tədris və Tədqiqatlar Jurnalında yazaraq , süni intellektin müəyyən edilməsinin və başa düşülməsinin vacibliyini və onun bizi hara apara biləcəyini, gec deyil, tez başa düşürlər. Onlar həm praktiklər, həm də akademiklər tərəfindən gələcək işlərdə istifadə oluna bilən izah edilə bilən AI tərifinə əsaslanıblar. İş cari təriflərin qeyri-müəyyənliyini aradan qaldırmağa və qara qutu sistemlərini insan istifadəçiləri üçün başa düşülən, şərh edilə bilən və şəffaf etməklə qərar qəbulunda inam və etibarlılığı artırmağa çalışır.

Daha çox məlumat: Fabian Wahler və digərləri, Qərar qəbul etmək üçün izah edilə bilən süni intellektin elmi tərifi, Beynəlxalq Tədris və Case Studies Jurnalı (2023). DOI: 10.1504/IJTCS.2023.131664Inderscience tərəfindən təmin edilmişdir 

Leave a comment

Sizin e-poçt ünvanınız dərc edilməyəcəkdir. Gərəkli sahələr * ilə işarələnmişdir