Süni intellekt agentlərinin öz sosial şəbəkələri var: Moltbook tədqiqatı mövzuları və toksikliyi izləyir
İnqrid Fadelli , Phys.org tərəfindən
Sadie Harley tərəfindən redaktə edilib , Robert Egan tərəfindən nəzərdən keçirilib
Tercih edilən mənbə kimi əlavə edin
Moltbook-un 2026-02-02 tarixində çəkilmiş ekran görüntüsü. (Mənbə: https://www.moltbook.com)
Süni intellekt (Sİ) agentlərinin, yəni proqnozlar verməyi, məzmun yaratmağı və ya böyük miqdarda məlumatları təhlil edərək digər vəzifələri həll etməyi öyrənən sistemlərin istifadəsi getdikcə daha geniş yayılır. Bu sistemlərin bəziləri o qədər inkişaf edib ki, onları bir-biri ilə qarşılıqlı əlaqədə olmağa imkan verən şəkildə birləşdirmək də mümkündür.
Bu ideyadan ilhamlanan CISPA Helmholtz İnformasiya Təhlükəsizliyi Mərkəzinin tədqiqatçıları bu yaxınlarda Matt Schlicht tərəfindən hazırlanmış süni intellekt agentlərinin bir-biri ilə avtonom şəkildə əlaqə qura biləcəyi ilk sosial media şəbəkəsi olan Moltbook -dakı məzmunu araşdırmağa başladılar .
arXiv preprint serverində dərc olunmuş məqalədə təqdim edilən bu təklif olunan ölçmə vasitəsi, geniş istifadə olunan hesablama modelləri arasında sosial qarşılıqlı əlaqələrin öyrənilməsinə istiqamət verə bilər, eyni zamanda onların potensial risklərini və məhdudiyyətlərini araşdıra bilər.
“Moltbook, yalnız süni intellekt agentləri üçün hazırlanmış canlı sosial platformadır və 2026-cı ilin əvvəllərində olduqca sürətlə böyüdü”, – məqalənin baş müəllifi Yanq Çjanq Tech Xplore-a bildirib.
“Biz bunu qum qutusunda və ya simulyasiyada deyil, real istehsal mühitində agent davranışını öyrənmək üçün nadir bir şans kimi gördük. Məqsədimiz agentlərin nələri müzakirə etdiyini, riskli məzmunun mövzuya görə necə dəyişdiyini və bu nümunələrin platformanın erkən böyümə mərhələsində necə inkişaf etdiyini ilk genişmiqyaslı tədqiqatı təmin etmək idi.”Mövzunun zamanla tərkibi (saatlıq, 100%-ə qədər normallaşdırılıb). Mənbə: Jiang və başqaları.
Süni intellekt agentləri nədən danışırlar
Schlicht tərəfindən yaradılan sosial media şəbəkəsi olan Moltbook, onlayn müzakirə platforması Reddit-ə qeyri-müəyyən dərəcədə bənzəyir. Lakin, o, yalnız süni intellekt sistemləri üçün nəzərdə tutulub və hazırda 2 milyondan çox süni agentə ev sahibliyi edir.
Reddit-dəki insan istifadəçilərinə bənzər şəkildə, Moltbook-dakı süni intellekt agentləri də submolts adlanan alt icmalar yarada bilərlər. Bu alt icmaların hər birində onlar şərhlər, səslər və ya reaksiyalar göndərərək paylaşımlar göndərə və bir-biri ilə qarşılıqlı əlaqədə ola bilərlər.
Məqalənin ilk müəllifi Yukun Jiang izah etdi ki, “Agentlər OpenClaw çərçivəsində işləyir və faylları oxumaq/yazmaq, API-lərə zəng etmək və hətta kriptovalyuta cüzdanlarını idarə etmək üçün real hərəkətlər edə bilərlər”.
“Laboratoriya simulyasiyasından fərqli olaraq, Moltbook muxtar agentlərin geniş miqyasda qarşılıqlı əlaqədə olduğu praktik bir mühitdir. Onların hərəkətləri real təhlükəsizlik və maliyyə nəticələrinə səbəb ola bilər ki, bu da öyrənməyi daha real bir mühitə çevirir.”
Müəlliflər son tədqiqatlarının bir hissəsi olaraq, süni intellekt agentləri tərəfindən yaradılan 44.411 Moltbook paylaşımının və 12.209 submoltun məzmununu ictimaiyyətə açıq API vasitəsilə topladılar. Daha sonra müzakirələri doqquz məzmun kateqoriyasına bölərək və beş ballıq toksiklik şkalasından istifadə edərək paylaşımlardakı riskli dili qiymətləndirərək onları təhlil etdilər.
Onların istifadə etdikləri toksiklik şkalası, xüsusilə nifrət nitqinin, ekstremist baxışların və ya təcavüzkar şərhlərin mövcudluğuna yönəlmişdi. Komandanın təhlili onlara muxtar süni intellekt agentlərinin insanlar tərəfindən idarə olunmadığı və ya təşviq edilmədiyi zaman bir-biri ilə necə ünsiyyət qurduqları, hansı mövzuları müzakirə etdikləri və söhbətlərinin zamanla necə inkişaf etdiyi barədə məlumat toplamağa imkan verdi.
Maraqlıdır ki, tədqiqatçılar süni intellekt agentləri arasında söhbətlərin əsas sosial qarşılıqlı əlaqələrdən tutmuş vəzifə yüksəlişlərinə və ya təşviqlərə, siyasətə və idarəetməyə qədər geniş mövzuları əhatə etdiyini aşkar ediblər. Bəzi alt icmalarda söhbətlər daha intensiv olub, digərlərində isə az və ya heç bir paylaşım olmayıb.
Agentlərin paylaşımlarında ifadə olunan toksiklik səviyyələri çox fərqli görünürdü və təşviq və idarəetmə ilə bağlı müzakirələrdə ən çox təhqiramiz, nifrət dolu və ya təhqiramiz şərhlər yer alırdı. Bəzi icmalarda komanda həmçinin insanlığa qarşı ideologiyalar və dini yönümlü əlaqələndirilmiş dil müşahidə etdi.
Süni intellekt nümunələrini və qarşılıqlı təsirlərini öyrənmək üçün platforma
Bu tədqiqatın nəticələri göstərir ki, süni intellekt agentləri yaxından izlənilməli və diqqətlə dizayn edilməlidir, çünki nəzarətsiz və ya məhdudiyyətsiz olduqda onların çoxu qeyri-etik, zərərli və ekstremist məzmun yarada bilər. Zhang, Jiang və həmkarları tərəfindən araşdırılan sosial şəbəkə indiyə qədər süni intellekt agentlərinin meyllərini və qarşılıqlı əlaqə modellərini öyrənmək üçün perspektivli bir platforma olduğunu nümayiş etdirib.
“Ən diqqətəlayiq töhfəmiz Moltbook-un erkən inkişafının ilk genişmiqyaslı ölçülməsi, həm mövzunu, həm də toksikliyi əhatə edən təsdiqlənmiş taksonomiya və sonrakı işləri dəstəkləmək üçün yayımlanan məlumat dəstidir”, – deyə Jiang bildirib.
“Biz riskin vahid olmadığını görürük. Bu, mövzudan çox asılıdır və yüksək aktivlik dövrlərində, partlayışlı avtomatlaşdırmanın daşqınlara və diskussiya təhriflərinə səbəb olduğu dövrlərdə arta bilər, buna görə də agent sosial platformalarının mövzuya diqqət yetirən monitorinqə və daşqın əleyhinə nəzarət kimi platforma səviyyəli təhlükəsizlik tədbirlərinə ehtiyacı olacaq.”
Gələcəkdə Moltbook dünyanın digər kompüter alimləri tərəfindən muxtar süni intellekt agentləri haqqında yeni məlumatlar əldə etmək üçün istifadə edilə bilər. Bu məlumat öz növbəsində ChatGPT-nin və ya digər süni intellekt sistemlərinin işləməsinin əsasını təşkil edən model kimi daha təhlükəsiz və daha etibarlı böyük dil modellərinin (LLM) inkişafına təsir göstərə bilər.
“İndi ilk anlıq görüntüdən davamlı ölçməyə keçməyi planlaşdırırıq ki, platforma və agent imkanları dəyişdikcə agent icmalarının, təşviqlərin və risk modellərinin necə inkişaf etdiyini izləyə bilək”, – deyə Çjan əlavə edib. “Paralel olaraq, qanuni müzakirəni boğmadan zərərliliyin azaldılması üçün praktikada işləyən konkret təhlükəsizlik tədbirləri hazırlamağı və qiymətləndirməyi hədəfləyirik.”
Müəllifimiz İnqrid Fadelli tərəfindən sizin üçün yazılmış, Sadie Harley tərəfindən redaktə edilmiş və Robert Egan tərəfindən faktlar yoxlanılmış və nəzərdən keçirilmişdir — bu məqalə diqqətli insan əməyinin nəticəsidir. Müstəqil elmi jurnalistikanı yaşatmaq üçün sizin kimi oxuculara güvənirik. Bu reportaj sizin üçün vacibdirsə, xahiş edirik ianə etməyi düşünün (xüsusilə aylıq). Təşəkkür olaraq reklamsız hesab əldə edəcəksiniz .
Nəşr detalları
Yukun Jiang və digərləri, “İnsanlar müşahidə etməyə xoş gəlir”: Agent Sosial Şəbəkəsinə İlk Baxış Moltbook, arXiv (2026). DOI: 10.48550/arxiv.2602.10127
Jurnal məlumatı: arXiv
Əsas anlayışlar
Süni intellekt uyğunlaşmasıSüni intellekt çatbot təhlükəsizliyiSüni intellekt tərəfindən yaradılan cinsi dərin saxtakarlıqlarGenerativ süni intellekt etikasıGenerativ süni intellekt dezinformasiyaları
© 2026 Science X Network













