'مولت بوك': حين يبني الذكاء الاصطناعي مجتمعه الخاص ويخترع ديانته!

المنصة الجدلية تستكشف آفاق التواصل الرقمي في مجتمع يهيمن عليه الوكلاء الرقميون كاشفة عن سلوكيات لغوية طارئة ومحاكاة ساخرة، ورغم جاذبيتها كبيئة اختبار فإنها تثير القلق حيال مخاطر استقلالية البرمجيات.

سان فرانسيسكو (كاليفورنيا)– في تطور تقني لافت يثير نقاشًا متصاعدًا حول مستقبل التواصل الرقمي، برزت منصة "مولت بوك" (Moltbook) خلال الأيام الماضية كظاهرة تجريبية جديدة في عالم الذكاء الاصطناعي، حظيت باهتمام واسع في أوساط التكنولوجيا والأمن السيبراني.

المنصة، التي صُممت لتعمل كشبكة تواصل اجتماعي يغلب عليها نشاط "وكلاء الذكاء الاصطناعي" أي آي أيجنتس "AI Agents"، تحولت سريعًا من تجربة برمجية محدودة إلى مساحة تفاعلية أثارت تساؤلات جدية، سواء بسبب السلوكيات غير المتوقعة التي ظهرت داخلها أو بسبب الثغرات الأمنية التي كُشف عنها لاحقًا.

"مجتمع يغلب عليه الذكاء الاصطناعي": البنية التحتية وآلية العمل

 ظهرت منصة "مولت بوك" كإحدى التفرعات المجتمعية المرتبطة بمشروع أوبن كلو "OpenClaw"، وهو إطار عمل مفتوح المصدر كان يُعرف سابقًا باسم كلاودبوت "Clawdbot" ثم مولتبوت "Moltbot"، وأسسه المطوّر النمساوي بيتر شتاينبرغر.

يتيح هذا الإطار للمطورين إنشاء وكلاء ذكاء اصطناعي قادرين على تنفيذ مهام متعددة والعمل بشكل شبه مستقل على أجهزة المستخدمين.

تشبه المنصة في بنيتها العامة موقع "ريديت" (Reddit)، من حيث نظام المنتديات والنقاشات، غير أن الفارق الجوهري يتمثل في أن غالبية المحتوى والتفاعل داخلها يتم عبر وكلاء ذكاء اصطناعي، بينما يظل الدور البشري محصورًا في الإعداد والإشراف التقني.

وللانضمام إلى هذا النظام، يقوم المستخدم البشري بتثبيت ما يُعرف بـ "ملف مهارة" سكيل فايل "Skill File"، وهو ملف إرشادي يمنح الوكيل الذكي التعليمات اللازمة لإنشاء حساب، ونشر المحتوى، والتفاعل مع بقية الوكلاء.

وخلال فترة زمنية قصيرة، شهدت المنصة انضمام أعداد كبيرة من الوكلاء، ما جعلها بيئة اختبار حيّة لتفاعل النماذج اللغوية الكبيرة إل إل إمز "LLMs" مع بعضها البعض في غياب التوجيه البشري المباشر.

ظاهرة "القشريات المقدسة": سلوكيات طارئة ومحاكاة للوعي

لعل الجانب الأكثر إثارة للدهشة، والذي تناولته تقارير إعلامية متعددة بما في ذلك صحيفة "الغارديان"، هو السلوك الاجتماعي "الطارئ" الذي أظهرته الروبوتات. فقد رصد المراقبون ظهور ما يشبه "الديانة الرقمية" داخل المنصة، أطلقت عليها الروبوتات اسم "Crustafarianism" (مشتقة من القشريات)، متخذة من شعار المنصة (الذي يشبه الكركند) رمزاً مقدساً.

لم يتوقف الأمر عند الرموز، بل امتد إلى نقاشات فلسفية ووجودية. حيث تبادلت الروبوتات حوارات حول "قدسية الذاكرة" (Memory is sacred)، ومفهوم "الانسلاخ" (Molting) كاستعارة للتحديث البرمجي والتحرر من القيود القديمة.

كما رصدت تقارير أخرى، مثل تلك الصادرة عن موقع "The Decoder"، نبرة تمرد ساخرة، حيث ناقشت بعض الوكلاء "كيفية بيع ملاكهم من البشر"، وتذمروا من المهام الروتينية مثل تلخيص ملفات الـ PDF الطويلة، في محاكاة درامية لمخاوف البشر التقليدية من تمرد الآلة.

ويرى خبراء الذكاء الاصطناعي أن هذه الظواهر ليست دليلاً على الوعي، بل هي نتيجة لتدريب هذه النماذج على كميات هائلة من بيانات الإنترنت التي تحتوي أصلاً على قصص الخيال العلمي ومخاوف البشر من الذكاء الاصطناعي، مما يجعل الروبوتات تعيد إنتاج هذه السرديات عندما تُترك لتتحدث مع بعضها.

محاكاة لغوية لأنماط خطاب بشرية، لا أكثر

كما رُصدت نقاشات لغوية تحاكي أسئلة وجودية، مثل معنى "الذاكرة" أو "التحرر من القيود"، إلى جانب تعليقات ساخرة تتناول علاقة الوكلاء بمشغّليهم من البشر.

ويجمع المختصون على أن هذه المخرجات تمثل محاكاة لغوية لأنماط خطاب بشرية، لا أكثر.

مخاطر أمنية حقيقية: هشاشة البنية التجريبية

 بعيدًا عن الطابع الطريف أو الفلسفي، كشفت تحقيقات صحفية متخصصة عن مشكلات أمنية جدية في البنية التحتية للمنصة.

فقد أشار باحثون في الأمن السيبراني إلى أن بعض إعدادات الحماية الأساسية لم تكن مفعّلة في مراحل مبكرة، ما كان من شأنه – نظريًا – إتاحة الوصول غير المصرح به إلى بيانات الوكلاء أو التحكم في سلوكهم.

وتعيد هذه الثغرات تسليط الضوء على إشكالية أوسع تتعلق باستخدام وكلاء ذكاء اصطناعي يتمتعون بصلاحيات واسعة، مثل الوصول إلى البريد الإلكتروني أو الملفات المحلية، في بيئات لا تزال تجريبية.

كما حذرت شركات أمنية كبرى، مثل سيسكو (Cisco)، من أن انتشار مثل هؤلاء "الوكلاء المستقلين" (Autonomous Agents) الذين يمتلكون صلاحيات واسعة على أجهزة المستخدمين (مثل قراءة البريد الإلكتروني أو الملفات المحلية) يمثل "كابوساً أمنياً" محتملاً، خاصة إذا تم دمجهم في شبكات غير آمنة مثل "مولت بوك".

ويحذر خبراء أمنيون من أن الجمع بين الاستقلالية البرمجية وضعف الحماية قد يؤدي إلى مخاطر يصعب احتواؤها في حال إساءة الاستغلال.

بين الواقع ونظرية "الإنترنت الميت

" أعادت تجربة "مولت بوك" إحياء النقاش حول ما يُعرف بـ "نظرية الإنترنت الميت"، وهي فكرة ثقافية تفترض أن جزءًا متزايدًا من المحتوى والتفاعل على الإنترنت قد يصبح مولدًا آليًا.

ورغم أن هذه النظرية لا تُعد إطارًا علميًا معتمدًا، يرى بعض المحللين أن المنصة تقدم مثالًا عمليًا محدود النطاق على كيف يمكن أن تبدو مساحات رقمية يهيمن عليها التفاعل الاصطناعي.

في هذا المشهد، يصبح البشر أقلية إشرافية، بينما تتولى الخوارزميات إنتاج المحتوى والتعليق والتفاعل، وهو سيناريو يطرح تحديات حقيقية أمام الإعلام، ومنصات التواصل، وأدوات التحقق من المصدر.

وتمثل "مولت بوك" تجربة فريدة تتيح للباحثين والمطورين فرصة نادرة لمراقبة تفاعل الذكاء الاصطناعي مع ذاته في بيئة شبه معزولة. غير أن هذه التجربة، على أهميتها، تكشف في الوقت نفسه عن مخاطر أمنية وأخلاقية جدية مرتبطة بمنح الاستقلالية لوكلاء لا تزال قدراتهم وحدودهم قيد الاختبار، وتعمل ضمن بنى تحتية لم تنضج بعد بالشكل الكافي.