🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

ثورة في نماذج الذكاء الاصطناعي: هرم التعليمات المتعددة المستويات

تقدم الأبحاث الحالية مفهوم هرم التعليمات المتعددة المستويات لتجاوز تحديات التعارض في التوجيهات للوكالات الذكية. هذا الابتكار يعد خطوة أساسية لتعزيز فاعلية التحكم في نماذج اللغات الكبيرة (LLMs).

في عالم الذكاء الاصطناعي، تلعب نماذج اللغات الكبيرة (Large Language Models) دوراً بارزاً في معالجة التعليمات من مصادر متعددة. ومن بين هذه المصادر نجد رسائل النظام، مطالبات المستخدم، مخرجات الأدوات، ووكلاء آخرين، كل منها يحمل مستويات مختلفة من الثقة والسلطة. وعندما تتعارض هذه التعليمات، يصبح من الضروري على الوكلاء الذكيين اتباع التعليمات ذات الامتياز الأعلى للبقاء آمنين وفعالين.

التوجه السائد حالياً، المعروف بهرم التعليمات (Instruction Hierarchy)، يفترض وجود مجموعة ثابتة وصغيرة من مستويات الامتياز (عادة أقل من خمسة) مُعرفة بواسطة تسميات ثابتة للأدوار، مثل النظام > المستخدم. لكن هذه الطريقة لا تكفي لأعداد كبيرة من المصادر والسياقات في العالم الحقيقي، حيث يمكن أن تنشأ صراعات عبر مجموعة واسعة من التعليمات.

لتجاوز هذا التحدي، تم اقتراح مفهوم هرم التعليمات المتعددة المستويات (Many-Tier Instruction Hierarchy أو ManyIH). هذا الابتكار يقدم تصوراً جديداً لحل تعارض التعليمات باستخدام مستويات امتياز غير محددة العدد. كما تم تقديم ManyIH-Bench كأول معيار يقيس الأداء في هذا النظام، حيث يتطلب من النماذج التعامل مع تعارضات تعليمية تصل إلى 12 مستوى من التعليمات ذات الامتيازات المختلفة.

يتكون هذا المعيار من 853 مهمة وكيلية (426 تتعلق بالامتثال للتعليمات و427 للبرمجة)، ويستخدم قيوداً تم تطويرها بواسطة نماذج اللغات الكبيرة وتم التحقق منها من قبل البشر لإنشاء حالات اختبار واقعية وصعبة تغطي 46 وكيلاً في العالم الحقيقي.

أظهرت التجارب أن حتى النماذج الأحدث تؤدي أداءً ضعيفًا (حوالي 40% دقة) عند تصاعد تعارض التعليمات. هذا يظهر الحاجة الملحة لطرق تستهدف بشكل صريح حل تعارض التعليمات بفروقات دقيقة وقابلة للتطوير في بيئات الوكالات الذكية.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة