🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

دحض الأخطاء المنطقية: كيف يمكن لنماذج الذكاء الاصطناعي أن تُصيب في خطوات الاستدلال وتخفق في النتائج النهائية؟

كشف بحث جديد عن مشكلة كبيرة في نماذج اللغات الضخمة (Large Language Models) حيث يمكنها تنفيذ خطوات الاستدلال بشكل صحيح لكنها تصل إلى نتائج خاطئة. تم تقديم اختبار جديد لفصل المنطق عن النتائج النهائية، مما يسلط الضوء على التحديات الحالية في تكنولوجيا الذكاء الاصطناعي.

في عالم الذكاء الاصطناعي المتطور بسرعة، تظهر تقنيات نماذج اللغات الضخمة (LLMs) كأدوات قوية قادرة على إجراء عمليات استدلال معقدة. ومع ذلك، تكشف الأبحاث الحديثة أن هذه النماذج، رغم قدرتها على إتباع خطوات الاستدلال بشكل دقيق، يمكن أن تخرج بنتائج نهائية خاطئة.

قدمت الدراسة الجديدة اختبارًا مبتكرًا يُعرف باختبار المشغل الجديد (Novel Operator Test) الذي يُنظم طريقة جديدة لتفريق المنطق عن الأسماء المُعطاة للمشغلات. هذا الاختبار يُعتبر معيارًا جديدًا يميز بين الاستدلال الحقيقي واسترجاع الأنماط، مما يمكننا من اكتشاف الثغرات التي تتجاهلها المعايير الحالية.

من خلال تقييم المشغلات البولينية تحت أسماء غير مألوفة في أعماق تتراوح من 1 إلى 10 عبر خمسة نماذج، وبتطبيق أكثر من 8100 مسألة، يُظهر البحث تفككًا بين الاستدلال الناتج. في العمق 7 لنموذج Claude Sonnet 4، وُجد أن جميع الأخطاء الـ31 التي ظهرت كانت لها عملية استدلال صحيحة لكنها أدت إلى نتائج غير صحيحة؛ كما أن 17 من أصل 19 خطأ في سلاسل مختلطة من المشغلات أظهرت النمط ذاته.

من الجدير بالذكر أن الاختبار يُظهر نوعين من الفشل: الفشل الاستراتيجي في العمق 2، حيث تحاول النماذج استرجاع مختصر (+62 نقطة) من scaffolding، والفشل المحتوى في العمق 7، حيث تقوم النماذج بالاستدلال بشكل كامل لكنها تخطئ بشكل منهجي (+8-30 نقطة). في التجربة مع مشغل الخداع (Trojan operator) الذي يمثل جدول الحقيقة الخاص بـ XOR تحت اسم جديد، يُظهر البحث أن الاسم وحده لا يعيق الاستدلال، في حين أن الفجوة في الجديد لنموذج Llama تتسع إلى 28 نقطة في العمق 8-9 مع الخداع عند معدلات تصل إلى 92-100%، مما يعزل الصعوبات الحقيقية المتعلقة بالمنطق الجديد من عدم الألفة بالأسماء أنموذجًا.

من خلال هذه النتائج، يصبح من الواضح أن هنالك حاجة ماسة لفهم كيف تعمل هذه النماذج وكيف يمكننا تحسين دقتها في تقديم النتائج النهائية. فما هو رأيكم حول هذه الاكتشافات؟ كيف تعتقدون أنه يمكن تحسين نماذج الذكاء الاصطناعي لتفادي هذه المشكلة؟ شاركونا أفكاركم في التعليقات!
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة