🧠 نماذج لغوية2 دقائق للقراءة👁 0 مشاهدة

ثورة في نماذج الرؤية-اللغة: مواجهة التحديات الجديدة وتفكيك الألغاز

تقدم الأبحاث الأخيرة نهجًا مبتكرًا لاستكشاف سلوك نماذج الرؤية-اللغة الكبيرة في أوقات عدم اليقين. حيث تمت معالجة التحديات المرتبطة بالاجابات المتعارضة وعدم كفاية البيانات بشكل متقدم، مما يعزز دقة تقييم هذه النماذج.

في عالم الذكاء الاصطناعي، نجحت نماذج الرؤية-اللغة الكبيرة (Large Vision-Language Models) في تغيير قواعد اللعبة من خلال قدرتها على الإجابة عن الأسئلة المعقدة متعددة الوسائط. ومع ذلك، تظهر مجموعة من التحديات، خاصة تلك المرتبطة بالتعارض بين الأدلة البصرية والنصية. في ضوء ذلك، قدمت الأبحاث الأخيرة خطوات جديدة تعزز من فهم سلوكيات هذه النماذج، عبر معالجة قضايا الانحراف (deflection) والإجابات الغير كافية خلال أوقات المخاطر.

الأبحاث تركزت على ثغرات معينة في التقييمات التقليدية، حيث غالبًا ما تتجاهل التقييمات الحالية الصعوبات الناتجة عن الأدلة المتعارضة، وضرورة توليد استجابات مثل "عذرًا، لا أستطيع الإجابة..." عند عدم كفاية المعرفة المسترجعة.

كما تم طرح نظام ديناميكي لجمع البيانات يسهم في الحفاظ على تحديات المعايير على مر الزمن من خلال تصفية العينات التي تعتمد فعليًا على الاسترجاع. وبالاستناد إلى ما يقارب 2775 عينة، أُطلق معيار VLM-DeflectionBench، والذي يهدف لاستكشاف سلوك النموذج في أوقات الأدلة المتعارضة أو غير الكافية.

التجارب جرت على 20 نموذجًا متقدمًا، حيث أظهرت النتائج أن النماذج غالبًا ما تفشل في تقديم استجابات واضحة في البيئات ذات الأدلة المضللة أو الضوضاء. وأوضحت النتائج أهمية تقييم ليس فقط ما تعرفه النماذج، ولكن كيف تتفاعل عندما تواجه حالات عدم اليقين.

كل الموارد المتعلقة بهذه الأبحاث ستتوفر للجمهور بمجرد نشرها، مما يعزز من إمكانية الاستفادة منها في تحقيق تقييم موثوق للتطبيقات القائمة على المعرفة.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة