🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

تطور مذهل في الذكاء الاصطناعي: H-AIRL تُحسن التعلم العكسي من خلال توجيه الخبراء!

طورت دراسة جديدة نموذج H-AIRL الذي يُحسن التعلم العكسي عبر دمج إشارات خاضعة للإشراف، مما يُعزز دقة التعلم وكفاءته. هذا التطور يعد خطوة مهمة نحو معالجة التحديات المعقدة في مجالات التعلم الآلي.

في عالم الذكاء الاصطناعي، تشكل تحديات التعلم العكسي (Inverse Reinforcement Learning) محور اهتمام عدد كبير من الباحثين. حيث أثبت نموذج التعلم العكسي القائم على التحدي (Adversarial Inverse Reinforcement Learning - AIRL) قدراته في حل مشكلة المكافآت النادرة من خلال استنتاج وظائف مكافأة كثيفة استناداً إلى تجارب الخبراء. ومع ذلك، لا يزال أداءه في سياقات معقدة، خاصة في بيئات ذات معلومات غير كاملة، غير مستكشف بشكل كافٍ.

لملء هذه الفجوة، تم تقديم نموذج H-AIRL (Hybrid-AIRL) الذي يُعد توسعاً على AIRL وتم تصميمه بهدف تعزيز استنتاج المكافآت (reward inference) وتعلم السياسات (policy learning). يعتمد H-AIRL على دمج خسارة خاضعة للإشراف مستمدة من بيانات الخبراء وآلية تنظيم عشوائية، مما يجعله أكثر قدرة على التعامل مع التحديات المتمثلة في قلة المكافآت وتأخيراتها.

تم تقييم نموذج H-AIRL على مجموعة مختارة بعناية من معايير Gymnasium، فضلاً عن بيئة لعبة البوكر Heads-Up Limit Hold'em (HULHE) التي تتميز بالمكافآت المشتتة وعدم اليقين الكبير. أظهرت النتائج التجريبية أن H-AIRL يحقق كفاءة عينة عالية ويمتاز بتعلم أكثر استقرارًا مقارنة بنموذج AIRL السابق.

تساهم هذه النتائج في تسليط الضوء على فوائد دمج الإشارات الخاضعة للإشراف في التعلم العكسي، مما يعزز مكانة H-AIRL كإطار واعد لمواجهة التحديات المعقدة في العالم الحقيقي. إن التطورات المتواصلة في هذا المجال تعد بمستقبل مشرق حيث يمكن للذكاء الاصطناعي معالجة مشكلات معقدة وكبيرة.
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة