🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

ثورة في الذكاء الاصطناعي: تعلم سلاسل الأفكار لتوقع الكيانات والعلاقات في مخططات المعرفة!

يقدم نموذج RALP الجديد نهجاً مذهلاً لتوقع الكيانات والعلاقات في مخططات المعرفة، مما يعزز قدرة نماذج الذكاء الاصطناعي على التعلم من بيانات قليلة. بفضل أسلوبه الفريد، يمكنه تسجيل نقاط ثقة عالية في التوقعات.

في تقدمٍ مذهل في مجال الذكاء الاصطناعي، تم الكشف عن نموذج جديد يُعرف باسم RALP الذي يهدف إلى تحسين توقع الكيانات والعلاقات في مخططات المعرفة (Knowledge Graphs). عادةً ما تواجه نماذج تضمين مخططات المعرفة (Knowledge Graph Embedding) صعوبات عند التعامل مع الكيانات والعلاقات غير المرئية، مما يحد من استخدامها في الرسوم البيانية الديناميكية والمتنوعة.

تظهر قوة RALP من خلال إعادة صياغة مشكلة توقع الروابط لتصبح مشكلة تعلم السلاسل الآنية للأفكار (Chain of Thoughts) حيث يتعلم النموذج العبارات السلسلية المعنية كوظائف تسجيل نقاط للثلاثيات. يُعتمد على خوارزمية تحسين بايزي (Bayesian Optimization) عبر خوارزمية MIPRO لاستخراج العبارات الفعالة من أقل من 30 مثال تدريب دون الحاجة للوصول إلى التدرجات.

عند الاستدلال، يستطيع RALP توقع الكيانات والعلاقات المفقودة أو ثلاثيات كاملة، ويحدد درجات الثقة استنادًا إلى العبارات المتعلمة. وقد أظهر النموذج تحسنًا ملحوظًا في أداء نماذج KGE الحالية بأكثر من 5% في متوسط ترتيب الاسترجاع (Mean Reciprocal Rank) عبر عدة مجموعات بيانات، بالإضافة إلى تحسين القدرة على التعميم من خلال الاستنتاج عالي الجودة لثلاثيات جديدة.

في المهام المتعلقة باستنتاج OWL المعقدة، حقق RALP أكثر من 88% في تشابه جاكارد (Jaccard Similarity) والذي يُعد إنجازًا كبيرًا. هذه النتائج تؤكد على أن التفكير المستند إلى العبارات (Prompt-based reasoning) يمثل بديلاً مرنًا لأساليب تضمين البيانات التقليدية.

وبالإضافة إلى ذلك، فقد تم إصدار التنفيذ، التدريب، وخط أنابيب التقييم كمصدر مفتوح، مما يتيح للباحثين والمطورين إمكانية الاستفادة من هذا الإنجاز في مجالات متعددة. يمكنكم الاطلاع على هذا المشروع المبتكر عبر الرابط التالي: [RALP Implementation](https://github.com/dice-group/RALP).

ما رأيكم في هذا التطور الرائع! كيف تتوقعون أن يؤثر على مستقبل الذكاء الاصطناعي؟
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة