🔬 أبحاث1 دقائق للقراءة👁 0 مشاهدة

A-IO: أوركسترا الاستدلال القابلة للتكيف لحل تحديات الذاكرة في NPUs

تكشف الأبحاث الجديدة عن كيفية تحسين استدلال نماذج اللغة الكبيرة (LLMs) على منصات وحدة معالجة الشبكة العصبية (NPU) من خلال أوركسترا الاستدلال القابلة للتكيف. تواجه مرحلة فك التشفير تحديات كبيرة في الذاكرة، مما يستدعي حلولاً مبتكرة.

في عالم الذكاء الاصطناعي، تُعتبر نماذج اللغة الكبيرة (Large Language Models - LLMs) من الركائز الأساسية التي تدعم العديد من التطبيقات الحديثة. لكن، عند نشر هذه النماذج على منصات وحدة معالجة الشبكة العصبية (NPU) مثل Ascend 910B، تظهر تحديات كبيرة تتعلق بالذاكرة.

تكشف الدراسة الجديدة عن معضلة تُعرف باسم "بارادوكس حجم النموذج"، والتي تعزى إلى النشر الثابت لنماذج ذات حجم واحد. في هذا السياق، يواجه المطورون مشكلات تتعلق بتزامن النواة، خاصة أثناء مرحلة فك الشيفرة التلقائية في الظروف المتغايرة.

تظهر دراسة أخرى أن الاعتماد فقط على خوارزميات تسريع صغيرة مثل "فك تشفير البحث عن المحفزات (Prompt LookUp Decoding - PLD)" ليست كافية لتحسين الأداء بشكل ملموس. تطرق الباحثون إلى أهمية أوركسترا الاستدلال القابلة للتكيف (Adaptive Inference Orchestration - A-IO) كحل مبتكر لمواجهة هذه التحديات.

من خلال هذه الحلول المبتكرة، يمكن تحسين أداء نماذج الذكاء الاصطناعي بشكل كبير، مما يسهم في تطوير التطبيقات المستقبلية بطريقة أكثر فعالية وكفاءة. هل ترون أن A-IO ستكون المصعد الذي يحتاجه الذكاء الاصطناعي في عصر الأنظمة المعقدة؟
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة