اختراق جديد: AscendKernelGen يغير قواعد اللعبة في توليد النوى للمعالجات العصبية!
🔬 أبحاث2 دقائق للقراءة👁 0 مشاهدة

اختراق جديد: AscendKernelGen يغير قواعد اللعبة في توليد النوى للمعالجات العصبية!

أساليب جديدة لتحسين أداء المعالجات العصبية تلوح في الأفق مع AscendKernelGen، الذي يعد بإحداث ثورة في تطوير النوى المخصصة. تعرف على كيفية تجاوزه للعقبات التقليدية وكسر الحواجز في عالم الذكاء الاصطناعي.

في عصر الذكاء الاصطناعي المتقدم، تزايدت الحاجة إلى كفاءة حسابية قصوى، مما جعل المعالجات العصبية (Neural Processing Units) جزءًا لا يتجزأ من البنية التحتية الحديثة للذكاء الاصطناعي. لكن، لتحقيق أقصى استفادة من هذه التكنولوجيا، يلزم تطوير نوى حسابية عالية الأداء باستخدام لغات محددة النطاق (Domain-Specific Languages - DSLs) التي تتطلب خبرة عميقة في الأجهزة وتستغرق الكثير من الوقت والجهد.

فشلت النماذج اللغوية الكبيرة (Large Language Models - LLMs) في إنتاج نوى معقدة تعمل بشكل صحيح للمعالجات العصبية من نوع Ascend، حيث أظهرت دراستنا الأولية معدل نجاح قريب من الصفر. للحد من هذه الصعوبات، تم اقتراح AscendKernelGen، وهو إطار متكامل لتوليد وتقييم تطوير نوى المعالجات العصبية.

كما قدمنا Ascend-CoT، وهو مجموعة بيانات عالية الجودة تعتمد على المنطق المتسلسل المستمد من تنفيذ النوى في العالم الحقيقي، ونموذج KernelGen-LM الذي يناسب الاستعمال المخصص، حيث تم تدريبه من خلال تحسين مُشرف وتعلم تعزيز مع التغذية الراجعة من التنفيذ. علاوة على ذلك، قمنا بتصميم NPUKernelBench، وهو معيار شامل لتقييم الترجمة الصحيحة والأداء عبر مستويات تعقيد مختلفة.

أظهرت النتائج التجريبية أن هذا النهج يقلل بشكل كبير من الفجوة بين نماذج LLM العامة وبرمجة الأجهزة المحددة. على وجه الخصوص، تحسن معدل نجاح الترجمة للنوى المعقدة من 0% إلى 95.5% (Pass@10)، بينما حقق الأداء الوظيفي نسبة 64.3% مقارنة بالفشل التام للنموذج الأساسي. تؤكد هذه النتائج على الدور الحاسم للتفكير المخصص وتقييم الصرامة في أتمتة توليد التعليمات البرمجية المتوافقة مع المعالجات.

لمعرفة المزيد، يمكنك زيارة [رابط AscendKernelGen](https://huggingface.co/AscendKernelGen) و[رابط NPUKernelBench](https://github.com/weich97/NPUKernelBench). ما رأيكم في هذه التطورات المثيرة؟ شاركونا آرائكم في التعليقات!
المصدر:أركايف للذكاءاقرأ المصدر الأصلي ←
مشاركة:𝕏واتسابتيليجراملينكدإن

📰 أخبار ذات صلة