في تطور تقني مثير، تم طرح نظام جديد يُعرف باسم **CREDENCE**، والذي يمثل نقلة نوعية في الطريقة التي نفهم بها **عدم اليقين** في نماذج الحواسيب. تعتمد نماذج **Concept Bottleneck Models (CBMs)** على مفاهيم يمكن للبشر فهمها، ولكنها كانت تخفق في عرض توقعات دقيقة بخصوص عدم اليقين، حيث كانت تدمج بين نوعين مختلفين: **عدم اليقين المعرفي** (epistemic uncertainty) و**عدم اليقين الضبابي** (aleatoric uncertainty).
هذه العملية قد تجعل من الصعب تفسير عدم اليقين على مستوى المفاهيم، مما يؤدي إلى صعوبة في اتخاذ القرارات الحاسمة. الأمر المثير هو أن CREDENCE يهدف لحل هذه المشكلة عن طريق تفكيك عدم اليقين منذ البداية. فما هي التفاصيل؟
ما هو CREDENCE؟
CREDENCE هو إطار عمل جديد لــ CBMs يقوم بتمثيل كل مفهوم كمجموعة من التوقعات الاحتمالية، مما يسمح باسماء جديدة لتفصيل عدم اليقين. وهكذا، يُمكن للذكاء الاصطناعي الاستفادة من عدم اليقين المعرفي من خلال قياس التباين الناتج عن الخلافات بين رؤوس المفاهيم المتنوعة.
كيف يعمل؟
1. **توقعات Credal**: يتم تحويل كل مفهوم إلى تنبؤات مشروطة، مما يوفر نطاقًا من الاحتمالات بدلاً من نقاط مفردة.
2. **تقدير عدم اليقين**: يتطلب هذا النظام مشغل خفي يعمل على مطابقة الخلافات بين الملاحظات.
3. **القرارات الذكية**: يتيح CREDENCE اتخاذ قرارات مدروسة، مثل:
- أتمتة الحالات ذات اليقين المنخفض.
- جمع البيانات بشكل أولوية للحالات ذات اليقين المعرفي العالي.
- توجيه الحالات ذات عدم اليقين الضبابي العالي لمراجعة البشر.
- الامتناع عن اتخاذ قرارات عندما يكون كلا النوعين عاليين.
ماذا بعد؟
أظهرت النتائج أن عدم اليقين المعرفي يرتبط ارتباطًا إيجابيًا بأخطاء التنبؤ، في حين أن عدم اليقين الضبابي يتتبع بدقة خلافات الملاحظات. ويعطي CREDENCE بذلك إشارات تفصيلية لدعم اتخاذ القرارات.
هل تعتقد أن هذه الخطوة ستُحدث تغييرات جذرية في كيفية التعامل مع عدم اليقين في الذكاء الاصطناعي؟
