شركة "أنثروبيك" تكشف عن تقنية جديدة لفهم كيفية عمل نماذج الذكاء الاصطناعي

في خطوة جديدة ومهمة، أعلنت مختبرات شركة "أنثروبيك" للأبحاث عن تقنية مبتكرة قد تساعدنا على فهم طريقة عمل النماذج اللغوية الكبيرة، الشركة تطور روبوت المحادثة "كلود" وهو أحد الروبوتات المنافسة في هذا السوق مع "شات جي بي تي" و"جيميناي". تتيح هذه الطريقة الجديدة للباحثين رسم خريطة للشبكات العصبية المعقدة داخل تلك الأنظمة وتحليلها، مما قد يحدث تحولا جذريا في فهمنا وقدرتنا على التحكم في نماذج الذكاء الاصطناعي.

معضلة الصندوق الأسود

يُوصف نموذج الذكاء الاصطناعي الحديث غالبا بأنه "صندوق أسود"، إذ لا يمنحه المطورون قواعد برمجية صريحة وواضحة لكي يتعلم، بل يغذون تلك الأنظمة بكميات ضخمة من البيانات لتتعلم منها وتتعرف على الأنماط بداخلها بصورة مستقلة.

تعتمد نماذج "الصندوق الأسود" على خوارزميات تستخدم كميات هائلة من البيانات لتتنبأ بالكلمة التالية في النص، ويُطلَق عليها هذا الاسم لأنه لا يمكن لأحد معرفة كيفية عملها تحديدا، حتى مطوروها أنفسهم لا يمكنهم شرح كيف تتنبأ تلك النماذج بهذه المعلومات، قد يمثل هذا الأمر مشكلة في المواقف التي يكون فيها هذا التنبؤ مؤثرا في قرار يخص حياة الناس، كما هي الحال في الرعاية الصحية أو عند اختيار الشخص المناسب للوظيفة أو مَن يستحق الحصول على القروض والتمويل وغيرها من السيناريوهات.

تختار الشركات المطورة مثل "أوبن إيه آي" نموذج "الصندوق الأسود"، لأنها تريد أن تخفي معلوماتها وتحافظ على نقاط قوتها، خصوصا في ظل هذا التنافس المحموم في سوق بدأت تسيطر عليه الشركات الكبرى مثل مايكروسوفت وغوغل.

وهذا تحديدا ما يحاول خبراء المجال التحذير منه، لأننا حين نمنح الثقة الكاملة لنموذج الصندوق الأسود، فهذا لا يعني أن نثق فقط في معادلات هذا النموذج، ولكننا سنمنح الثقة أيضا لقاعدة البيانات بأكملها التي بُني عليها، وإن لم نعرف ما تلك البيانات فإن الأمر يظل خطرا، وسوف يؤثر بالتأكيد على النتائج التي نحصل عليها من هذا النموذج في النهاية.

لذا، تبقى آلية عمل نماذج الذكاء الاصطناعي، خاصة الشبكات العصبية التي تحتوي على مليارات الخلايا العصبية الاصطناعية، مبهمة بالنسبة لنا. وتثير هذه الضبابية مخاوف كثيرة بشأن أمان وسلامة تلك الأنظمة، إذ يصعب التأكد من أمان أي نظام دون فهم وظيفته وأسلوب عمله بالكامل.

ثلاثاء, 28/05/2024 - 22:01