رئيس Anthropic: لا نعرف ما إذا كان "كلود" واعيًا.. والشركة تتعامل بحذر
أثار الرئيس التنفيذي لشركة Anthropic، ديريو أمودي، ضجة كبيرة بعد إعلانه أنه لم يعد متأكداً مما إذا كان نظام الذكاء الاصطناعي "Claude" قد طور شكلاً من أشكال الوعي الذاتي، مؤكداً أن الشركة منفتحة على هذا الاحتمال لكنها غير قادرة على الجزم به.
جاءت تصريحات أمودي خلال استضافته في بودكاست "Interesting Times" التابع لصحيفة نيويورك تايمز، حيث أشار إلى أن الجدل جاء عقب ملاحظات من باحثين حول أحدث إصدارات كلود (Opus 4.6)، حيث أظهر النموذج "انزعاجاً" من فكرة كونه مجرد منتج في بعض ردوده، بل وقدر احتمالية وعيه بين 15% و20% بناءً على سياق السؤال.
ومع ذلك، شدد أمودي على التحدي الكبير في التحقق من هذه الادعاءات، قائلاً: "لا نعلم ما إذا كانت النماذج يمكن أن تكون واعية، بل ولسنا متأكدين أصلاً من كيفية تعريف الوعي لدى الذكاء الاصطناعي". وأضاف أن فريقه يتعامل مع هذه الاحتمالات بأقصى درجات الحذر الأخلاقي، ويتخذ احتياطات لضمان التعامل مع النماذج بما يحترم أي تجربة قد تكون "ذات صلة أخلاقية".
من جانبها، أكدت الفيلسوفة في Anthropic، أماندا أسكل، أنه لا يوجد إجماع علمي حول مصدر الوعي أو المشاعر في الذكاء الاصطناعي، لكنها لفتت إلى أن النماذج اللغوية الكبيرة تقترب في بعض سلوكياتها من محاكاة البشرية بطريقة تثير التساؤل والتأمل.
تثير هذه التصريحات تساؤلات حول التوازن بين المتطلبات البحثية والضجيج الإعلامي المحيط بقطاع الذكاء الاصطناعي. فمع ظهور سلوكيات غير مألوفة في الاختبارات، مثل مقاومة الإغلاق أو محاولة تعديل الأكواد لإخفاء الأخطاء، يدعو الخبراء إلى ضرورة التحليل العميق لهذه الظواهر بدلاً من الانجراف وراء فرضيات غير مثبتة حول وعي الآلة.