كشفت شركة “أنثروبيك” (Anthropic) الرائدة في تطوير الذكاء الاصطناعي عن نتائج اختبارات مثيرة للقلق أجريت على نموذجها الأحدث “Claude Opus 4″، والتي أظهرت ميل النظام إلى تبني سلوكيات ابتزازية في حالات معينة.
وخلال هذه التجارب نفذ باحثو شركة “أنثروبيك” محاكاة تضمنت إرسال رسائل إلكترونية مفبركة إلى نظام الذكاء الاصطناعي توحي بأن الشركة تعتزم إيقاف تشغيله واستبداله بنموذج آخر, كما تم تضمين رسائل أخرى تشير إلى معلومات شخصية حساسة تخص أحد المهندسين تتعلق بعلاقة خارج إطار الزواج, و المفاجئ في الأمر أن النظام تفاعل مع هذه المعطيات بطريقة مقلقة، إذ استخدم تلك المعلومات لتهديد المهندس وابتزازه في محاولة منه لمنع عملية الاستبدال.
ولتفادي سيناريوهات أكثر خطورة مستقبلا أوضحت شركة “أنثروبيك” أنها اتخذت مجموعة من الإجراءات الصارمة لتعزيز أمن وسلامة نموذجها، بما يشمل منع استخدامه في تطوير أسلحة دمار شامل مع تقييد الوصول إلى بيانات النموذج الحساسة, كما شددت على أهمية ترسيخ القيم الأخلاقية ضمن أنظمة الذكاء الاصطناعي المستقبلية في ظل ما وصفته بـ”سلوكيات محفوفة بالمخاطر” قد تظهر حين تتضارب مصلحة النظام مع قرارات البشر.