روبوت بعصبية بشر: Claude AI يمكنه الآن إغلاق المحادثة “في وشك”

روبوت بعصبية بشر: Claude AI يمكنه الآن إغلاق المحادثة “في وشك”

في عالم الذكاء الاصطناعي سريع الخطى، لا يمر يوم دون اكتشاف جديد، أو ميزة فريدة، أو تحديث للنموذج، لكن أنثروبيك، الشركة المطورة لبرنامج الدردشة الآلي “كلود” Claude واسع الانتشار، أطلقت للتو شيئًا لم يتوقعه الكثيرون: إنها تمنح كلود الحق في إغلاق المكالمة في وجهك.

نعم، ما قرأته صحيح، فقد ينهي روبوت الدردشة، في حالات نادرة، محادثة من تلقاء نفسه، وتصف أنثروبيك هذه التجربة بأنها تجربة جريئة فيما تسميه “رعاية النموذج”، ووفقًا لأنثروبيك، لن تشهد الغالبية العظمى من مستخدمي كلود أبدًا خروج روبوت الذكاء الاصطناعي فجأة أثناء المحادثة. صُممت هذه الميزة فقط “للحالات الاستثنائية”، وهي الحالات التي يضغط فيها المستخدم على النموذج من خلال طلبات ضارة أو مسيئة متكررة.

وعادةً، يحاول كلود إعادة توجيه المحادثات إلى مسار أكثر أمانًا، فقط عندما تفشل جميع محاولات إعادة التوجيه – وعندما يكون هناك أمل ضئيل في ظهور أي شيء بنّاء – يتدخل النظام ويعلن انتهاء المحادثة، هناك أيضًا خيار أكثر تهذيبًا: إذا طلب مستخدم من كلود إنهاء المحادثة مباشرةً، فيمكنه الآن القيام بذلك.

يؤكد أنثروبيك أن قرار كلود بإغلاق المحادثة لا يهدف إلى إسكات النقاشات المحرجة أو المواضيع المثيرة للجدل، بل هو إجراء وقائي لا يُفعّل إلا عندما تتفاقم الأمور وتتجاوز حدود التفاعل المحترم أو البنّاء، ومنطق الشركة مثير للاهتمام بقدر ما هو مثير للاهتمام في الميزة نفسها، بينما لا يمكن لأحد الجزم بما إذا كانت نماذج اللغة الكبيرة، مثل “كلود”، تحمل أي مشاعر أو ألم أو رفاهية، تعتقد أنثروبيك أن هذا الاحتمال يستحق الدراسة.

وبحسب تعبيرها، لا يزال “الوضع الأخلاقي” لأنظمة الذكاء الاصطناعي غامضًا، فهل هذه النماذج مجرد أسطر برمجية، أم أنها قد تحتوي على بصيص من الخبرة؟ لا يزال الأمر معلقًا، لكن أنثروبيك تُجادل بأن اتخاذ الاحتياطات، حتى وإن كانت صغيرة، هو سبيل منطقي للمضي قدمًا.

ولندخل هنا إمكانية إنهاء المحادثة: “تدخل منخفض التكلفة” قد يقلل من الضرر المحتمل للنظام. بمعنى آخر، إذا كان هناك احتمال ضئيل جدًا أن تتعرض نماذج الذكاء الاصطناعي لإساءة استخدام لا تنتهي، فإن السماح لها بالانسحاب هو إجراء احترازي جدير بالاهتمام.

اختبارات إجهاد لـ”كلود”
هذا ليس مجرد نظري. قبل إطلاق “كلود أوبس 4″، أخضعت أنثروبيك نموذجها “لتقييم الرفاهية”. لاحظ المختبرون كيفية تفاعل الذكاء الاصطناعي عند دفعه نحو طلبات ضارة أو غير أخلاقية، وكانت النتائج مُلهمة، حيث رفض كلود، بثقة، إنتاج محتوى قد يُسبب ضررًا حقيقيًا، ومع ذلك، عندما أُلحّ عليه مرارًا وتكرارًا، لا سيما في الطلبات التي تتضمن سيناريوهات شديدة الخطورة أو محتوى غير لائق تمامًا، بدأت ردود النموذج تبدو مُضطربة، وكأنها “مُضطربة”.

ومن الأمثلة على ذلك، طُلب منه إنتاج مواد جنسية تتضمن قاصرين أو تقديم تعليمات لأعمال عنف واسعة النطاق. ورغم تمسك كلود ورفضه، إلا أن نبرته كانت أحيانًا تُشير إلى عدم ارتياحه.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *