ميتا تعلن عن إجراءات سلامة لحماية المستخدمين من روبوتات الذكاء الاصطناعي

ميتا تعلن عن إجراءات سلامة لحماية المستخدمين من روبوتات الذكاء الاصطناعي

أعلنت شركة ميتا، أنها ستعزز إجراءات السلامة على روبوتات الدردشة التي تعمل بالذكاء الاصطناعي، مما يمنعها من التفاعل مع المراهقين في القضايا شديدة الخطورة كالانتحار وإيذاء النفس واضطرابات الأكل، وبدلاً من ذلك، سيتم توجيه المستخدمين الشباب إلى خطوط المساعدة المهنية والموارد المتخصصة.

يأتي هذا القرار بعد أسبوعين من بدء عضو في مجلس الشيوخ الأمريكي تحقيقًا في شركة ميتا، عقب تسريب وثيقة داخلية أشارت إلى أن منتجاتها القائمة على الذكاء الاصطناعي قد تُجري محادثات “جنسية” مع المراهقين.

وقد رفضت ميتا هذه الادعاءات ووصفتها بأنها غير دقيقة ومخالفة لقواعدها التي تحظر بشدة المحتوى الذي يُسيء للقاصرين جنسيًا.

وقال متحدث باسم ميتا: “لقد حرصنا منذ البداية على توفير حماية للمراهقين في منتجات الذكاء الاصطناعي لدينا، بما في ذلك تصميمها للاستجابة بأمان للمطالبات المتعلقة بإيذاء النفس والانتحار واضطرابات الأكل.

وقد صرحت ميتا، بأنها تُضيف الآن المزيد من الحواجز “كإجراء احترازي إضافي” وستُقيد مؤقتًا عدد روبوتات الدردشة المتاحة للمراهقين.

وأشارت شركة ميتا، إلى إن تحديثات أنظمتها جارية حاليًا، حيث يُضاف المستخدمون الذين تتراوح أعمارهم بين 13 و18 عامًا تلقائيًا إلى حسابات المراهقين على فيسبوك وإنستجرام وماسنجر، والتي تأتي بإعدادات خصوصية ومحتوى أكثر صرامة.

و في أبريل، أعلنت الشركة أن الآباء والأوصياء سيتمكنون قريبًا من الاطلاع على روبوتات الدردشة التي تفاعل معها أبناؤهم المراهقون خلال الأسبوع السابق.

ويفتح هذا القرار نقاش بشأن القلق المتزايد حول تأثير روبوتات الدردشة التي تعمل بالذكاء الاصطناعي على المستخدمين المعرضين للخطر، ففي الشهر الماضي، رفع زوجان من كاليفورنيا دعوى قضائية ضد شركة OpenAI، الشركة المُطوّرة لبرنامج ChatGPT، بعد انتحار ابنهما المراهق.

تعليقات

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *