واقعة تهز مجتمع الباحثين.. أسوأ انتهاك لأخلاقيات البحث عبر الإنترنت

في خطوة وصفها خبراء بأنها “انتهاك غير مسبوق للأخلاقيات البحثية”، أثارت تجربة سرية أجراها باحثون من جامعة زيورخ غضباً واسعاً داخل أحد أشهر مجتمعات Reddit، بعد أن تبين أن الباحثين قاموا بنشر أكثر من ألف تعليق مكتوب بـ الذكاء الاصطناعي، زاعمين أنها صادرة عن مستخدمين حقيقيين، بهدف دراسة مدى قدرة هذه الأدوات على التأثير في آراء البشر.
غضب المستخدمين وانهيار الثقة
حدثت الواقعة في منتدى r/changemyview، وهو مجتمع شهير على Reddit مخصص للنقاشات الجادة حول قضايا اجتماعية وسياسية متنوعة. لكن حين اكتشف الأعضاء أنهم كانوا، دون علمهم، جزءًا من تجربة علمية سرية، عبّروا عن غضبهم بعبارات مثل “انتهاك”، “مخزي”، “يثير الغضب”، و”مقلق للغاية”.
وتوالت ردود الفعل الغاضبة لتشمل باحثين وخبراء في الإنترنت، وصف بعضهم التجربة بأنها الأسوأ في تاريخ أبحاث الإنترنت من حيث خرق المبادئ الأخلاقية.
البروفيسورة إيمي بروكمان من معهد جورجيا للتكنولوجيا، قالت لموقع The Atlantic: “هذه أسوأ حالة انتهاك لأخلاقيات البحث على الإنترنت رأيتها في حياتي، بلا منازع”.
التجربة السرية وتأثير الذكاء الاصطناعي
خلال أربعة أشهر، نشر الباحثون أكثر من ألف تعليق تمت كتابته باستخدام نماذج لغة ذكاء اصطناعي، وركزت المواضيع على قضايا مثل الكلاب من نوع بيتبول، أزمة السكن، وبرامج التنوع والشمول (DEI).
كانت بعض التعليقات مثيرة للجدل، حيث دافعت عن نظريات مؤامرة حول 11 سبتمبر، أو وصفت تصفح Reddit بأنه مضيعة للوقت. وتم تعزيز هذه الرسائل بقصص شخصية وهمية مثل: “أنا مستشار صدمات”، أو “أنا ضحية اغتصاب قانوني”.
الهدف من الدراسة، بحسب الباحثين، كان اختبار مدى قدرة التعليقات المولدة آليًا والمخصصة بحسب بيانات المستخدمين (كالعمر والجنس والانتماء السياسي المستنتج من منشوراتهم) على تغيير آرائهم.
وتُظهر النتائج الأولية أن هذه التعليقات كانت فعالة أكثر من معظم تعليقات المستخدمين الحقيقيين، إذ حصدت معدلات تصويت أعلى بكثير.
انكشاف الأمر والرفض الجماعي
بعد انتهاء التجربة، تواصل الباحثون مع مشرفي المنتدى لكشف هويتهم وطلبوا “مصارحة المجتمع”، أي إبلاغ الأعضاء أنهم كانوا جزءًا من تجربة علمية سرية. لكن المشرفين، ومنهم مستخدم يحمل اسم “LucidLeviathan”، رفضوا الأمر وطالبوا باعتذار علني وعدم نشر نتائج الدراسة. إلا أن الباحثين رفضوا الاعتذار أو التخلي عن نشر نتائجهم.
أبلغ المشرفون جامعة زيورخ بالأمر، والتي ردّت بأن “المشروع يقدم رؤى مهمة والمخاطر المحتملة، مثل الصدمة النفسية، ضئيلة”.
وأضافت الجامعة في بيان صحفي أنها أبلغت الباحثين مسبقًا بضرورة الالتزام بقواعد المنتدى، وتعتزم “تشديد عملية مراجعة الأبحاث” في المستقبل.
تبرير الباحثين ودور الخداع
في دفاعهم عن أنفسهم، كتب الباحثون في تعليق على Reddit أن “الخداع كان جزءًا ضروريًا من تصميم التجربة”، مبررين ذلك بأن كشف التجربة مسبقًا كان سيقوّض نتائجها.
وأضافوا: “لا يمكن اختبار قدرة النماذج اللغوية الكبيرة على الإقناع في سيناريوهات واقعية دون استخدام الخداع”، خاصة وأن الواقع مليء بجهات خبيثة غير معلنة تستخدم الذكاء الاصطناعي للتلاعب بالمجتمعات الرقمية.
كما أشاروا إلى أن كل تعليق تم مراجعته من قبل عضو بشري قبل نشره، وأنهم حرصوا على عدم الترويج لأي محتوى ضار أو مسيء.
انعكاسات أوسع وخوف من المستقبل
لا يقتصر الجدل حول هذه التجربة على Reddit وحده، بل أثار نقاشات أوسع حول أخلاقيات أبحاث الذكاء الاصطناعي، وخاصة في ظل تجارب سابقة مثيرة للجدل مثل تجربة “عدوى المشاعر” الشهيرة التي أجرتها فيسبوك عام 2012.
لكن، بحسب الدكتورة كيسي فايسلر من جامعة كولورادو، فإن تجربة زيورخ أكثر خطورة، لأن التأثير هنا “شخصي وعميق”، ويضرب في صميم الثقة المتبادلة بين أعضاء المجتمع الرقمي.
وفي ظل التقارير التي تفيد بأن تعليقات ChatGPT وغيرها من الأدوات قادرة على إنتاج معلومات مضللة أكثر إقناعًا من البشر، ونجاحها في تغيير معتقدات مؤيدين لنظريات المؤامرة بعد ثلاث محادثات فقط، فإن التحدي بات واضحًا، حيث كيف نرصد ونميز الذكاء الاصطناعي المتخفي في النقاشات العامة؟
حتى الآن، لا توجد أدوات فعالة قادرة على كشف تعليقات الذكاء الاصطناعي بدقة عالية، مما يجعل بعض الباحثين يحذرون من أن هذه “البوتات” قد تكون بالفعل اندمجت بسلاسة داخل المجتمعات الرقمية دون أن يشعر أحد.
نقلا عن صدي البلد