
مع التسارع الكبير فى تطوير تقنيات الذكاء الاصطناعي، تزداد المخاوف بشأن المخاطر التي قد تترتب على سوء استخدامه، وفي هذا السياق، أثار سام ألتمان، الرئيس التنفيذي لشركة OpenAI، جدلًا واسعًا بتصريحات جريئة أطلقها مؤخرًا حول التهديدات المحتملة لهذه التكنولوجيا، وفي مقدمتها إمكانية توظيفها في هندسة جائحة بيولوجية تشبه جائحة كوفيد-19 التي اجتاحت العالم في أواخر عام 2019.
جاء ذلك خلال حوار مطوّل أجراه ألتمان مع الإعلامي الأمريكي تاكر كارلسون في برنامجه “ذا تاكر كارلسون شو”، حيث تطرق إلى عدة محاور مثيرة للجدل، من بينها مخاطر الخصوصية، وملابسات الوفاة الغامضة لموظف سابق بالشركة يُدعى سوشير بالاجي، إضافة إلى ما قد يسببه الذكاء الاصطناعي من تهديدات لسوق العمل وتغيير في أنماط وسلوكيات البشر.
وخلال المقابلة كشف ألتمان أن أنظمة الذكاء الاصطناعي، مثل ChatGPT، أصبحت على درجة عالية من الإتقان في مجال علم الأحياء، إلى الحد الذي قد يسمح – حال إساءة استخدامها – بابتكار وباء جديد.
وأوضح قائلًا: “لقد بات الذكاء الاصطناعي مُتقنًا للغاية في علم الأحياء، لدرجة تمكنه من هندسة جائحة شبيهة بجائحة كوفيد”.
وفي الوقت نفسه، أشار ألتمان إلى أن شركة OpenAI أخذت هذه المخاوف في الاعتبار عند إطلاقها نموذج GPT-5، حيث زُوّد بآليات أمان متطورة ونظام دفاعي متعدد الطبقات مخصص للتعامل مع التطبيقات البيولوجية، في محاولة لتقليل احتمالية استخدامه في أغراض ضارة.
لكن المخاوف لا تتوقف عند الجانب البيولوجي فقط، فقد حذّر ألتمان من التأثيرات الاجتماعية والثقافية لاستخدام روبوتات الدردشة، مثل ChatGPT، على السلوك البشري، وأوضح أن انتشار هذه الأدوات بين ملايين المستخدمين يؤدي إلى تغيرات دقيقة ولكن ملحوظة في أنماط الكتابة والتواصل.
وضرب مثالًا على ذلك بزيادة شائعة في استخدام الشرطات الطويلة (—) داخل النصوص المكتوبة، وهو ما يراه البعض مؤشرًا على أن المحتوى قد يكون مولّدًا بواسطة الذكاء الاصطناعي.
كما شدد على أن مثل هذه المظاهر الصغيرة تعكس قوة تأثير الذكاء الاصطناعي في تشكيل السلوك البشري، حتى وإن بدا الأمر في البداية مجرد تفصيلة بسيطة في أسلوب الكتابة، ومع مرور الوقت، قد تؤدي هذه التغيرات إلى أنماط جديدة من التفكير والتواصل، وربما إلى تحولات أعمق في الثقافة الإنسانية نفسها.