
في كشف جديد قد يضع الكثير من اللغط الدائر حالياً حول استخدام الذكاء الاصطناعى في تزييف فيديوهات للأشخاص والأحداث لتحديد المقاطع المتلاعب بها بدقة عالية وهو ما اعتبرته دورية ” نيو ساينتيست” العلمية المتخصصة في تقرير لمحررها العلمي “جيريمي هسو” كشفاً عالميا بأفضل دقة حتى الآن في اكتشاف أنواع متعددة من مقاطع الفيديو المُتلاعب بها أو المُولّدة بالكامل بواسطة الذكاء الاصطناعي.
ويقول التقرير:إن هذه التقنية قد تُساعد في الكشف عن مقاطع إباحية مُولّدة بواسطة الذكاء الاصطناعي دون موافقة اصحابها، أو عمليات احتيال التزييف العميق، أو مقاطع فيديو مُضلّلة انتخابيًا.
ويضيف التقرير أن انتشار أدوات إنشاء مقاطع التزييف العميق الرخيصة المدعومة بالذكاء الاصطناعي على نطاق واسع أدى إلى انتشار مقاطع الفيديو المُصنّعة بشكل خارج عن السيطرة على الإنترنت. يُصوّر العديد منها نساءً – بمن فيهن مشهورات – وحتى طالبات مدارس – في مقاطع إباحية دون موافقتهن. كما استُخدمت مقاطع التزييف العميق للتأثير على الانتخابات السياسية، ولدعم عمليات الاحتيال المالي التي تستهدف المستهلكين العاديين والمديرين التنفيذيين للشركات. لكن معظم نماذج الذكاء الاصطناعي المُدرَّبة على اكتشاف الفيديوهات المُركَّبة تُركِّز على الوجوه، مما يعني أنها أكثر فعالية في اكتشاف نوع مُحدَّد من التزييف العميق، حيث يُبدَّل وجه شخص حقيقي في فيديو موجود.يقول روهيت كوندو من جامعة كاليفورنيا، ريفرسايد: “نحتاج إلى نموذج واحد قادر على اكتشاف الفيديوهات المُعَالَجة بالوجوه، بالإضافة إلى الفيديوهات المُعَالَجة بالخلفية أو المُعَالَجة بالكامل. يستطيع الكاشف اكتشاف التناقضات في ظروف الإضاءة أو تفاصيل الخلفية في فيديوهات التزييف العميق”. وقد درَّب كوندو وزملاؤه كاشفهم الشامل المُدعَّم بالذكاء الاصطناعي على مراقبة عناصر خلفية مُتعدِّدة لمقاطع الفيديو، بالإضافة إلى وجوه الأشخاص. ويمكنه اكتشاف علامات دقيقة على التناقضات المكانية والزمانية في فيديوهات التزييف العميق. نتيجةً لذلك، يُمكنه اكتشاف ظروف الإضاءة غير المتناسقة للأشخاص الذين أُدرجوا اصطناعيًا في مقاطع فيديو تبديل الوجوه، والتناقضات في تفاصيل الخلفية في مقاطع الفيديو المُولّدة بالكامل بواسطة الذكاء الاصطناعي، وحتى علامات التلاعب بالذكاء الاصطناعي في مقاطع الفيديو المُولّدة التي لا تحتوي على أي وجوه بشرية. كما يُحدّد الكاشف مشاهد واقعية من ألعاب الفيديو، والتي ليست بالضرورة مُولّدة بواسطة الذكاء الاصطناعي، ولكن يُمكن استخدامها في حملات التضليل.
يقول سيوي ليو من جامعة بافالو في نيويورك: “تتعامل معظم الطرق الحالية مع مقاطع فيديو الوجوه المُولّدة بواسطة الذكاء الاصطناعي – مثل مقاطع تبديل الوجوه، ومقاطع فيديو مزامنة الشفاه، أو إعادة تمثيل الوجوه التي تُحرّك وجهًا من صورة واحدة”. “لهذه الطريقة نطاق تطبيق أوسع”. حقق الأداة الجديدة دقةً تتراوح بين 95% و99% في تحديد أربع مجموعات من مقاطع فيديو اختبارية تتضمن مقاطع فيديو مزيفة مُعدّلة بالوجه (arXiv، doi.org/g9t9jb). وهذا أفضل من جميع الطرق الأخرى المنشورة للكشف عن هذا النوع من مقاطع الفيديو المزيفة.
وشارك العديد من باحثي جوجل أيضًا في تطوير الأداة. لم تُجب جوجل على أسئلة حول ما إذا كانت طريقة الكشف هذه تُساعد في اكتشاف مقاطع الفيديو المزيفة على منصاتها، مثل يوتيوب. لكن الشركة من بين الشركات التي تدعم أداة وضع العلامات المائية التي تُسهّل تحديد المحتوى الذي تُنتجه أنظمة الذكاء الاصطناعي الخاصة بها.
يمكن أيضًا تحسين الأداة الجديدة في المستقبل. على سبيل المثال، سيكون من المفيد أن يتمكن التطبيق من اكتشاف عمليات التزييف العميق التي يتم نشرها أثناء مكالمات مؤتمرات الفيديو المباشرة، وهي خدعة بدأ بعض المحتالين في استخدامها بالفعل.