Runway تطلق نموذج فيديو جديد بالذكاء الاصطناعي يحافظ على تناسق المشاهد والشخصيات

أعلنت شركة Runway الناشئة في مجال الذكاء الاصطناعي عن إطلاق نموذجها الجديد Gen-4، والذي يهدف إلى تحسين استمرارية الشخصيات والمشاهد في الفيديوهات المُنشأة بالذكاء الاصطناعي، وهي مشكلة طالما عانت منها هذه التقنية في السابق
تحكم أكبر في الشخصيات والمشاهد
وفقًا لما نشرته الشركة على منصة X، فإن Gen-4 يمنح المستخدمين مزيدًا من التحكم والاستمرارية أثناء سرد القصص عبر مقاطع الفيديو، حيث يمكن للنموذج إنشاء شخصيات وعناصر متسقة عبر لقطات متعددة باستخدام صورة مرجعية واحدة فقط، وبعد ذلك يقوم المستخدم بوصف التركيبة المطلوبة ليقوم الذكاء الاصطناعي بتوليد المشاهد المختلفة بنفس الأسلوب والتناسق.
إطلاق تدريجي لمستخدمي الاشتراكات المدفوعة
حاليًا، يتم طرح Gen-4 تدريجيًا للمستخدمين من فئات الاشتراكات المدفوعة والمؤسسات، وقد استعرضت الشركة إمكانيات النموذج عبر فيديو يظهر امرأة تحافظ على شكلها في لقطات متعددة رغم اختلاف ظروف الإضاءة والمشاهد.
تطور سريع بعد Gen-3 Alpha
يأتي هذا الإطلاق بعد أقل من عام على إعلان Runway عن نموذجها السابق Gen-3 Alpha، الذي مكّن المستخدمين من إنشاء فيديوهات أطول، لكنه أثار الجدل بسبب تقارير تشير إلى أنه تم تدريبه على آلاف الفيديوهات من يوتيوب وأفلام مقرصنة.
بفضل Gen-4، تسعى Runway إلى تعزيز قدرة المبدعين على إنتاج فيديوهات أكثر واقعية ومتسقة، وهو ما يمثل تطورًا هامًا في عالم الذكاء الاصطناعي المرئي.
نقلا عن صدي البلد