على شبكة الأنترنت نجد بالفعل مقاطع فيديو مفبركة، وقعت تحت طائلة التلاعب، لجعلها تبدو وكأن أشخاصًا قالوا أمورًا (أو تورّطوا في مشاهد فاضحة) لم يفعلوها قط. أما اليوم فقد باتت هناك فرصة لتصبح هذه المقاطع أكثر احترافية، بفضل بعض الأدوات الجديدة التي يدعمها الذكاء الاصطناعي.
فبدلاً من مجرد تحريك شفاه الأشخاص ووجوههم في الفيديو الأصلي، يمكن لنظام معزز بذكاء اصطناعي إنشاء مقاطع فيديو واقعية، يظهر فيها الناس وكأنهم يتحركون، ويديرون رؤوسهم، ويطرفون بأعينهم، ويرسمون على وجوههم تعابير مختلفة، وما سيحدث في الأساس أن كل ما يستطيع الشخص أداءه من أقوال أو أفعال في الفيديو المنتَج سيتحول إلى فيديو خاضع للتعديل.
ووفقًا للبحث -التي سيقدم في مؤتمر SIGGRAPH لصناعة أفلام الواقع الافتراضي في أغسطس- فقد أجرى الفريق عددًا من الاختبارات التي تقارن خوارزمية جديدة بالوسائل الحالية للتلاعب في مقاطع الفيديو والصور الفوتوغرافية الحيوية، والتي تم تطوير العديد منها جزئيًا على الأقل بواسطة Facebook وGoogle، إذ تفوق نظامهما على جميع الأنظمة الأخرى وبذل المشاركون مجهودًا جبارًا في تجربة لتحديد ما إذا كانت مقاطع الفيديو الناتجة حقيقيةً أم لا.
يأمل الباحثون -الذين تلقوا بعض التمويل من Google -أن يُستخدم عملهم لتحسين تكنولوجيا الواقع الافتراضي، ولأن نظام الذّكاء الاصطناعي يحتاج فقط إلى التدريب على بضع دقائق من الفيديو الأصلي للعمل، يشعر الفريق أن أدواته الجديدة ستساعد على الوصول إلى برامج تحرير الفيديو المتطورة.
ويدرك الباحثون أن عملهم هذا قد يثير قلق بعض الناس.
إذ قال الباحث جوستوس تييس لموقع The Register
“أنا على دراية بالآثار الأخلاقية لمشاريع التلاعب في الفيديوهات، هذا أيضًا سبب في نشر نتائجنا، أعتقد أنه من المهم أن يتعرّف الناس على إمكانيات تقنيات التلاعب. “
ولكن إلى أي حدّ سترهقنا عملية “رفع الوعي” لدى الناس، في ظل تفاقم المشكلة وتطورها؟ ففي الورقة البحثية نفسها، هناك جملة واحدة مخصّصّة للانشغالات الأخلاقية – إذ يطرح الباحثون فكرة تولي أحدهم مهمة البحث في مسألة تقنيات العلامات المائية الرقمية بحثًا حثيثًا أو غيرها من الطرق للكشف عن مقاطع الفيديو المزيفة.
لكن هذه ليست مهمتهم، على أي حال، لأنهم منشغلون جدًا في جعل إنشاء مقاطع فيديو قابلة للمعالجة والتعديل بدون أخطاء أمرًا أسهل من أي وقت مضى.
المصدر:هنا
تدقيق لغوي: بكار ح.