جاء عصر الثورة التكنولوجية بالكثير من الإيجابيات لحياتنا سواء على الصعيد الشخصي أو العملي، ولا يمكن لأيٍ منا نكران ذلك الجميل في الانفتاحِ على العالم بأسره من خلال تقنيات التكنولوجيا؛ إلا أنه من المؤسف أنها قد حملت بين طياتها أيضًا العديد من السلبيات والمساوئ لنا على شكل تقنيات ضارة، ومن الممكن أن تكون هذه التقنية ليست ضارة بحد ذاتها! وإنما الاستخدام الخاطئ جعل منها ضارة، ومن أكثر الأمثلة على ذلك تقنية DeepFake (مزيف عميق) التي سنتعرف عليها سويًا في هذا المقال.

تقنية DeepFake

يعود تاريخ ظهور تقنية DeepFake لأول مرة إلى شهر ديسمبر من العام 2017م، حيث أقدم مبرمجًا متمرسًا على نشر فيديو مفبرك عبر موقع Reddit معلقًا عليه بأنه عملًا تجريبيًا لتقنية جديدة الظهور تحت تسمية DeepFake, ويشار إلى أن هذه التقنية تمثل برنامجًا يساعد الأشخاص بكل سهولة ويسر بتركيب وجوه الأشخاص على أجسام أشخاص آخرين لتظهر كأنها حقيقية، وقد حظي هذا المنشور برواج واسع بين رواد الموقع، وفي غضونِ شهرين من نشر المنشور ارتفع عدد أعضاء المجموعة ليصبح 90 ألف عضو، وقد تمكنت هذه المجموعة من منح البرنامج النجومية والشهرة في عالم الفيديوهات المفبركة بواسطة الإنترنت.

تزييف الحقائق من خلال تقنية DeepFake

نظرًا لفرط تزييف الحقائق من خلال تقنية DeepFake وكثرة استخدامها بطريقة خاطئة تسببت بالفضائح للآخرين وإلحاق الأذى بهم، وبناءًا عليه فقد عُرفت هذه التقنية بأنها أداة الفضائح الجنسية على نطاقٍ واسع، ومن الجديرِ بالذكرِ فقد لجأت العديد من المواقع الإباحية إلى حجبِ هذه التقنية نظرًا لاعتمادها على تركيب وجوه أشخاص على أجسام أشخاص آخرين، وقد استُخدمت هذه التقنية كوسيلة لشّن الحرب على المشاهير والآخرين بشكلٍ عام بفبركة الأفلام والفيديوهات الفاضحة.

كيف تعمل تقنية DeepFake ؟

تعتمد تقنية DeepFake على خوارزمية (Deep Learning algorithm)، حيث يتم من خلالها إدخال تغييرات في وجوه المشاهير واستبدالها بوجوه مشاهير آخرين، وتمر مرحلة إعداد الفيديو في هذه التقنية بعدةِ مراحل، وهي :

  • جمع عدد كبير جدًا من الصور للشخصية المراد استخدام صورة وجهها في الفيديوهات.
  • التعرف على اتجاه وحجم الوجه بكل دقة لضمان نجاح تغيير الوجوه.
  • إمكانية الاستعانة بتقنية histogram of oriented Gardiants، ويرمز لها اختصارًا بـ HOG، ويتمثل دورها بإجراء مقارنات بين البيكسل الموجود في كل صورة مع البيكسل الموجود في الصور المحيطة استعدادًا لرسم منحنى يبدأ من الأقل ظلمة نحو الأكثر ظلمة.
  • إجراء تدريب مشفر تلقائي بعد الإنتهاء من استخدام مستخرجات صور الوجوه.
  • الانتقال إلى مرحلة الدمج، تستخدم الصورة المستخرجة والمعالجة من auto encoder ووضعها مكان الصورة الأصلية.
  • إعادة صنع الفيديو مجددًا بعد استخدام الصورة المعدلة.
  • الخوارزمية تحتاج إلى شرح معقد طويل جدًا يصعب تطبيق خطواتها من قِبل أي شخص عادي.

أثر تقنية DeepFake في المستقبل

يترتب على استخدام هذه التقنية الكثير من الأثار السلبية، ومنها:

  • ازدياد رقعة الفوضى والتشويش نتيجة التزوير القائم على تقنيات الذكاء الاصطناعي.
  • احتمالية تزوير رسائل البريد الإلكتروني والمحادثات النصية بالاعتماد على معالجة اللغات الطبيعية والخوارزميات.
  • فقدان الثقة في كل ما يمكن مشاهدته نظرًا لتزوير الرسائل الصوتية بالاعتماد على خوارزميات الذكاء الاصطناعي.
  • تدمير حياة الكثير من الأشخاص بالتسبب لهم بالفضائح الجنسية دون أي حق.

شـاهد أيضاً..

أنواع الهاكرز وأساليبه الهجومية

مميزات الجيل الخامس 5G ، الضجة القادمة!