ما هي تقنية الديب فيك؟

تقنية الديب فيك Deepfake التزييف العميق  هي تقنية التلاعب بالبرمجيات لتشكيل مجموعة صور ومقاطع فيديو مزيفة لشخص ما بطريقة احترافية.

تستخدم هذه الطريقة في عدة مجالات ولعدة أسباب ولتحقيق عدة اهداف ولكن، ما الذي يجعلها تختلف عن الفوتوشوب وتقنيات تركيب الصور العادية ولماذا تستخدم فقط في القضايا التي تتطلب جهد ومردود اكبر؟

ما هو الفرق بين الديب فيك والفوتوشوب؟

ان الاختلاف الأول بين الفوتوشوب والفيك ديب هو التركيز والدقة العالية وصعوبة اكتشاف الحقيقة، حيث ان الفوتوشوب مهما كان مبذول من الجهد في اتمامه الا انه من الممكن جدا ان يكشفه الشخص العادي من خلال خلل معين في الألوان ربما او في ترتيب الاشكال داخل الصورة،

وبالطبع فإن الفوتوشوب قدرته ضعيفة جدا او شبه معدومة في صنع محتوى مزيف على شكل مقطع فيديو عكس تقنيات الديب فيك تماما،

فهي تقنية تعتمد على مستوى برمجة الكترونية عالية جدا ترفق صورة الشخص مع الصورة التي يريدها المبرمج بدون أي ظهور لعلامات تدل على انه مزيف كما وان قدرة هذه التقنية على صنع محتوى من مقطع فيديو شبه خيال من قوته في ذلك،

حيث ان المشاهد العادي عندما يشاهد الفيديو من الاستحالة ان يشك بمصداقيته الا اذا كان ملما بالالكترونيات وتقنياتها وفي بعض التقنيات لهذه الطريقة من  التزييف يتم استخدام صوت الضحية أيضا ضمن صورتها في الفيديو وحتى ردود افعالها اتجاه امر ما لتزيد نسبة مصداقية الفيديو لدى المشاهد.

أثارت هذه التقنية الكثير من المخاوف، خاصة عند الحديث عن ما يتعلق باستخدامها لاستبدال وجوه الممثلين في الأفلام الإباحية، وإمكانية استخدامها للتلاعب بالانتخابات على الصعيد السياسي والانتخابي.

 وفي ظل تطور مشكلة انتشار المعلومات المضللة عبر الإنترنت عموماً، ووسائل التواصل الاجتماعي خصوصاً، فإن تقنية التزييف العميق تمثل وسيلة قوية بأيدي الجهات الخبيثة للتأثير على الرأي العام. ولازدياد التضليل ونسبة الاخبار والمعلومات الخاطئة يشكل خطرا حقيقيا على مصداقية وصحة مصادر المعلومات لدى الناس في كافة المجتمعات.

على عكس ما قيل، فإن الاستخدام واسع النطاق للمحتوى المزيف باحترافية عالية يدفعنا للشك في كل شيء، حتى في المحتوى الحقيقي.

في الآونة الأخيرة قال الخبراء في التكنولوجيا لأن تقنية التزييف العميق أصبحت اسهل من الفوتوشوب وكافة برامجه وذلك لأن التقنية تعتمد على الذكاء البرمجي والتقنيات المبرمجة وليس على استخدام الانسان للبرمجيات وتنفيذ الخطوات البرمجية بنفسه.

هنالك 3 أسباب رئيسية لاستخدام تقنية Deepfake وهم:

  • الجانب الابتزازي والاباحي: يتم من خلال تقنية الديب فيك تركيب عدة فيديوهات للأشخاص وهم في موضع حساس او خادش للحياء العام ويتم ابتزازهم فيه او نشره عبر مواقع التواصل الاجتماعي بهدف إتمام قضية انتقام بين الطرفين، شهدت مواقع التواصل الاجتماعي منذ عام 2018 مئات الفيديوهات المفبركة بهذه الطريقة لعدة اشخاص ومنهم مشاهير، ونتيجة لصعوبة البحث في مصداقية الفيديو وتطلب خبراء في المجال فإن ليس كل الأطراف يتوجهون الى القانون ليرفعوا قضية فمنهم من يكتفي بالتواصل مع المبرمج والاتفاق وديا على حذفه، وهذا بالطبع ليس التصرف الصحيح لأنه يعتبر فرصة للمبرمج ان يزيد وتيرة تلاعبه في مصير وسمعة الناس.
  • الجانب السياسي: استخدمت Deepfake سابقا مع عدة رؤساء في العالم مثل الرئيس الأمريكي السابق دونالد ترامب ورئيس كوريا الشمالية، في هذه الحالات يتخوف المبرمج من نفوذ هؤلاء الأشخاص فيقوم بإنشاء فيديوهات كوميدية نوعا ما، اما في حالات أخرى فتستخدم التقنية لإظهار الصورة التي يراها الشعب وليست تلك المعروضة على اعلام السلطة، فمثلا يتم استبدال صورة وجه رئيس بوجه اولف هتلر للتعبير عن القمع المشترك بين الاثنين، وتتأجج هذه الطرق والأساليب في فترة الدعاية الانتخابية لجذب الجماهير المنافسة للسماع لمحتوى الجهة الأولى.
  • الجانب الانتقامي الاجتماعي: في بعض الحالات يتم استخدام Deepfake لكي يُبرمج فيديو ذو محتوى جنسي او غير ذلك عن احد الأشخاص ويتم نشره عبر مواقع التواصل الاجتماعي ليحقق المجرم الالكتروني هدفه في فضح الضحية لينتقم منه على قضية قديمة.

عرضنا اهم وابرز 3 حالات استخدم فيها الخبراء المبرمجين تقنية التزييف العميق منذ عام 2018 حتى اليوم، التقنية تزيد انتشارا كلما مر الوقت اكثر لأن التكنولوجيا تزيد سيرتها على عالمنا وكافة مرافق الحياة لدينا ولكن، كما ان لكل تقنية حل فهنالك عدة طرق تحمينا من الوقوع رهن شباك تقنية التزييف العميق.

فوائد التزييف العميق deepfake:

  • تحسين الانتاج التلفزيوني والسينيمائي: هذه التقنية تسمح بإضفاء طابع جيد على الانتاج التلفزيوني والسينيمائي من خلال اكثر من طريقة، اهمها التضليل على الشخصيات الحقيقية في المشهد لأسباب مهمة مثل حماية حياتهم، في السابق استخدم احد صانعي الافلام هذه التقنية للتضليل على صورة وصوت مشاركين في فيلم وثائقي يستضيف مجرمين سابقين ويروي فكرة التوبة لديهم، اتصال العصابات الخطرة بالموضوع جعل الصانع يفكر خارج الصندوق واستعان بالتزييف العميق لحماية الهوية الحقيقية للضيوف، وطريقة اخرى هي استحضار الشخصيات التي ماتت او غابت في وعكة صحية قاسية منعتها عن اتمام العمل السيمينائي.
  • دمج الترفيه مع الطابع الشخصي: اي استبدال الوجه الحقيقي بوجوه الممثلين او الشخصيات المحببة لدى مستحدمي التطبيقات الرقمية بهدف التسلية التي لا تشكل مشاكل للأطراف الاخرى، وتم اعتماد التقنية بشكل فعلي في العديد من التطبيقات والمنصات الالكترونية وشهدت التطبيقات انتشارا واسعا بين جيل الشباب والمراهقين.
  • في المجال الطبي: قدم عدة خبرائ امكانية توظيف التقنية بمساعدة الطب لاكتشاف اسلوب وطريقة تجعل التقنية تساعد الاشخاص الذين فقدوا اصواتهم من برمجة اصوات مشابهة وتقديمها لهم فيما يحتمل اهدائه لأقاربهم كمحاولة تعويض عن عدم قدرة المرضى للتعبير عن أنفسهم عن طريق الكلام.
  • انشاء شخصيات افتراضية تجسيدية لأشخاص على ارض الواقع: وهي التقنية التي تسمح باستحضار صورة ثلاثية الابعاد للأشخاص على ارض الواقع، مثال على ذلك التقنية التي استخدمت في العديد من الحفلات للمغنيين الراحلين مثل ام كلثوم في حفل دبي عام 2020، هذه التقنية تشعر المشاهذ بأن الفنان فعليا يقف امامه رغما انه في الحقيقة غير متواجد في الحياة.
  • لتحسين التجارة الالكترونية:استخدمت هذه التقنية في تقريب ملامح المتسوق من البرنامج التجاري، ففي بعض الحالات تم استخدام الملامح العربية لاطلاق تطبيقات التسوق في العالم العربي مما يضيف الأنسنة على العالم التجاري ويبعد شعور الاستهلاك عن المتسوق، اضافة لخدمة قياس الملابس صوريا وهي خدمة استخدمتها بعض المتاجر الالكترونية.

كيف نحمي أنفسنا من تقنيات ديب فيك Deepfake؟

  • المواظبة على الشك في كل ما نرى ففي هذه الفترة بالذات كل شيء نراه من الممكن ان يكون مزيفا او غير حقيقي وهنا تكمن أسباب الشك وفائدته.
  • التفكير دائما في مصدر المعلومة ومن يقولها وعن من يقولها ولماذا يقولها، هذه الطريقة هي الانجع لنستطيع التأكد من ان المحتوى حقيقي ام مزيف فالخبراء في هذا المجال قالوا بأنه لا يمكن كشف الحقيقة من خلال المحتوى والتقنية ولكن يمكن كشفه من خلال مصدر المعلومات.
  • الاهتمام بنشر التوعية كل بما يملك: من المهم جدا ان نطلع الناس من حولنا على كل ما نعرفه عن هذه التقنيات وعن فكرة التحقق من مصدر المعلومة لكي نشكل أوسع قاعدة جماهيرية ملمة في التكنولوجيا وطرق التزييف مما يضمن عدم ظلم شخص ما في المستقبل يتعرص لمثل هذا النوع من التزييف والاعتداء.
  • لا تستخدم تقنية المحادثة المرئية مع اشخاص لست متأكدا من حقيقة هويتهم: المكالمات المصورة او المرئية هي اسهل الطرق التي يستطيع من خلالها المجرم الالكتروني من جمع صورة وصوت وتفاعل وردود فعل الأشخاص، لذلك كلما كان تواصلك من خلال المرئي اقل كلما كانت فرصة ابتعادك عن الوقوع في التزييف اكبر.
  • يجب الوضع في الحسبان دائما سرعة التوجه الى مراكز الاختصاص ومراكز الاستشارة الالكترونية مثل مركز سايبر وان في البلاد، دائما كلما كان البلاغ اسرع كلما كان الضرر الذي تخلفه القضية اقل واحتمالية نجاتك من مثل هذه القضايا اكبر، خاصة عند التحدث عن المراكز التي تملك تصنيفا عالميا وهي موجودة بالبلاد ذلك يشكل نوعا من الحد من انتشار مثل هذه القضايا في مجتمعنا.
  • استثمار الشركات لبرامج كشف حقيقة المحتوى المزيف من السليم ونشرها بين كافة مستخدمي الانترنت في المجتمع في تلك الحالة تنجح الشركات في ان تقدم الأفضل للمجتمع ضمن المسؤولية الاجتماعية المفروضة عليها، خاصة عند الحديث عن الشركات المتعلقة بالبرمجة والالكترونيات.
  • عدم التفاعل ولا الانجرار وراء المحتويات الجنسية الإباحية ولا الدخول الى الروابط الالكترونية التي تقدم محتوى اباحي جنسي عبر الشبكة العنكبوتية لأن هذه الصفحات والمواقع هي الأكثر تعرضا لاختراقات وثغرات الكترونية من شأنها اسقاط الأشخاص الذين يتفاعلون معها بذلك فإنه كلما كان الشخص بعيدا عن الأماكن الخطرة كلما حفظ سلامته عبر المواقع الالكترونية.

في النهاية فإننا كلنا معرضون لأن نقع في مثل هذه القضايا ولكن الامرين الوحيدين الذين من شأنهما ان ينقذونا هم الوعي الالكتروني الكافي بكافة ما يحيطنا، وتوجهنا الدائم الى مراكز الاختصاص والاستشارة لكي نطلب منهم إرشادات حول الاستخدام الامن للانترنت وتبليغهم عن أي حالة مخالفة الكترونية.

للتواصل مع مركز سايبر وان:

+972533392585

972505555511+

التلاعب بالصور (Deepfake)

الحماية الالكترونية

CyberoneAuthor posts

المهندس احمد بطو مختص أمن المعلومات والجرائم الإلكترونية وسفيراً لنوايا الحسنة لمنظمة يونتيك الدولية للأمان على الإنترنت.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *