كيف تكتشف التزييف العميق (Deepfake) قبل أن يخدعك الذكاء الاصطناعي؟

اكتشاف التزييف العميق لم يعد رفاهية تقنية، بل مهارة بقاء رقمية في عصر يصعب فيه التمييز بين الحقيقي والمصنوع بالذكاء الاصطناعي.

في فبراير 2024، كشفت شرطة هونغ كونغ عن واحدة من أخطر عمليات الاحتيال باستخدام تقنية “التزييف العميق” (Deepfake).
الهدف كان شركة هندسية بريطانية متعددة الجنسيات تُدعى “Arup”، والخسارة بلغت 25 مليون دولار.

الموظف المسؤول عن التحويل لم يشك للحظة واحدة , فقد كان في مكالمة فيديو مع ما بدا أنه المدير المالي للشركة وعدد من زملائه. فالوجوه، والأصوات، وحتى طريقة الحديث… كلها بدت حقيقية تماماً.

لكن الحقيقة كانت أكثر خطورة:
فلم يكن هناك أي شخص حقيقي في تلك المكالمة.
كل من ظهر على الشاشة كان مجرد خدعة متقنة صنعها الذكاء الاصطناعي.

وبمجرد انتهاء المكالمة… كان المال قد اختفى.

والسؤال المطروح : إذا كان من الممكن خداع شركة بهذا الحجم… فكيف يمكنك أنت التمييز بين الحقيقة والتزييف؟

حين أصبح الوجه البشري قابلاً للاختراق

التزييف العميق ليس جديداً تقنياً، لكنه وصل في 2026-2025إلى مرحلة خطيرة جداً: أصبح في متناول يد أي شخص يملك حاسوباً وساعات فراغ. أدوات مثل DeepFaceLab وFaceSwap متاحة مجاناً. منصات تجارية كـ HeyGen وSynthesia تقدم خدمات “استنساخ الوجه” للاستخدام المشروع، لكن المنطق نفسه يُستغل للخداع.

السبب الحقيقي لانتشار هذه التقنية الآن؟ ثلاثة عوامل تضافرت معاً: تراجع تكلفة الحوسبة السحابية، توفر كميات ضخمة من الصور والمقاطع المفتوحة على الإنترنت، وسهولة واجهات الاستخدام التي لم تعد تتطلب خبرة تقنية عميقة.

النتيجة: محتوى مزيف يُنتج بسرعة قياسية، وينتشر بسرعة أكبر.

العلامات التي يتركها الذكاء الاصطناعي خلفه

الديب فيك ليس مثالياً رغم تطوره. فهو يترك آثاراً دقيقة، لكنها واضحة حين تعرف أين تنظر.

العينان أولاً. الجيل الحالي من نماذج الديب فيك يخفق في محاكاة رمشة العين الطبيعية. الإنسان يرمش بمعدل 15-20 مرة في الدقيقة، بشكل غير منتظم. في الديب فيك، إما أن الرمشة غائبة كلياً، أو متكررة بشكل آلي مريب. أيضاً، حركة العين أثناء التحدث تختلف: البشر ينظرون يميناً حين يتذكرون، ويساراً حين يتخيلون. النماذج المزيفة غالباً تثبت النظرة أو تحركها بشكل مسطح.

التزامن الصوتي والصري. الشفتان في الديب فيك أحياناً “تتأخران” جزء من ثانية عن الصوت، أو تتقدمان عليه. هذا يظهر بشكل أوضح في الحروف التي تتطلب تغيير واضح في شكل الفم كـ”م” و”ب” و”ف”. جرب إيقاف الصوت ومراقبة الشفتين وحدهما.

الإضاءة وحواف الوجه. هذا من أبرز نقاط الضعف. حين يُلصق وجه مزيف على جسد آخر، تبقى الإضاءة على الوجه من المصدر الأصلي، بينما إضاءة الجسد مختلفة. الخط الفاصل بين الوجه والشعر، أو بين الرقبة والوجه، قد يبدو “ناعماً” بشكل مصطنع أو به “هالة” خفية.

الأذنان والأسنان. تفاصيل الأذن بالغة التعقيد لمحاكاتها، وكثير من النماذج تنتج آذاناً متماثلة تماماً أو غير طبيعية الشكل. والأسنان في مقاطع الديب فيك غالباً تبدو “مسطحة” أو يفتقر لها الحجم الثلاثي الأبعاد.

الخلفية والحركة. عند تحريك الرأس، الخلفية في الديب فيك أحياناً تتموج أو تلتوي عند حواف الشعر. هذا يظهر بجلاء حين يوجد ضوء خلفي قوي.

لكن هذا وحده لا يكفي.

أدوات الكشف التقني: قوية ولها حدود

المفارقة الجميلة في هذا المجال: الذكاء الاصطناعي الذي يصنع الديب فيك يُستخدم أيضاً للكشف عنه.

Microsoft Video Authenticator أداة طورتها مايكروسوفت تحلل إشارات دقيقة على مستوى البكسل لا يراها العين البشرية، وتعطي نسبة مئوية لاحتمالية التزييف. كانت متاحة للمؤسسات الإعلامية وشركاء الانتخابات.

Deepware Scanner متاح مجاناً عبر الموقع، يمكنك رفع أي فيديو وتحليله. جيد للاستخدام الشخصي السريع.

Sensity AI (سابقاً Deeptrace) منصة متخصصة تُستخدم من قِبل المؤسسات الإعلامية والحكومات. تقرير 2023 الصادر عنها وثّق تضاعف محتوى الديب فيك ثلاث مرات خلال عام واحد.

FotoForensics مخصص للصور لا الفيديو، لكنه يكشف مؤشرات التلاعب عبر تحليل مستويات الضغط والإضاءة.

الأداةالنوعالمستخدم المناسبالحد
Deepware Scannerمجانيالأفراددقة متوسطة
Microsoft Video Authenticatorمؤسسيإعلام/حكوماتغير متاح للعموم
Sensity AIتجاريمؤسساتمكلف
FotoForensicsمجانيالصور فقطلا يحلل فيديو

أبرز ما تقوله هذه المقارنة: لا توجد أداة مثالية مجانية ومتاحة للجميع في آن واحد.

هذا هو القيد الحقيقي: أدوات الكشف دائماً خطوة خلف أدوات الإنتاج. حين يطلع نموذج جديد للتزييف، تحتاج أدوات الكشف أسابيع أو أشهراً للتكيف معه. وهذا يعني أن الاعتماد الكلي على الأدوات التقنية مقامرة.

النقد الإعلامي: خط الدفاع الذي لا يُخترق

قبل أن تفتح أي أداة تقنية، هناك أسئلة أبسط وأسرع:

من نشر هذا؟ أكاونت منشأ منذ أيام، أو صفحة بدون تاريخ واضح، أو مصدر لم تسمع به من قبل. هذا وحده مؤشر حمراء أولى.

هل هذا الحدث موثق في مصادر أخرى؟ الفيديو المزيف يُنشر عادة كـ”حصري” لأن التحقق منه عبر مصادر أخرى سيكشفه. إذا كان الخبر “عاجلاً” ولا تجد له أثراً في رويترز أو BBC أو أي مصدر معروف، توقف.

هل السياق منطقي؟ فيديو لمسؤول يقول شيئاً مثيراً للجدل، في مكان لا يناسب مكانته، بملابس لا تتناسب مع المناسبة. السياق الخاطئ يسبق كشف التقنية.

بي بي سي عربي ورويترز يملكان وحدات تحقق متخصصة يمكن الرجوع إليها مباشرة. هذه ليست مجرد وسائل إعلام، بل محطات تحقق مستقلة من الأحداث الكبرى.

استخدم أيضاً البحث العكسي عن الصور عبر Google Images أو TinEye: كثير من مقاطع الديب فيك تستخدم خلفيات مسروقة من فيديوهات قديمة، والبحث العكسي يكشف الأصل.

البيئة الرقمية التي تحميك قبل أن يصلك المحتوى

المشكلة لا تبدأ هنا.

تبدأ من كيفية بناء علاقتك بالمعلومات يومياً. الشخص الذي يتلقى المحتوى من مصادر موثوقة ومتنوعة، ويتوقف عادةً قبل المشاركة الفورية، أصعب اختراقاً بكثير من الشخص الذي يعتمد على تيار واحد من المعلومات.

الإجراءات التي تصنع فارقاً:

  • أخّر مشاركة أي محتوى مثير للجدل 30 دقيقة على الأقل. في هذه المدة، غالباً ستجد التفنيد منشوراً إن كان المحتوى مزيفاً.
  • تابع حسابات التحقق المتخصصة مثل Snopes وFactCheck وAFP Fact Check على منصاتهم.
  • شكّل في عقلك “مبدأ التوقف”: كلما كان الفيديو مثيراً للغاية أو مستفزاً بشكل واضح، قلّت احتمالية أن يكون حقيقياً أصلاً. المشاعر القوية هي الأداة التي يستغلها المزيّفون أولاً.

إن كنت تبني منهجيتك في التعامل مع المحتوى الرقمي من الأساس، يستحق الاطلاع على كيف تبني منهجية بحث بالذكاء الاصطناعي كخطوة أولى.

حين تكون في الخط الأول: سيناريوهات عملية

سيناريو مكالمة الفيديو: إذا كنت في مكالمة وشعرت بالريبة، اطلب من الشخص أن يضع يده أمام وجهه ثم يبعدها. هذه الحركة تُربك كثيراً من نماذج الديب فيك الحية وتنتج تشويهاً مرئياً واضحاً. اطلب أيضاً أن يحرك رأسه بشكل مفاجئ يميناً ويساراً.

سيناريو الفيديو المُرسل: قبل أي أداة، افتح الفيديو وأوقفه عند 0.25x (ربع السرعة) إن كانت المنصة تتيح ذلك. التشوهات التي تمر غير ملحوظة بالسرعة العادية تصبح صارخة بالإبطاء.

سيناريو الصوت فقط: الاستنساخ الصوتي أسهل من الفيديو وأكثر انتشاراً. أدوات مثل ElevenLabs تنسخ الصوت من دقائق قليلة من التسجيل. إذا كنت تتلقى مكالمة هاتفية غريبة من “شخص معروف” يطلب شيئاً استثنائياً، تحقق عبر قناة اتصال أخرى قبل أي استجابة.

للمزيد حول بناء درعك الرقمي الشامل في حالات كهذه، راجع حقيبة الطوارئ الرقمية.

أسئلة شائعة

ما الفرق بين الديب فيك وعمليات التحرير العادية؟
التحرير العادي يعدّل موجوداً، الديب فيك يُنشئ محتوى جديداً كلياً بإحلال وجه أو صوت بآخر باستخدام نماذج تعلم عميق. الفارق جوهري من حيث صعوبة الكشف وحجم الخداع.

هل يمكن للذكاء الاصطناعي كشف الديب فيك دائماً؟
لا. أدوات الكشف الحالية تصل دقتها إلى 90-95% في أحسن الأحوال، لكن النماذج الأحدث تتفوق عليها باستمرار. الحكم البشري والتحقق من المصدر ضروريان دائماً.

هل الصور المولّدة بالذكاء الاصطناعي كالديب فيك؟
مختلفة تقنياً: الصور المولّدة تُنشأ من الصفر، بينما الديب فيك يحتاج وجهاً حقيقياً كمدخل. لكن خطورة كليهما في السياق المضلّل واحدة.

ما حجم انتشار الديب فيك حالياً؟
وفق تقرير Sensity AI لعام 2023 وُجد ما يزيد على 95,000 مقطع ديب فيك موثّق عبر الإنترنت، مع نمو سنوي يتضاعف. الأرقام الحقيقية أعلى بكثير لأن كثيراً منها لا يُكتشف.

التقنية تتقدم. أدوات الكشف تتقدم. وفجوة القدرة بينهما ستبقى دائماً. ما لا يتغير هو مبدأ بسيط: كل ما يثير مشاعرك بشكل حاد، أو يدفعك للمشاركة الفورية، هو بالضبط ما يريد منك صانع الديب فيك أن تفعله.

السؤال الذي يستحق التفكير: في آخر مرة شاركت فيها فيديو دون التحقق، ماذا كانت المشاعر التي دفعتك للضغط على “مشاركة”؟

فريق محتوى 0.4
فريق محتوى 0.4

باحث قانوني مهتم بالتشريعات الرقمية والذكاء الاصطناعي، ومؤسس منصة 0.4 mohtawa. يعمل على تحليل التقاطع بين القانون والتقنية لتعزيز السيادة الرقمية في العالم العربي

المقالات: 103