في فبراير 2024، حضر موظف في شركة “أروب” متعددة الجنسيات اجتماع فيديو مع مديره المالي وعدد من زملائه. أجرى تحويلًا ماليًا بقيمة 25.6 مليون دولار بناءً على تعليماتهم.لم يكن أحد من هؤلاء حاضرًا. لا الزملاء ولا المدير ولا الاجتماع نفسه بمعناه الذي يفهمه القانون. فقط وجوه مولّدة وأصوات مركّبة وسيناريو مُصمَّم بدقة لا تكتشفها عين ولا تُدركها أذن. فالذكاء الاصطناعي أدّى أدوار البشر بأمانة مطلقة، والبشر الحقيقيون لم يعلموا بشيء.
وفقاً لتقارير شرطة هونغ كونغ فحين وصل المحققون إلى هذه النقطة، أدركوا أنهم أمام سؤال لم تُعدّهم له كليات الحقوق ولا مجلدات قانون العقوبات: هل يمكن للذكاء الاصطناعي ارتكاب جريمة؟ فالجريمة مكتملة الأركان، والضرر واقع، والأدلة موثّقة، لكن قفص الاتهام يقف فارغًا.
هذا السؤال ليس فلسفيًا. إنه قانوني وعملي . وما كشفته السنوات الأخيرة أن المنظومة القانونية العالمية لا تملك له إجابة جاهزة.
لماذا يعجز القانون الجنائي الحالي؟
المسؤولية الجنائية تقوم على ركنين لا يقوم أحدهما دون الآخر: الفعل المادي (Actus Reus) والقصد الجنائي (Mens Rea). الأول موجود حين يُحدث نظام ذكاء اصطناعي ضررًا. الثاني غائب بالتعريف، لأن النظام لا يملك نية ولا وعيًا ولا إرادة بالمعنى القانوني.
هذا الغياب ليس ثغرة تقنية يمكن سدّها بتعديل نصي بسيط. هو أزمة بنيوية في صميم الفلسفة القانونية الجنائية. القانون بُني على افتراض أن وراء كل جريمة إنسانًا يعرف ما يفعل ويريده. حين يختفي هذا الإنسان من المشهد المباشر، أو يتوارى خلف طبقات من الخوارزميات، تبدأ الأدوات القانونية في الاهتزاز.
الحل المؤقت الذي تبنّته معظم الأنظمة القانونية هو “المسؤولية بالوكالة”: يظل الإنسان، سواء أكان مطوّرًا أم مشغّلًا أم مستخدمًا، هو المسؤول الجنائي عما يُحدثه النظام. لكن هذا الحل يواجه اختبارًا متصاعدًا كلما ازدادت استقلالية الأنظمة وتعقّدت سلسلة القرار فيها.
قضية هونج كونج نموذج واضح: المحتالون بشر لديهم نية جنائية واضحة، استخدموا الذكاء الاصطناعي أداةً. هنا المعادلة مقبولة قانونيًا. لكن ماذا حين يتصرف النظام باستقلالية لم يتوقعها مطوّره ولم يقصدها مستخدمه وأحدث ضررًا لم يخطط له أحد؟ هذا السيناريو آتٍ، وبعض ملامحه موجود بالفعل.
ثلاثة متهمين في قفص واحد
من المسؤول حين يُخطئ الذكاء الاصطناعي؟ الإجابة العملية أن الأنظمة القانونية الحالية تُوزّع المسؤولية على ثلاثة أطراف، وهذا التوزيع نفسه هو المشكلة.
المطوّر مسؤول عن “الإهمال في التصميم”. في 2025، صدرت قرارات أمريكية حمّلت مطوّري تطبيقات Deepfake التجارية مسؤولية “التسهيل الجنائي” لإخفاقهم في تضمين آليات حماية تمنع إنتاج محتوى غير قانوني. هذا النموذج يُحاسب الشركة على ما لم تفعله لا على ما فعلته مباشرةً.
المشغّل يتحمل المسؤولية حين يُثبت علمه وتقصيره. في قضايا السيارات ذاتية القيادة، استقرت معظم الأحكام الأمريكية بين 2025 و2026 على تحميل السائق المسؤولية الجنائية إذا ثبت عدم تدخله في اللحظات الحرجة، فيما تتجه المسؤولية المدنية وتهمة الإهمال في التصميم نحو الشركة المطوّرة.
المستخدم يبقى المسؤول الأوضح حين تكون النية الجنائية ثابتة. في أبريل 2026، أقرّ المواطن الأمريكي جيمس ستراولر الثاني بالذنب في أول إدانة فيدرالية بموجب قانون Take It Down، بعد استخدامه أكثر من مئة نموذج ذكاء اصطناعي في إنتاج مواد استغلال جنسي للأطفال وممارسة مطاردة إلكترونية ممنهجة.
هذا التوزيع الثلاثي للمسؤولية ليس مصادفةً قانونية. فهو نتيجة طبيعية لنظام قانوني صُمِّم في عصر كانت فيه الأداة صامتة والإنسان هو المحرّك الوحيد. المطرقة لا تُحاكَم على الجريمة التي ارتكبها من يحملها. لكن الذكاء الاصطناعي ليس مطرقة، لأن المطرقة لا تختار ولا تُكيّف ولا تُفاجئ مستخدمها بقرار لم يتوقعه. حين يتصرف النظام خارج نطاق ما قصده مطوّره وما توقعه مشغّله وما أراده مستخدمه، لا يكون أيٌّ من هؤلاء الثلاثة مسؤولًا بالكامل، ولا يكون أيٌّ منهم بريئًا تمامًا. القانون يُسمي هذا “توزيع المسؤولية”. الضحية تُسميه شيئًا آخر.
ما يحدث فعليًا في ظل هذا التوزيع أن المسؤولية تتفتّت. وتفتيتها عمليًا يعني تخفيفها. الشركات الكبرى قادرة على تحمّل تكاليف التقاضي وتوزيع المسؤولية قانونيًا، بينما يقف الضحايا بموارد أقل أمام خصم متعدد الأوجه.
حين يصبح الذكاء الاصطناعي سلاحًا منظّمًا
ثمة فرق جوهري بين حالتين: الذكاء الاصطناعي يُحدث ضررًا بفعل خلل في تصميمه، والذكاء الاصطناعي يُستخدم أداةً واعيةً في يد مجرم. الحالة الثانية أوضح قانونيًا، لكنها باتت أكثر تعقيدًا مما كانت عليه.
وفق تقديرات الأمم المتحدة والتقارير المالية الصادرة في مارس 2026، بلغت خسائر الاحتيال عبر الذكاء الاصطناعي عشرة مليارات دولار في الولايات المتحدة وحدها خلال 2024. وتشير التوقعات إلى أن خسائر جرائم Deepfake عالميًا قد تصل إلى أربعين مليار دولار بحلول 2027.
الأنماط الإجرامية الجديدة التي رصدها الإنتربول تتجاوز الاحتيال الفردي. “الجريمة كخدمة” (Crime-as-a-Service) المدعومة بالذكاء الاصطناعي باتت نمطًا منظّمًا: نماذج لغوية كبيرة تُستخدم لكتابة برمجيات خبيثة، وتزوير أصوات لابتزاز العائلات عبر محاكاة صرخات استغاثة لأقارب. في يناير 2024، أرسل متهم أمريكي مكالمات آلية بصوت مولّد يحاكي الرئيس بايدن لآلاف الناخبين في نيو هامبشاير، ويواجه اليوم ستًا وعشرين تهمة جنائية تتعلق بالترهيب الانتخابي وانتحال الشخصية.
الأخطر من هذا كله ما رُصد في فبراير 2026: موجة من فيديوهات Deepfake تصوّر عمليات عسكرية وهمية، شوهدت أكثر من مئة مليون مرة، صُمّمت للتأثير على الأسواق المالية العالمية. هنا لم تعد الجريمة فردية ولا تجارية. أصبحت جيوسياسية.
الاستجابة التشريعية: تسارع غير متكافئ
التشريع يلحق بالجريمة لا يسبقها. لكن الفجوة بينهما اتّسعت.
في مارس 2026، قُدِّم مشروع قانون GUARDRAILS في الكونغرس الأمريكي لمنح الولايات سلطة فرض عقوبات جنائية ومدنية على الأفعال الإجرامية المدعومة بالذكاء الاصطناعي. في الشهر نفسه، تضمّن مشروع TRUMP America AI Act إطارًا للمسؤولية عن المنتجات الذكية مع تحديد عقوبات جنائية لاستخدام الذكاء الاصطناعي في استغلال القصر أو الاحتيال المالي الممنهج. كلا المشروعين لا يزالان في مرحلة التشريع.
أوروبا اختارت مسارًا مختلفًا. قانون الذكاء الاصطناعي الأوروبي يُركّز على العقوبات الإدارية والمالية التي تصل إلى خمسة وثلاثين مليون يورو أو سبعة بالمئة من الإيرادات، ويترك المسؤولية الجنائية للتشريعات الوطنية. إيطاليا تقدّمت خطوة بموجب قانون 132/2025 الذي أدخل تعديلات جنائية صريحة، تعتبر استخدام الذكاء الاصطناعي ظرفًا مشدّدًا في الجرائم التقليدية، مع عقوبة سجن تتراوح بين سنة وخمس سنوات لنشر محتوى Deepfake غير قانوني.
على المستوى العربي، تبرز البحرين سبّاقةً بإقرار قانون تنظيم الذكاء الاصطناعي في أبريل 2024، المكوّن من ثمانية وثلاثين مادة، ويتضمن عقوبات جنائية تصل إلى السجن ثلاث سنوات لمن يتلاعب بالبصمات الحيوية أو ينتهك الخصوصية بأنظمة ذكية. لكن المنطقة ككل لا تزال تفتقر إلى إطار إقليمي موحّد يُعالج المسؤولية الجنائية الناشئة عن أنظمة مطوَّرة خارج حدودها.
هذه النقطة تكشف أزمة مُضاعفة: المنطقة العربية تستورد الأنظمة ولا تصنعها. حين يُحدث نظام مطوَّر في الولايات المتحدة أو أوروبا ضررًا في السياق العربي، تصطدم المطالبة بحواجز الولاية القضائية وتعارض الأنظمة القانونية. ضحايا جريمة Deepfake في القاهرة أو الرياض يقفون أمام شركة في سان فرانسيسكو بلا معاهدات تسليم مجرمين ناضجة ولا اتفاقيات قانونية تغطي هذا النوع من الضرر.
الفراغ الذي تستفيد منه الشركات
الفراغ التشريعي ليس كله جهلًا أو تقصيرًا. بعضه نتيجة ضغط صناعي منظّم لتأخير التنظيم. الغموض القانوني يحمي الشركات من المسؤولية المباشرة، ويُبقي تكاليف الامتثال منخفضة، ويمنحها هامشًا واسعًا للعمل قبل أن تضيق الحدود.
النتيجة الاقتصادية لهذا الفراغ أن المخاطر تصبح “بلا مالك”: الشركات تُحوّل المخاطر إلى المستخدمين عبر شروط الخدمة، والمستخدمون يُحوّلونها إلى ضحاياهم عبر الجهل أو الإنكار. غياب التكلفة القانونية يعني غياب الحافز للحذر في التصميم والنشر.
في فبراير 2026، أكد القاضي الفيدرالي الأمريكي جيد راكوف أن استخدام الذكاء الاصطناعي بشكل مستقل في تحليل الأدلة القانونية لا يمنح مستخدمه حماية “امتياز المحامي والموكل”، فاتحًا الباب لمسؤولية المستخدم الشخصية عن مخرجات النظام. هذا القرار يُقلّص ادعاءً جاهزًا كانت تستخدمه الشركات لحماية عملائها من المساءلة.
خاتمة
الفقه القانوني الدولي يرفض حتى الآن منح الذكاء الاصطناعي شخصية قانونية جنائية مستقلة. الموقف الرسمي للأمم المتحدة والاتحاد الأوروبي واضح: الإنسان هو المسؤول دائمًا. لكن هذا الموقف يصبح أقل وضوحًا كلما صارت الأنظمة أكثر استقلالية وأصعب تتبعًا وأبعد عن قصد أي إنسان بعينه.
المسألة لن تنتظر حتى يتّفق الفقهاء. الجرائم تقع، والأضرار تتراكم، والضحايا يبحثون عن باب للمطالبة في منظومة قانونية لم تُصمَّم لاستقبالهم. ما تحاول التشريعات الجديدة فعله هو ترقيع القانون القائم بأحكام طارئة، لا إعادة بنائه على أساس يستوعب الواقع الجديد. هذا الترقيع قد يصمد سنوات، لكنه لن يصمد طويلًا أمام نظام يُحدث ضررًا لم يقصده أحد ولم يتوقعه أحد ولم يكتب عقوبته أحد بعد.



