“قبول الذكاء الاصطناعي دليلاً في المحاكم دون معيار واضح لا يعني تطوير العدالة. بل يعني تفويض القرار لصندوق أسود لا يُستجوب.”
في عام 2013، وقف إريك لوميس أمام قاضٍ في ولاية ويسكونسن الأمريكية ليسمع حكماً بسجنه ست سنوات. لم يكن القاضي وحده في تلك القاعة، بل كان معه نظام خوارزمي يُدعى COMPAS صنّف لوميس بوصفه شخصاً عالي الخطورة على مجتمعه. حين طعن لوميس في الحكم وطالب بالاطلاع على آلية عمل الخوارزمية، أجابته المحكمة العليا في ولايته بأن الكود مملوك لشركة خاصة، وأن حق المتهم في الطعن لا يمتد إلى الصندوق الأسود الذي قرر مصيره.
هذا السيناريو ليس خيالاً قانونياً. وهو لم يعد حكراً على الولايات المتحدة.
في المنطقة العربية، تتوسع تطبيقات الذكاء الاصطناعي في الأجهزة القضائية والأمنية بوتيرة تفوق ما تستطيع التشريعات مواكبته. وفي غياب إطار قانوني واضح يحكم قبول مخرجات الذكاء الاصطناعي دليلاً في المحاكم، يواجه المحامون والقضاة سؤالاً عملياً حاداً: متى يكون ما أنتجته خوارزمية قابلاً للاحتجاج به أمام القضاء، ومتى يجب رفضه؟
الدليل الرقمي كان البداية، والذكاء الاصطناعي جاء بعده
لفهم المأزق القانوني الراهن، لا بد من التمييز بين طبقتين مختلفتين: الدليل الرقمي بمفهومه التقليدي، ومخرجات الذكاء الاصطناعي.
قطعت المنطقة العربية شوطاً في التعامل مع الأول. أصدرت المملكة العربية السعودية في ديسمبر 2021 نظام الإثبات الذي يُلغي الأحكام المتفرقة في هذا الشأن، فيما أصدرت المحكمة العليا السعودية قبل ذلك في يناير 2018 قراراً يتعلق بقبول الإثبات الرقمي وسيلةً للدليل. وفي الإمارات، يتسم قانون الإثبات الجديد بمرونة واسعة في قبول الأدلة، إذ يُجيز تقديمها بأي شكل رقمي أو إلكتروني أو تقليدي، مع التركيز على التحقق من الهوية والمصداقية.
لكن الدليل الرقمي التقليدي سجل أو رسالة أو بيانات، وهو جامد في جوهره: يمكن فحصه ومراجعته وتتبع مصدره. أما مخرج الذكاء الاصطناعي فكيان مختلف تماماً. إنه نتيجة عملية إحصائية معقدة تجري داخل نموذج قد يعجز مطوّروه أنفسهم عن تفسير مساره خطوة بخطوة. وهذا بالضبط ما يجعله إشكالية قانونية من نوع آخر.
ما الذي تعنيه “مخرجات الذكاء الاصطناعي” أمام القضاء؟
المصطلح واسع عمداً، وتحته طيف من الأدوات المتباينة التي باتت تدخل قاعات المحاكم من أبواب مختلفة. تحليل مشاعر الشهود وتقييم مصداقيتهم عبر نماذج معالجة اللغة يختلف جوهرياً عن أنظمة التعرف على الوجه المستخدمة في تحديد هوية المشتبه بهم، وكلاهما يختلف عن خوارزميات التنبؤ بالجريمة التي تُصنّف الأفراد وفق درجات مخاطرة محسوبة. وصولاً إلى النماذج التوليدية التي باتت تُنتج تقارير وتقييمات وملخصات.
كل هذه الأدوات تشترك في سمة واحدة: مخرجها ليس حقيقة موضوعية، بل احتمال إحصائي مُصاغ على هيئة يقين.
وهذا التباين بين الشكل والجوهر هو مصدر الخطر القانوني الحقيقي.
معيار القبول: ما يقوله القانون المقارن وما يغيب عن العربي
في الأنظمة القانونية المتطورة، يخضع الدليل العلمي لمعيارين رئيسيين. معيار “فراي” الأمريكي التقليدي يشترط قبول المنهج العلمي في الأوساط المتخصصة، ومعيار “دوبير” الأحدث يُعطي القاضي صلاحية تقييم موثوقية المنهج بصورة مستقلة، مراعياً قابلية الاختبار ونسبة الخطأ والتحيز المحتمل. هذا الإطار المزدوج يُنتج رقابة قضائية حقيقية على الأداة العلمية قبل قبولها.
في عام 2023، نظرت محاكم مركز دبي المالي العالمي في أول سابقة من نوعها تتعلق بقبول دليل مُنتَج بالذكاء الاصطناعي في إجراءات قانونية، وإن ظل الإطار المنظِّم لها إطاراً أولياً. تعمل تلك المحاكم وفق نموذج كومن لو يمنح القاضي مرونة تقديرية واسعة في مسألة القبول، وهو ما يغيب عن القضاء المدني العربي الذي يحتاج إلى نص صريح.
في السياق السعودي تحديداً، لا يوجد إطار تشريعي واضح يحكم قبول الأدلة المُنتجة بتقنيات الذكاء الاصطناعي في المحاكم، وتشير الدراسات إلى حاجة ملحة لوضع معايير قانونية دقيقة تحدد كيفية تقييم هذا النوع من الأدلة وظروف قبوله.
الفجوة إذن ليست تشريعية فحسب. هي معرفية أيضاً. القاضي العربي اليوم لا يملك أدوات منهجية لتقييم موثوقية خوارزمية يُقدَّم له مخرجها في قضية جنائية أو تجارية أو نزاع عمالي، ولا يوجد في أي منهج قانوني عربي مادة تدريبية تُعالج هذا المسار.
مشكلة الصندوق الأسود وحق الدفاع
القضية المحورية هنا ليست تقنية. إنها دستورية.
حق المتهم في مواجهة الأدلة المُقدَّمة ضده، وحق الخصم في فحص وسيلة الإثبات، هما من أُسس التقاضي العادل في كل الأنظمة. طعن لوميس في استخدام COMPAS بحجة أنه يحول دون قدرته على الطعن في الصحة العلمية للأداة ودقتها، فضلاً عن كون النظام يأخذ الجنس والعرق في الاعتبار مما يُشكّل انتهاكاً للإجراءات القانونية الواجبة. ردّت المحكمة العليا في ويسكونسن بأن درجة COMPAS كانت مجرد عنصر واحد ضمن معطيات أخرى أخذها القاضي بعين الاعتبار، لا المُحدِّد الوحيد للحكم.
لكن التبرير ذاته يكشف ثغرة جوهرية: كيف نتحقق من أن القاضي استخدم الخوارزمية “كعنصر داعم” فقط، حين لا يوجد تدريب قضائي على قراءة هذه الأنظمة ونقدها؟
الخطر ليس أن الخوارزمية تحكم. الخطر أن القاضي يُسلّم لها دون أن يدري.
تحقيق نشرته مؤسسة ProPublica عام 2016 كشف أن نظام COMPAS صنّف المتهمين من أصول أفريقية بوصفهم عالي الخطورة بمعدل يفوق ضعفَي النسبة المقابلة لدى البيض، وذلك في مقاطعة بروارد بولاية فلوريدا. استندت إليه المحكمة العليا في ويسكونسن نفسها دون أن تستخلص منه ما يكفي من تحفظات. فإذا كان نظام قضائي بكامل بنيته التقنية والأكاديمية عاجزاً عن استيعاب دلالة هذه الأرقام، فكيف يُتوقع من قاضٍ لم يتلقَّ أي تدريب على الخوارزميات أن يُقيّم موثوقية نظام مماثل في عمّان أو الرياض أو القاهرة؟
وهذا السؤال يصبح أشد حدة حين نربطه بالسياق القانوني العربي، حيث مسألة مسؤولية الذكاء الاصطناعي عن الأفعال لا تزال خارج نطاق أي تشريع صريح، وحيث تُبنى الأحكام على مبدأ القناعة القضائية الحرة دون ضوابط معيارية لتقييم الأدلة التقنية. معايير القبول في محاكم دول الخليج تتمحور حول التحقق من صحة الدليل لا حول قواعد الاستبعاد، إذ لا تتضمن قوانين الإثبات فيها قواعد مفصّلة تتعلق بالشهادة غير المباشرة أو حماية التحيز الخوارزمي. هذا يعني أن الباب مفتوح لقبول كل شيء، ومنه ما لا ينبغي قبوله.
ما الذي تبنيه الدول العربية الآن وأين تقع الفجوة
يمكن قراءة المشهد التشريعي العربي الراهن في جدول مقارن واحد:
| الدولة | الوضع التشريعي | الموقف من الذكاء الاصطناعي قضائياً |
|---|---|---|
| الإمارات (DIFC) | قانون إثبات مرن + سابقة 2023 | قبول أولي بلا معيار موحد |
| المملكة العربية السعودية | نظام إثبات 2021 + مبادئ أخلاقية غير ملزمة | فراغ تشريعي صريح |
| البحرين | قانون ذكاء اصطناعي تنظيمي (7 فصول) | لا نص على الدليل القضائي |
| بقية دول الخليج | إستراتيجيات وطنية للذكاء الاصطناعي | غياب شبه كامل |
أسست أبوظبي في يناير 2024 مجلس الذكاء الاصطناعي والتكنولوجيا المتقدمة بموجب قانون رسمي، ليتولى الإشراف على مشاريع الذكاء الاصطناعي وضمان توافقها مع المعايير الدولية. وأصدرت هيئة البيانات والذكاء الاصطناعي السعودية مبادئ أخلاقيات الذكاء الاصطناعي في سبتمبر 2023، غير أن هذه المبادئ ليست ملزمة قانونياً ولم تُفعَّل آليات إنفاذ خاصة بها.
الجهود تتركز في الجانب الاقتصادي والتنظيمي. أما الجانب القضائي فلا يزال هامشاً في كل هذه الأطر، وكأن دخول الخوارزمية إلى قاعة المحكمة حدث لم يقع بعد.
لكنه وقع. ويتسع.
ما يجب أن يُنظَّم: الإطار الممكن
الإجابة على السؤال المحوري “هل يُقبَل حكم الخوارزمية دليلاً؟” لا تحتمل ثنائية مطلقة. الإجابة الصحيحة هي: يُقبَل بشروط، وهذه الشروط تحتاج إلى نص. وغياب النص ليس حياداً، هو اختيار ضمني بالقبول غير المنضبط.
يستلزم أي إطار تشريعي جاد ثلاثة محاور لا يمكن إغفال أي منها.
الإفصاح عن المنهجية هو الشرط الأساسي. لا يُقبَل دليل مُنتَج بنظام ذكاء اصطناعي ما لم يُتَح لجهة خبيرة مستقلة فحص منهجية النموذج وبيانات التدريب ومعدل الخطأ المُعلَن. الحماية التجارية لا تُقيّد حق الدفاع، وما جرى في قضية لوميس نموذج صريح لما لا ينبغي تكراره. المشكلة في السياق العربي أن السيادة على بيانات التدريب في الأنظمة الخوارزمية المستخدمة في المنطقة تعود في معظمها لشركات غربية، مما يُضاعف إشكالية الإفصاح ويجعلها مسألة سيادية قبل أن تكون مسألة إجرائية. حين تُستخدم خوارزمية تحليل سلوك طوّرتها شركة أمريكية أو صينية في تحديد خطورة متهم أمام قاضٍ سعودي أو مغربي، فمن يملك حق مساءلة تلك الخوارزمية؟ لا أحد، في غياب نص.
التمييز بين الوظائف هو المحور الثاني. الذكاء الاصطناعي مُساعِد وليس مُقرِّراً، وهذا التمييز لا ينبغي أن يبقى توصيةً أخلاقية بل يجب أن يُكرَّس نصاً قانونياً صريحاً. يجوز استخدام مخرجاته لتوجيه التحقيق أو إثارة سؤال أو تضييق نطاق البحث، لا لبناء حكم مباشرة. قانون الذكاء الاصطناعي الأوروبي يصنّف صراحةً الأنظمة المستخدمة في صنع القرار القانوني ضمن فئة الأنظمة عالية المخاطر، مما يُلزم بمتطلبات شفافية وتحقق صارمة قبل النشر. هذا نموذج يستحق الاقتباس والتكييف في التشريعات العربية بدلاً من انتظار وقوع الأضرار. الفارق بين الحالتين أن أوروبا وضعت القاعدة قبل انتشار الأداة، فيما تميل المنطقة العربية إلى بناء السياج بعد هروب الماشية.
التدريب القضائي هو المحور الثالث، وغالباً الأكثر إهمالاً في النقاشات التشريعية. القاضي الذي لا يستطيع قراءة تقرير خوارزمية لا يستطيع تقييمه، وعجزه عن تقييمه يجعله عُرضةً للتسليم به أو رفضه لأسباب انطباعية لا معيارية. هذا ليس نقداً للقضاة، بل توصيف لواقع بنيوي: لم تُصمَّم مناهج الدراسات القانونية في معظم الجامعات العربية لتُنتج قضاة قادرين على مساءلة خوارزمية. وتشير الدراسات إلى أن المحاكم تتفاوت في قبول أدلة الذكاء الاصطناعي بسبب محدودية الوعي التقني لدى القضاة وغياب بروتوكولات تحقق موحدة، مع ما يترتب على ذلك من مخاطر إدانة خاطئة. الحل ليس تحويل القضاة إلى مهندسين، بل بناء معيار إجرائي واضح: ما الأسئلة التي يجب أن يطرحها القاضي على الخبير التقني قبل قبول أي دليل خوارزمي، وما الحد الأدنى من التحقق المطلوب. وهذا الواقع لا يختلف كثيراً في المنطقة العربية، بل يُرجَّح أنه أشد حدة في ظل غياب أي إطار تشريعي يحكم ملاحقة الذكاء الاصطناعي قانونياً سواء من زاوية الفقه الإسلامي أو القانون الوضعي.
الموقف الواضح
المنطقة العربية لديها نافذة زمنية لم تُغلَق بعد لبناء هذا الإطار قبل أن يُفرَض عليها واقعياً من قِبَل تقنيات تُدار من الخارج وتُطبَّق في داخلها.
الخطر الحقيقي ليس أن تُرفض أدلة الذكاء الاصطناعي جملةً وتفصيلاً. الخطر أن تُقبَل دون إطار، فتتحول الخوارزمية إلى شاهد لا يُناقَش وخبير لا يُساءَل. وحين يحدث ذلك، لا تُسجَن البيانات.
يُسجَن الأشخاص.
الاختيار ليس بين القبول والرفض. الاختيار بين التنظيم المُسبَق، والفوضى التي تأتي متأخرة دائماً.



