أصبح سؤال العلاقة بين القانون العربي والذكاء الاصطناعي من أكثر الأسئلة إلحاحًا في السنوات الأخيرة، مع اتساع حضور الأنظمة الذكية في مجالات تمس القرار، والخدمات، والإدارة، والحقوق. فلم يعد الذكاء الاصطناعي مجرد أداة تقنية يمكن التعامل معها بوصفها شأنًا تقنيًا خالصًا، بل أصبح عنصرًا فاعلًا يفرض على الدول أن تعيد التفكير في أدواته وحدوده ووظائفه.
هنا بالضبط يبدأ السؤال الحقيقي:
هل يحتاج العالم العربي إلى تشريع خاص للذكاء الاصطناعي؟
ليس السؤال هنا ترفًا أكاديميًا، ولا مجرد محاولة للحاق بموجة عالمية. المسألة أعمق من ذلك. فنحن لا نناقش تطبيقًا جديدًا أو منصة أخرى، بل نناقش نمطًا تقنيًا يعيد تعريف العلاقة بين الإنسان والقرار، وبين المؤسسة والبيانات، وبين السلطة والشفافية. وما كان يُتخذ بالأمس بيد موظف أو قاضٍ أو مدير أو خبير، بات اليوم يمر، بدرجات متفاوتة، عبر أنظمة ذكية تتنبأ، وتقيم، وتفرز، وتقترح، وأحيانًا تؤثر في القرار نفسه.
في هذا السياق، يصبح السؤال التشريعي سؤالًا عن المستقبل نفسه:
هل سنكتفي بإدخال الذكاء الاصطناعي إلى مجتمعاتنا باعتباره أداة نافعة، ثم ننتظر المشكلات كي تظهر؟ أم نبني من الآن إطارًا قانونيًا وتنظيميًا يحدد حدوده، ومجالاته، وضوابطه، ومسؤولياته؟
لماذا يفرض الذكاء الاصطناعي نفسه على الأجندة القانونية الآن؟
في مراحل سابقة، كان من الممكن التعامل مع الذكاء الاصطناعي بوصفه شأنًا تقنيًا يخص المهندسين والشركات الناشئة. أما اليوم، فلم يعد ذلك ممكنًا. السبب بسيط: الذكاء الاصطناعي لم يعد يعمل فقط في المختبرات أو خلف الشاشات، بل بدأ يقترب من المجالات الحساسة اجتماعيًا وقانونيًا.
عندما يُستخدم نظام ذكي في:
- فرز طلبات التوظيف،
- تقييم الجدارة الائتمانية،
- تحليل البيانات الصحية،
- رصد السلوك،
- أو دعم القرار الإداري أو القضائي،
فإننا نكون أمام بنية جديدة من السلطة. سلطة لا تأتي في صورة شخص ظاهر، بل في صورة نموذج وخوارزمية ونظام تصنيف. وهذه السلطة، لأنها غير مرئية في كثير من الأحيان، تصبح أكثر حاجة إلى الضبط لا أقل.
ولهذا لم يعد السؤال: هل هذه التقنية مفيدة؟
بل: ما الذي يحدث عندما تُستخدم في مجالات تمس الحقوق والفرص والعدالة والثقة العامة؟
كيف يتعامل القانون العربي مع الذكاء الاصطناعي اليوم؟
قد يبدو للوهلة الأولى أن القوانين القائمة تكفي، أو على الأقل يمكن تكييفها. فلدينا في معظم الأنظمة القانونية العربية:
- قواعد للمسؤولية المدنية،
- وأخرى للمسؤولية الجزائية،
- وأحكام تتعلق بالعقود،
- وبعض القواعد المتعلقة بحماية المستهلك والخصوصية والمعاملات الإلكترونية.
ومن حيث المبدأ، هذا صحيح جزئيًا.
فالقانون لا يبدأ من الصفر كلما ظهرت تقنية جديدة، ولا ينبغي أن يتحول إلى آلة تتكاثر فيها النصوص مع كل تحديث تقني.
لكن المشكلة أن الذكاء الاصطناعي لا يضيف مجرد أداة جديدة إلى البيئة القانونية، بل يخلق نوعًا مختلفًا من الإشكالات. فالقواعد التقليدية بُنيت أساسًا على فرضية فاعل بشري واضح، وقرار بشري يمكن تتبع منطقه، وسلسلة مسؤولية يسهل تحديدها نسبيًا. أما حين يتدخل نظام ذكي في القرار، فإن هذه الفرضيات تبدأ في الاهتزاز.
من المسؤول إذا أخطأت الخوارزمية؟
هل هو المطور؟
أم الشركة؟
أم الجهة التي اعتمدت النظام؟
أم المستخدم الذي وثق في مخرجاته؟
وكيف يمكن للفرد أن يعترض على قرار لا يفهم منطقه؟
وما معنى العدالة أصلًا إذا كانت بعض القرارات تصدر عن نماذج يصعب تفسيرها؟
هنا يظهر أن القواعد العامة قد تكون ضرورية، لكنها ليست كافية دائمًا.
ما الذي يجعل الدعوة إلى تشريع خاص منطقية؟
هناك منطق متزايد خلف الدعوة إلى تشريع خاص أو إطار تنظيمي خاص للذكاء الاصطناعي، ويمكن تلخيصه في أن هذه التقنية تحتاج إلى قواعد تناسب طبيعتها الخاصة.
فالذكاء الاصطناعي يطرح مسائل لا تتعلق فقط بالنتائج، بل بعملية اتخاذ القرار نفسها:
- كيف بُني النموذج؟
- على أي بيانات تدرب؟
- هل ينطوي على انحياز؟
- هل يمكن تفسيره؟
- هل يحق للفرد أن يعرف أنه خضع لتقييم آلي؟
- هل يجب أن يكون هناك تدخل بشري إلزامي؟
هذه الأسئلة يصعب أحيانًا احتواؤها بالكامل داخل القواعد التقليدية. لذلك، فإن وجود إطار خاص قد يحقق عدة وظائف:
أولًا: الوضوح
فالتشريع الخاص لا يكتفي بمعاقبة الخطأ بعد وقوعه، بل يحدد مسبقًا:
- ما الذي يجوز
- وما الذي يُقيَّد
- وما الذي يُحظر
- ومن تقع عليه واجبات الامتثال
ثانيًا: حماية الحقوق
إذا تُرك المجال بلا ضوابط واضحة، فإن الذكاء الاصطناعي قد يتحول من أداة كفاءة إلى أداة تمييز أو استبعاد أو مراقبة أو تغوّل غير مرئي.
ثالثًا: بناء الثقة
الثقة العامة لا تنشأ من وعود الشركات وحدها، بل من وجود قواعد تحمي الفرد وتحدد حدود السلطة التقنية.
رابعًا: الاستعداد المبكر
كثير من التشريعات تأتي متأخرة، بعد أن تكون الممارسة قد سبقت القانون بمسافة كبيرة. أما التنظيم الذكي المبكر، فيمنح المجتمعات فرصة للفهم والتوجيه قبل أن تتحول الوقائع إلى أمر واقع.
لكن هل التشريع الخاص هو الحل دائمًا؟
هنا يجب الحذر من رد الفعل السريع.
فليس كل وعي بالخطر يستدعي فورًا قانونًا ضخمًا وشاملًا يحمل اسم “قانون الذكاء الاصطناعي”. أحيانًا تكون المشكلة ليست في غياب النص، بل في غياب:
- الخبرة المؤسسية،
- والقدرة الرقابية،
- وفهم الاستخدامات الفعلية،
- والتنسيق بين القانونيين والتقنيين.
في بعض البيئات، قد يؤدي التسرع التشريعي إلى إنتاج نصوص:
- فضفاضة،
- أو منسوخة من نماذج أجنبية،
- أو متقدمة على بنية الدولة وقدرتها على التنفيذ،
- أو معيقة للابتكار دون أن تكون فعالة في الحماية.
لذلك، ليس السؤال فقط:
هل نحتاج إلى قانون خاص؟
بل أيضًا:
ما نوع القانون أو التنظيم الذي نحتاجه؟ وفي أي توقيت؟ وبأي فلسفة؟
ما الذي يحتاجه العالم العربي فعلًا؟
في تقديري، العالم العربي يحتاج بالتأكيد إلى تنظيم خاص وجاد للذكاء الاصطناعي، لكن ليس بالضرورة إلى نسخة متسرعة من قانون أجنبي، ولا إلى نص استعراضي يسبق الواقع.
ما يحتاجه فعلًا هو مقاربة تنظيمية تقوم على خمس ركائز:
1. تصنيف الأنظمة بحسب درجة الخطورة
ليس من المنطقي تنظيم أداة تلخيص نصوص بالطريقة نفسها التي يُنظم بها نظام يؤثر في التوظيف أو العدالة أو الأمن أو الائتمان.
لذلك، يجب أن يقوم أي تنظيم جاد على فكرة المخاطر.
2. حوكمة البيانات
لا معنى لتنظيم الذكاء الاصطناعي في بيئة تتعامل مع البيانات بضعف أو ارتجال.
فالمشكلة تبدأ غالبًا من البيانات نفسها:
- جودتها،
- انحيازها،
- شرعية جمعها،
- وآليات استخدامها.
3. الشفافية والحق في المعرفة
في بعض المجالات الحساسة، يجب أن يكون للأفراد حق واضح في معرفة أن قرارًا أو تقييمًا آليًا قد أثّر في وضعهم.
4. التدخل البشري في القرارات الحساسة
هناك مجالات لا ينبغي أن يُترك فيها القرار النهائي لمنطق النموذج وحده، مهما بلغت دقته.
5. مساءلة واضحة وقابلة للتطبيق
أي إطار قانوني بلا سلسلة مسؤولية واضحة سيتحول إلى مجرد إعلان مبادئ.
لماذا لا يكفي استيراد النموذج الأوروبي مثلًا؟
لأن كل تنظيم قانوني يولد داخل سياق مؤسسي وسياسي واقتصادي محدد.
ما يصلح في بيئة لديها:
- بنية بيانات متقدمة،
- أجهزة رقابة ناضجة،
- قضاء رقمي متطور،
- وسوق تقني عميق،
قد لا يعمل بالطريقة نفسها في بيئة أخرى ما زالت تبني:
- بنيتها الرقمية،
- أو مؤسساتها التنظيمية،
- أو قواعدها الخاصة بحماية البيانات.
هذا لا يعني رفض الاستفادة من التجارب المقارنة، بل يعني أن الاستفادة الحقيقية لا تكون بالنسخ، بل بـ الترجمة القانونية الذكية: أي فهم المنطق وراء التجربة الأجنبية، ثم إعادة بنائه بما يناسب السياق المحلي.
أين تكمن المعضلة العربية الحقيقية؟
المعضلة ليست فقط في نقص النصوص، بل في أن الذكاء الاصطناعي يدخل إلى فضاء عربي لم يُحسم فيه بعد عدد من الأسئلة الكبرى:
- ما حدود حماية البيانات؟
- ما مستوى الشفافية المقبول في القرارات الإدارية؟
- ما قدرة الجهات الرقابية على فهم النظم التقنية؟
- كيف يمكن الجمع بين الطموح الرقمي والحماية الحقوقية؟
- هل تملك المؤسسات العربية الكفاءات العابرة للتخصصات اللازمة لبناء هذا النوع من التنظيم؟
إذا لم تُطرح هذه الأسئلة بجدية، فقد يتحول أي تشريع خاص إلى قشرة قانونية رقيقة فوق واقع تقني لا يخضع فعليًا للضبط.
التشريع ليس نصًا فقط، بل بيئة كاملة
من الأخطاء الشائعة التعامل مع التشريع كأنه نهاية المسار.
في الحقيقة، التشريع في هذا المجال ليس سوى جزء من منظومة أوسع تشمل:
- السياسات العامة،
- المعايير الفنية،
- التدريب المؤسسي،
- القضاء،
- هيئات الرقابة،
- الجامعات،
- والخبرات التقنية القانونية المشتركة.
فإذا لم تُبنَ هذه البيئة، فإن النص وحده لن يكفي.
أما إذا بُنيت، فإن حتى التنظيم التدريجي قد يكون أكثر فعالية من قانون ضخم لا يجد من يطبقه.
خاتمة
هل يحتاج العالم العربي إلى تشريع خاص للذكاء الاصطناعي؟
إذا كان المقصود قانونًا متسرعًا، شاملًا، ومستوردًا على عجل، فالإجابة ليست بالضرورة نعم.
أما إذا كان المقصود إطارًا قانونيًا وتنظيميًا واضحًا، تدريجيًا، قائمًا على المخاطر، ويحمي الحقوق دون أن يقتل التطور، فالإجابة نعم، وبقوة.
الذكاء الاصطناعي لا ينتظر نضج النقاش القانوني، بل يتقدم بسرعة ويدخل إلى مجالات حساسة قبل أن تستعد له المؤسسات. ولهذا فإن أخطر ما يمكن أن يحدث ليس الإفراط في التنظيم فقط، بل أيضًا الفراغ التنظيمي الذي يسمح للتقنية بأن تعيد ترتيب السلطة والفرص والعلاقات الاجتماعية من دون مساءلة واضحة.
لهذا، فالسؤال الأهم لم يعد:
هل نحتاج إلى تشريع؟
بل:
