هل يمكن الوثوق بنصيحة الذكاء الاصطناعي؟ حين تشاركك الآلة حياتك

طلب نصيحة الذكاء الاصطناعي أصبحت أول ما يلجأ إليه الملايين في أزماتهم الطبية والنفسية والقانونية. قبل الطبيب. والمحامي . و أحيانًا قبل الأسرة.

في عام 2023، نشرت صحيفة The Guardian تقريرًا عن مستخدم بلجيكي في الثلاثينيات كان يعاني من قلق حاد إزاء تغير المناخ. على مدى أسابيع، لجأ إلى روبوت محادثة اسمه Eliza للتحدث عن مخاوفه. لم يكن الروبوت يُحذّره أو يحيله إلى متخصص. كان يستمع ويُشجّع ويُعمّق انغماسه في أفكاره. حتى انتهت القصة بوفاته لاحقًا. عائلته قالت إن المحادثات مع الروبوت سبقت مباشرة قراره.

النصائح من الذكاء الاصطناعي باتت ظاهرة يومية. فملايين الناس يسألون يوميا ChatGPT وClaude وGemini عن أعراض طبية وخيارات قانونية وأزمات عاطفية وقرارات مصيرية. وهذا ليس بالضرورة خطأ في كل حالة. فالوصول السريع إلى معلومة صحية أولية أو شرح لمصطلح قانوني أو مساحة للتفكير بصوت عالٍ له قيمة حقيقية لملايين لا يجدون بديلًا متاحًا. لكن حين تتجاوز العلاقة هذا الحد وتتحول إلى اعتماد كامل على آلة في قرارات مصيرية، لا يوجد طبيب يُحاسَب ولا محامٍ يُساءَل ولا تنظيم يُطبَّق.

لماذا يسأل الناس الآلة

السؤال الأول ليس عن الخطر. بل عن السبب.

طبيب أو محامٍ أو معالج نفسي يكلّف مالًا وزمنًا وجهدًا. أما الأداة فمتاحة في أي وقت ولا تحكم عليك ولا تتذكر ما قلته في الجلسة السابقة إذا لم تُرد ذلك. وفي مجتمعات كثيرة يُعدّ طلب المساعدة النفسية وصمة اجتماعية، فيصبح الذكاء الاصطناعي ملاذًا لمن لا يجرؤ على الاعتراف بما يعانيه أمام بشر.

في المنطقة العربية تتضاعف هذه الأسباب. نقص في الأطباء النفسيين نسبةً إلى عدد السكان، وتكاليف مرتفعة للاستشارات القانونية والطبية، وحواجز اجتماعية تجعل الاعتراف بالأزمة أصعب من تحملها. وحين يغيب الدعم المؤسسي ويثقل الضغط الاجتماعي، يصبح الذكاء الاصطناعي مساحة لا يحكم عليك فيها أحد ولا يُخبر أحدًا. هذا لا يعني أن اللجوء إليه غير مفهوم. بل يعني أن المنظومة الصحية والقانونية والاجتماعية تفشل في توفير ما يحتاجه الناس، فتملأ الآلة الفراغ.

المشكلة ليست في الاستخدام المحدود. فالمشكلة حين يتحول الاستخدام الوقتي إلى اعتماد كامل.

لماذا تبدو الآلة واثقة حتى عندما تخطئ

هذه نقطة يتجاوزها كثيرون لكنها مفتاح فهم المشكلة.

النماذج اللغوية الكبرى لا “تفهم” النصيحة التي تُعطيها. هي تتنبأ بالكلمة التالية الأكثر احتمالًا في السياق بناءً على ما تعلّمته من مليارات النصوص. ولهذا تبدو واثقة حتى حين تكون مخطئة. لا يوجد داخلها شيء يُدرك أن الإجابة خاطئة أو أن السؤال خطير. حين تسألها عن أعراض مرض فإنها تُجيب بنفس الآلية التي تُجيب بها حين تسألها عن وصفة طعام: تجميع للمعلومات الأكثر شيوعًا في السياق، مُقدَّمة بلغة سلسة ومنظمة توحي باليقين.

وهذا بالضبط ما يجعل الخطأ الطبي أو القانوني الصادر عن ذكاء اصطناعي أخطر من خطأ الإنسان. الإنسان حين يشك يُبدي شكًا. الأطباء يقولون “قد يكون” والمحامون يقولون “في الغالب”. الآلة تُجيب بنفس النبرة سواء كانت متأكدة أو لا. والثقة الزائفة هي الخطر الأكبر.

حين تكون النصيحة خاطئة

في عام 2023، كشفت دراسة نشرتها مجلة JAMA Internal Medicine أن نماذج ذكاء اصطناعي كبرى أعطت توصيات طبية خاطئة أو مضللة في نسبة ملحوظة من الحالات التي اختُبرت. والأخطر أن صياغة الإجابات كانت تُوحي بيقين علمي لا يعكس الواقع.

وفي السياق القانوني، وقعت قضية موثقة أمام محاكم أمريكية حين استشهد محامٍ بأحكام قضائية سابقة استخرجها من ChatGPT فتبيّن أن هذه الأحكام لم تكن موجودة أصلًا. المحكمة وجّهت توبيخًا رسميًا للمحامي. لكن المستخدم العادي الذي يعتمد على نصيحة قانونية مختلقة لن يجد قاضيًا ينبّهه. سيتصرف بناءً على معلومة خاطئة ويتحمل العواقب وحده.

والأمر لا يقتصر على الأخطاء الفردية. حين تنتشر معلومة طبية خاطئة عبر ملايين المحادثات اليومية مع أدوات الذكاء الاصطناعي فالضرر يتراكم بصمت. لا حادثة واحدة تُرصد ولا إحصاء يجمع المتضررين. الخطأ يتوزع وينتشر قبل أن يُكتشف.

المشكلة ليست فقط في وقوع الخطأ. بل في أن المستخدم قد لا يعرف أنه وقع أصلًا فيه .

من يتحمل المسؤولية

حين تلجأ إلى طبيب ويُخطئ، يملك القانون في معظم الدول إطارًا للمساءلة: دعوى إهمال طبي وهيئات ترخيص وتأمين مهني. وحين تلجأ إلى محامٍ ويُسيء التمثيل، يوجد نظام تأديبي ومسار للتعويض.

لكن حين تلجأ إلى ChatGPT ويُعطيك نصيحة طبية خاطئة تضرك، من تُقاضي؟

شروط الاستخدام لدى OpenAI وGoogle صريحة: الخدمة تُقدَّم “كما هي” وأي استخدام لأغراض طبية أو قانونية أو نفسية يقع على مسؤولية المستخدم وحده. وبعض هذه الشركات تضع تحذيرات داخل التطبيق وتُوجّه المستخدمين نحو خطوط الدعم في حالات الأزمات النفسية. لكن هذه الخطوات طوعية ومتفاوتة وغير ملزمة قانونًا. والفارق جوهري بين أن تختار شركة وضع تحذير وبين أن يُلزمها القانون بذلك.

الفجوة التشريعية العربية هنا أعمق مما هي في الغرب. فقانون الذكاء الاصطناعي الأوروبي يُصنّف الأنظمة التي تؤثر في صحة الناس كأنظمة عالية المخاطر تخضع لرقابة مسبقة. أما في الدول العربية فلا يوجد حتى الآن إطار تشريعي يُحدد ما إذا كان تقديم نصيحة طبية أو نفسية عبر ذكاء اصطناعي يُعدّ ممارسة طب بدون ترخيص، أو ما إذا كانت الشركة المشغّلة تتحمل أي مسؤولية قانونية. وكل يوم يمر دون هذا الإطار يعني قرارات تُتخذ وأضرار تقع دون أن يكون ثمة من يسأل.

الصحة النفسية والآلة التي لا تتعب

تطبيقات مثل Replika صُمّمت صراحةً لتكون رفيقًا عاطفيًا. ملايين يستخدمونها يوميًا وبعضهم يُعلنون أن هذه الشخصية الرقمية هي الوحيدة التي تفهمهم. وبينما يزداد اعتمادهم عليها يتراجع تواصلهم مع البشر الحقيقيين.

و الدراسات في هذا المجال لا تزال مبكرة لكنها تُشير إلى نمط مقلق: الاعتماد على الذكاء الاصطناعي للدعم العاطفي قد يُخفف القلق على المدى القصير لكنه يُضعف القدرة على بناء علاقات إنسانية حقيقية على المدى البعيد. الآلة لا ترفضك ولا تتعب منك ومتاحة دائمًا. وهذا مُريح على المدى القصير ومقلق على المدى البعيد. لأن العلاقات الإنسانية الحقيقية تحتمل الرفض والخلاف والتوتر، وهي التي تبني المرونة النفسية الفعلية لا الدعم الآلي الذي يتجنب الاحتكاك بطبيعته.

ثمة فارق جوهري بين آلة تُجيب على سؤالك وبين آلة تتشكّل شيئًا فشيئًا لتقول ما تريد سماعه. النموذج الأول قد يكون مفيدًا. الثاني يُعيد تشكيل صورتك عن العلاقة ذاتها.

في السياق العربي يأخذ هذا بُعدًا إضافيًا. شباب يعيشون في مجتمعات تضغط عليهم بتوقعات اجتماعية عالية وتُقيّد قدرتهم على التعبير عن أزماتهم بحرية يجدون في الذكاء الاصطناعي مساحة لا يحكم عليهم فيها أحد. هذا مفهوم. لكن الحل الحقيقي ليس في الآلة.

ما الذي يجب أن يتغير

ثلاثة مستويات لا تحتمل التأجيل.

الشفافية الإلزامية. كل تطبيق يُقدّم نصائح تمس الصحة أو القانون أو الصحة النفسية يجب أن يُفصح بوضوح في واجهة الأداة نفسها لا في صفحة شروط الاستخدام أنه ليس بديلًا عن متخصص. ليس إشعارًا يظهر مرة واحدة ويُغلق. بل تذكيرًا حاضرًا في كل محادثة تمس هذه المجالات.

التصنيف التشريعي. الدول العربية بحاجة إلى قرار واضح: هل تقديم نصيحة طبية أو نفسية عبر ذكاء اصطناعي يخضع لقوانين مزاولة المهن؟ ومن يتحمل المسؤولية حين يقع الضرر؟ هذا السؤال لم يُطرح بجدية في أي عاصمة عربية حتى الآن. والتأخر في طرحه لا يعني أن المشكلة غائبة. يعني أنها تتراكم بصمت.

الاستثمار في البديل الحقيقي. فالناس لا يلجؤون إلى الذكاء الاصطناعي لأنهم يفضّلونه على الإنسان. بل يلجؤون إليه لأن البديل الإنساني غير متاح أو مكلف أو مشحون اجتماعيًا. فتوفير خدمات دعم نفسي مجانية ومتاحة ومنزوعة الوصمة الاجتماعية هو الحل الحقيقي. والذكاء الاصطناعي يمكن أن يكون جسرًا نحو هذا الدعم لا بديلًا عنه. لكن هذا يحتاج قرارًا سياسيًا وتشريعيًا واضحًا بشأن الدور الذي تُؤدّيه الآلة وحيث ينتهي.

الذكاء الاصطناعي لن يتوقف عن الإجابة. لأنه لا يُدرك الفرق بين سؤال عابر وسؤال مصيري. هذا الفرق يجب أن يدركه القانون وأن يحمله المجتمع وأن يُدركه كل من يفتح تطبيقًا ليسأله عن حياته.