الدليل العملي لأقوى النماذج الذكاء الاصطناعي الصيني: أيها تستخدم ومتى تتوقف؟

لم يعد السؤال: هل تستطيع الصين اللحاق بالغرب في الذكاء الاصطناعي؟
السؤال الحقيقي أصبح: أي نموذج صيني سيسحب المستخدمين أولاً؟

احتجت مؤخراً إلى تحليل عقد قانوني طويل، فأدخلته في Claude وانتهيت. لكن زميلك في الفريق أدخله في DeepSeek وحصل على نفس الجودة تقريباً، بتكلفة أقل من ربع ما دفعته. لم تكن تعلم أن هذا النموذج موجود. هذا المقال لمن وجد نفسه في هذا الموقف أو يريد ألا يجد نفسه فيه مرة أخرى.

في أبريل 2026، تجاوزت النماذج الصينية مجتمعةً 45% من حجم الاستخدام على منصة OpenRouter العالمية، بعد أن كانت حصتها أقل من 2% قبل عام واحد فقط. هذا ليس رقم انتشار عادي. هذا تحول في كيفية اتخاذ المطورين والباحثين والكتّاب قراراتهم، وكثير منهم لم يلحظوا التحول حين وقع.

المشكلة الحقيقية ليست أن الذكاء الاصطناعي الصيني موجودة. المشكلة أن وكل واحد منها يدّعي أنه “الأفضل”، وكلمة “الأفضل” لا تعني شيئاً بدون سياق.

قبل القائمة: سؤال يجب أن تجيب عنه

ما الذي تحتاجه فعلاً؟

برمجة؟ تحليل نصوص؟ أتمتة مهام؟ محادثة عربية بجودة عالية؟ سعر منخفض عند الحجم الكبير؟ نموذج يعمل محلياً على جهازك دون إرسال بيانات؟ كل إجابة تقودك إلى نموذج مختلف. من يبدأ بالسؤال الخاطئ “ما أقوى نموذج صيني؟” ينتهي باختيار غير مناسب.

DeepSeek: النموذج الذي أسقط أسهم Nvidia

في يناير 2025، ظهر DeepSeek-R1 وأسقط سهم Nvidia أكثر من 18% في يوم واحد. في الرابع والعشرين من أبريل 2026، يصدر DeepSeek V4 وهو اليوم الذي يُكتب فيه هذا المقال.

DeepSeek V4-Pro يأتي بـ 1.6 تريليون معامل كلي مع 49 مليار معامل نشط لكل رمز، ونافذة سياق مليون رمز، وترخيص MIT الكامل. الرقم الذي يجعله لافتاً ليس هذا: على معيار SWE-bench للبرمجة يسجل 80.6%، بفارق 0.2 نقطة فقط عن Claude Opus 4.6 الذي يكلف $25 لكل مليون رمز في المخرجات. DeepSeek V4-Pro يكلف $3.48. سبعة أضعاف في السعر، صفر تقريباً في فارق الأداء على البرمجة.

الابتكار المعماري الأعمق هو نظام الانتباه الهجين الجديد، الذي يُخفض متطلبات الحوسبة إلى 27% مما كان يحتاجه V3.2 عند السياق المليوني. وكأن المهندسين قرروا أن كفاءة الهندسة بديل عن ضخامة الإنفاق.

حد مهم لا تتجاهله: DeepSeek لا يعمل بكامل قدرته على معالجة اللغة العربية مقارنةً بالإنجليزية والصينية. إذا كانت مهمتك تحليل نصوص عربية دقيقة أو كتابة محتوى احترافي بالعربية، جرّبه أولاً على عينة صغيرة قبل الاعتماد الكامل.

مناسب لك إذا: تبرمج كثيراً، تعمل على بيانات كبيرة، أو تحتاج تكاملاً مع العتاد الصيني لأن Huawei أعلنت أن Ascend 950 يدعمه بالكامل.

Qwen من Alibaba: الأوسع انتشاراً والأخف قيداً

942 مليون تنزيل حتى مارس 2026، أكثر من ضعف المجموع المشترك لأقرب ثمانية منافسين. هذا الرقم لا يقول شيئاً عن الجودة، لكنه يقول الكثير عن الثقة المكتسبة لدى المطور العالمي.

عائلة Qwen تحمل ترخيص Apache 2.0 بلا قيود تجارية، وهذا وحده يجعلها الخيار الافتراضي لأي مشروع يريد حرية الاستخدام التجاري الكامل. Qwen 3.5-397B يدعم الرؤية والنص ومعالجة الفيديو، وعلى معيار LegalBench يسجل 85.10% مقابل 85.30% لـ Claude Opus 4.6. أقل من نصف نقطة في تطبيقات قانونية متخصصة. Qwen 3.6 Plus الأحدث يتصدر Terminal-Bench 2.0 على Claude Opus 4.6 مباشرةً، 61.6% مقابل 59.3%.

الفارق بين Qwen ومنافسيه ليس دائماً في الأداء المطلق، بل في نضج التوثيق والمجتمع. إذا واجهت مشكلة في التكامل، ستجد من سبقك وواجه نفس المشكلة وحلّها.

مناسب لك إذا: تبني منتجاً تجارياً، تريد مرونة الترخيص الكاملة، أو تحتاج نموذجاً متعدد الوسائط بسياق مليون رمز.

GLM من Zhipu AI: النموذج الذي يعمل بدون Nvidia

كل النماذج الكبرى في هذه القائمة تحتاج رقائق Nvidia للتدريب والنشر. GLM-5 استثناء وحيد: مُدرَّب بالكامل على رقائق Huawei Ascend 910B.

هذا ليس تفصيلة تقنية. في سياق جيوسياسي يرى قيوداً متصاعدة على تصدير الرقائق بين القوى الكبرى، GLM-5.1 من Zhipu يمثل الخيار الوحيد الذي يضمن استمرارية النشر في أي سيناريو محتمل. يسجل Elo 1530 في قوائم Arena للبرمجة، ويحتل المركز الثالث عالمياً في قائمة تطوير الويب الوكيلي وفق Arena.ai، بترخيص MIT وسعر اشتراك ثلاثة دولارات شهرياً.

السلبية الواضحة: نافذة السياق أقل من منافسيه المباشرين، ولا يزال أداؤه خارج الصين وخارج الإنجليزية يحتاج اختباراً جادّاً قبل الاعتماد عليه.

مناسب لك إذا: تعمل في بيئة تشترط الاستقلالية عن سلاسل التوريد الأمريكية، أو تريد نموذج مصدر مفتوح بأداء مرتفع وتكلفة اشتراك ثابتة.

Kimi من Moonshot AI: حين تمتد الجلسة لساعات

سؤال عملي بسيط: إذا أردت أن يقرأ النموذج مشروعك البرمجي الكامل، أو يراجع مئة صفحة بحثية دفعة واحدة، مع الحفاظ على تماسك السياق طوال الجلسة، فما الذي تختار؟

Kimi K2.6 صُمّم تحديداً لهذه الحالة. ترقية K2.5 الرئيسية كانت الاستقرار الوكيلي في الجلسات الطويلة، لا رفع أرقام المعايير القياسية. يسجل 66.7% على Terminal-Bench 2.0 الذي يختبر الأداء الفعلي في بيئات إنتاجية حقيقية، لا في بيئات اختبار مُعدّة. وعلى CorpFin، معيار المالية المؤسسية، يتجاوز Claude Opus 4.6 بنسبة 68.26% مقابل أقل منه.

جانب سلبي لا يُذكر كثيراً: Kimi يسجل نقاطاً سلبية على مؤشر AA-Omniscience للمعرفة، ما يعني معدل هلوسة أعلى من المتوسط. في مهام التحليل الدقيق التي تتطلب دقة واقعية، استخدم التحقق الإضافي.

مناسب لك إذا: تعمل على مشاريع طويلة ومتشعبة، أو تحتاج تحليلاً مالياً مؤسسياً على وثائق كثيرة.

MiMo من Xiaomi: النموذج الأكثر استخداماً الذي لا يعرفه أحد

في مارس 2026، ظهر نموذج مجهول الهوية على OpenRouter تحت اسم “Hunter Alpha”. لم يعرف أحد من أين جاء. خلال أسابيع، أصبح النموذج الأكثر استخداماً على المنصة. ثم كشفت Xiaomi أنه نموذجها.

اليوم، Xiaomi وحدها تعالج 4.21 تريليون رمز أسبوعياً على OpenRouter، أي 21.1% من الحجم الكلي، مقابل 7.5% لـ OpenAI. هذه النسبة لا تُفسَّر بأداء استثنائي، بل بسعر تنافسي وسهولة وصول وموثوقية كافية لأغلب الحالات.

MiMo-V2.5-Pro الصادر الأسبوع الماضي يضيف تكاملاً متعدد الوسائط حقيقياً: نص وصورة وصوت وفيديو في نموذج واحد، بتكلفة $1.00/$3.00 لكل مليون رمز، مع سياق مليون رمز. يسجل 57.2% على SWE-bench Pro ويضاهي Opus 4.6 في الأعباء الوكيلية بتكلفة أقل بـ 80%.

الحد الواضح: MiMo ليس الخيار الأول في مهام التحليل العميق أو الكتابة الاستنتاجية الدقيقة. حجم الاستخدام العالي لا يعني قمة الأداء.

مناسب لك إذا: تحتاج نموذجاً متعدد الوسائط بسعر منخفض على الحجم الكبير.

MiniMax: الهدوء والكفاءة

230 مليار معامل فقط. في سوق يتنافس فيه الجميع بالتريليونات، هذا رقم يبدو متواضعاً. لكن MiniMax M2.5 يسجل 80.2% على SWE-bench، وهو رقم يُساوي أو يتجاوز نماذج أكبر منه بأضعاف. المبدأ الذي يُثبته: النموذج المُحسَّن جيداً يتفوق على النموذج المتضخّم.

السعر هو الحجة الكبرى: MiniMax M2.5 أرخص بـ 16.7 ضعفاً من Claude Opus 4.6 على المدخلات، وبـ 22.7 ضعفاً على المخرجات. إذا كنت تُشغّل آلاف الطلبات يومياً لمهام برمجية أو مالية، هذا الفارق يترجم إلى أرقام فعلية في ميزانية الشركة.

مناسب لك إذا: تحتاج أفضل نسبة سعر/أداء في البرمجة والتطبيقات المالية، مع حجم طلبات مرتفع.

جدول الاختيار السريع

الأولويةالنموذج الأنسبالتحفظ الرئيسي
أداء برمجي بأقل تكلفةDeepSeek V4-Proعربية أضعف نسبياً
توزيع تجاري حر بلا قيودQwen 3.5/3.6أداء متوسط في السياقات الطويلة جداً
استقلالية عن سلاسل التوريدGLM-5.1سياق أقل من المنافسين
جلسات وكيلية طويلةKimi K2.6معدل هلوسة أعلى
متعدد الوسائط بسعر منخفضMiMo-V2.5-Proليس الأول في التحليل الدقيق
حجم كبير بميزانية محدودةMiniMax M2.5/M2.7ترخيص شبه مفتوح فقط

ما لا يقوله جدول المقارنة

ثمة مسألة يغفلها كثيرون حين يقارنون النماذج الصينية بالغربية: مسألة اللغة العربية.

معايير مثل SWE-bench وGPQA صُمّمت بالإنجليزية وتُقيّم بالإنجليزية. نموذج يسجل 80% عليها ليس مضموناً أن يُقدّم 80% من الجودة في سياق عربي، خاصةً حين يتعلق الأمر بالفهم الثقافي والمصطلحات القانونية والتحليل الاقتصادي الإقليمي. النماذج الصينية المُحسَّنة للغة الصينية قد تُقدّم أداءً مقبولاً في الإنجليزية لكنها تتفاوت بشكل ملحوظ في العربية.

التجربة العملية قبل الاعتماد الكامل ليست نصيحة مزاجية. هي خطوة لا يمكن تجاوزها لمن يعمل على محتوى عربي متخصص.

لماذا الآن تحديداً؟

سؤال يستحق التأمل: لماذا انتشرت هذه النماذج في 2025 و2026 تحديداً، لا قبلها؟

الإجابة ليست فقط في جودة النماذج. قيود الصادرات الأمريكية على الرقائق أجبرت المختبرات الصينية على ابتكار كفاءات معمارية حقيقية بدلاً من شراء القوة الحوسبية. نتيجتها نماذج تُحقق أداءً مقارباً بتكلفة حوسبة أقل بكثير، وهذا بالضبط ما يحتاجه المطور الباحث عن البديل الاقتصادي. التنافس الأمريكي الصيني في الذكاء الاصطناعي أنتج بشكل غير مقصود نماذج أفضل كفاءةً لكل مستخدم في أي مكان.

الأمر لا يتعلق بالولاء لأمريكا أو الصين. يتعلق بفهم ما تحتاجه فعلاً وإيجاده في المكان الصحيح.

ما المهمة التي تكرر استخدام النموذج فيها أكثر من غيرها، وهل جربت حساب تكلفتها على نموذج مختلف؟

فريق محتوى 0.4
فريق محتوى 0.4

باحث قانوني مهتم بالتشريعات الرقمية والذكاء الاصطناعي، ومؤسس منصة 0.4 mohtawa. يعمل على تحليل التقاطع بين القانون والتقنية لتعزيز السيادة الرقمية في العالم العربي

المقالات: 103