منوعات
نموذج DeepSeek V3.1 يقلب موازين الذكاء الاصطناعي بقدرة على معالجة نصوص بطول كتاب كامل
أطلقت شركة ديب سيك الصينية المتخصصة في الذكاء الاصطناعي الإصدار الجديد من نموذجها اللغوي الضخم DeepSeek V3.1، والذي يأتي مع زيادة عدد المعاملات إلى 685 مليار وتوسيع نافذة السياق إلى 128,000 رمز، أي ما يعادل قراءة كتاب من 300 إلى 400 صفحة دفعة واحدة.
وأوضحت الشركة أن التحديث الأبرز في V3.1 هو زيادة طول السياق، ما يمنح النموذج قدرة أكبر على التعامل مع النصوص الطويلة، سواء في إنتاج المحتوى المطول، أو تحليل الوثائق التقنية، أو إجراء المحادثات متعددة الخطوات، وقد أصبحت هذه القدرة الآن مفعلة رسميًا على جميع الواجهات.
ويستمر النموذج في استخدام بنية Mixture-of-Experts، حيث يتم تفعيل 37 مليار معامل لكل رمز فقط، ما يوفر كفاءة عالية في الأداء، ويتيح دعماً لتنسيقات دقة متعددة مثل BF16 وFP8 وF32، ما يجعله مرناً للتنفيذ في بيئات مختلفة. ويمكن للمطورين الوصول إلى النموذج عبر واجهة API أو منصة Hugging Face بموجب رخصة MIT مفتوحة المصدر.
وأحرز النموذج في اختبارات الأداء 71.6٪ في اختبار البرمجة Aider، متفوقاً على نموذج Claude Opus 4، كما أظهر تحسناً في مهام الرياضيات والمنطق، رغم أن بعض المستخدمين لاحظوا محدودية في قدرات الاستدلال مقارنة بالإصدار السابق R1-0528.
وتمثل هذه النسخة خطوة استراتيجية من الشركة، حيث أزالت ديب سيك كل الإشارات إلى نموذج R1، في إشارة إلى التحول نحو نموذج هجين موحد يجمع بين قدرات الاستدلال وغير الاستدلال ضمن بنية واحدة، بدلاً من الفصل بينهما كما في السابق.
وكان من المتوقع أن يكون الإصدار التالي هو النموذج R2، لتعزيز قدرات الاستدلال، إلا أن مشاكل تقنية في استخدام شرائح Ascend AI من هواوي، إضافة إلى بطء عمليات تصنيف البيانات، أجبرت الشركة على إطلاق V3.1 كخطوة جديدة، مع الاحتفاظ بإمكانية إطلاق R2 مستقبلًا بعد تجاوز العقبات التقنية.
يظل DeepSeek V3.1 حاليًا النموذج الرئيسي للشركة، مقدماً إطاراً موحداً للمهام التحليلية والمنطقية، ويعد أحدث دليل على تطور قدرات الذكاء الاصطناعي الصينية في مواجهة التحديات التقنية والسياسية