MiniMax-01

MiniMax-01: نموذج لغة متقدم بـ ٤٥٦ مليار معامل

اختبر نموذج لغة قوي يتميز بالانتباه الهجين وهندسة MoE، ويتفوق في مهام الاستدلال والرياضيات والبرمجة مع طول سياق يصل إلى ٤ مليون رمز

٤٥٦ مليار معامل
٤٥,٩ مليار معامل نشط
سياق ٤ مليون رمز

تكامل مجاني للموقع

قم بدمج واجهة محادثة الذكاء الاصطناعي المتقدمة في موقعك باستخدام كود iframe بسيط. لا يتطلب التسجيل.

<iframe src="https://www.minimax01.com/embed" width="100%" height="600px" frameborder="0"></iframe>

جرب محادثة MiniMax-01

الميزات الرئيسية

اكتشف القدرات القوية لـ MiniMax-01

الهندسة المعمارية الهجينة

مزيج مبتكر من Lightning Attention وSoftmax Attention وMixture-of-Experts (MoE) مع إجمالي ٤٥٦ مليار معامل و٤٥,٩ مليار معامل نشط لكل توكن

  • هندسة معمارية من ٨٠ طبقة
  • ٦٤ رأس انتباه
  • ٣٢ شبكة خبيرة
  • استراتيجية التوجيه للأفضل-٢

أداء المعايير القياسية

نتائج متميزة عبر معايير متعددة تشمل MMLU (٨٨,٥٪)، وMMLU-Pro (٧٥,٧٪)، وGSM8K (٩٤,٨٪)

  • استدلال رياضي قوي
  • قدرات برمجية متقدمة
  • حل المشكلات المعقدة
  • فهم السياق الطويل

معالجة السياق الطويل

دعم حتى ٤ ملايين توكن أثناء الاستدلال ومليون توكن أثناء التدريب

  • نافذة سياق موسعة
  • معالجة فعالة للتوكن
  • فهم المستندات
  • تحليل واسع النطاق

الانتباه المتقدم

آلية انتباه هجينة مع softmax attention بعد كل ٧ طبقات من lightning attention

  • فهم معزز للسياق
  • معالجة فعالة للمعلومات
  • توزيع متوازن للانتباه
  • أداء محسن

الشبكات الخبيرة

٣٢ شبكة خبيرة متخصصة مع بُعد خفي ٩٢١٦ واستراتيجية توجيه فعالة

  • معالجة متخصصة
  • توجيه ديناميكي
  • تحسين المهام
  • حوسبة فعالة

الهندسة المعمارية للنموذج

هندسة معمارية متطورة مصممة للأداء والكفاءة المثالية

  • الحجم الخفي: ٦١٤٤
  • حجم المفردات: ٢٠٠,٠٦٤
  • ترميز موضعي RoPE
  • مشاركة معلمات متقدمة

تطبيقات متعددة الاستخدامات

قدرات شاملة عبر مجالات متنوعة تشمل الرياضيات والبرمجة والاستدلال

  • الحساب الرياضي
  • توليد الشيفرة البرمجية
  • الاستدلال المعقد
  • استرجاع المعرفة

تحسين الأداء

محسّن بشكل كبير للتدريب والاستدلال باستخدام تقنيات متقدمة

  • تنشيط فعال للمعلمات
  • توزيع متوازن للحمل
  • استخدام محسن للذاكرة
  • سرعة استدلال عالية

إنجازات MiniMax-01

أداء رائد في مهام اللغة والرؤية

أداء متميز في المقاييس

حقق MiniMax-01 نتائج متميزة في مختلف المقاييس، بما في ذلك ٨٨,٥٪ في MMLU، و٧٥,٧٪ في MMLU-Pro، و٩٤,٨٪ في GSM8K، مما يظهر قدرات قوية في الاستدلال وحل المشكلات.

هندسة معمارية متقدمة

يمتلك MiniMax-01 ٤٥٦ مليار معامل، مع تنشيط ٤٥,٩ مليار معامل لكل رمز، ويجمع بين Lightning Attention وSoftmax Attention وتقنية MoE لتحقيق الأداء الأمثل.

معالجة النصوص الطويلة

يدعم حتى ٤ ملايين رمز أثناء الاستدلال، ومليون رمز أثناء التدريب، مما يتيح معالجة فعالة للمستندات الكبيرة والمهام المعقدة.

قدرات الرؤية

يوسع MiniMax-VL-01 قدرات النموذج في معالجة الرؤية، مع دعم دقة ديناميكية من ٣٣٦×٣٣٦ إلى ٢٠١٦×٢٠١٦، محققاً أداءً قوياً في مهام الرؤية.

مقاييس أداء MiniMax-01

المعرفة العامة والاستدلال

MMLU (٨٨,٥٪)
DROP (٨٧,٨٪)

البرمجة والتطوير

HumanEval (٨٦,٩٪)
MBPP (٧١,٧٪)

الاستدلال الرياضي

GSM8K (٩٤,٨٪)
MATH (٧٧,٤٪)

المواصفات التقنية

استكشف الهندسة المعمارية المتقدمة وقدرات MiniMax-01

تفاصيل الهندسة المعمارية لـ MiniMax-01

هندسة عصبية متقدمة تجمع بين Lightning Attention و MoE

٤٥٦ مليار معامل إجمالي مع ٤٥,٩ مليار معامل نشط لكل رمز
٨٠ طبقة مع آلية انتباه هجينة
٦٤ رأس انتباه مع بُعد رأس ١٢٨
٣٢ خبير مع بُعد خفي ٩٢١٦
استراتيجية التوجيه للأفضل-٢ لـ MoE
الحجم الخفي: ٦١٤٤
حجم المفردات: ٢٠٠,٠٦٤
ترميز موضعي RoPE

أبحاث MiniMax-01

تطوير الذكاء الاصطناعي من خلال الهندسة المعمارية والتقنيات المبتكرة

الهندسة المعمارية الهجينة

مزيج ثوري من Lightning Attention وSoftmax Attention وهندسة Mixture-of-Experts (MoE) مع استراتيجيات متوازية متقدمة

معالجة السياق الطويل

قدرات سياق موسعة تدعم حتى ٤ ملايين رمز أثناء الاستدلال من خلال تقنيات مبتكرة مثل LASP+ وانتباه الحلقة متغير الطول

التوسع الفعال

استراتيجيات متوازية متقدمة تشمل توازي تسلسل الانتباه الخطي المحسن (LASP+) وتوازي الخبراء التنسوري (ETP)

الورقة التقنية

اقرأ ورقتنا البحثية 'MiniMax-01: توسيع نماذج الأساس باستخدام Lightning Attention' التي تفصل هندستنا المعمارية المبتكرة وإنجازاتنا.

قراءة الورقة

حول MiniMax

تطوير الذكاء الاصطناعي من خلال الهندسة المبتكرة

نظرة عامة عن الشركة

تكرس MiniMax جهودها لتطوير نماذج الذكاء الاصطناعي المتقدمة من خلال الهندسة المبتكرة والبحث المتقدم في آليات الانتباه وأنظمة الخبراء.

التقنية الأساسية

تجمع نماذجنا الرائدة بين انتباه البرق وانتباه Softmax وهندسة مزيج الخبراء (MoE) لتحقيق أداء متفوق في مختلف المهام.

تنزيل نماذج MiniMax-01

اختر بين نماذج MiniMax-Text-01 وMiniMax-VL-01

MiniMax-Text-01

نموذج لغة متقدم مع انتباه هجين وهندسة MoE

نص
  • ٤٥٦ مليار معامل إجمالي
  • ٤٥,٩ مليار معامل نشط
  • طول سياق ٤ مليون رمز
  • هندسة معمارية بـ ٨٠ طبقة
تنزيل نموذج النص

MiniMax-VL-01

نموذج الرؤية واللغة مبني على MiniMax-Text-01

رؤية ولغة
  • ٣٠٣ مليون معامل ViT
  • دقة ديناميكية
  • من ٣٣٦×٣٣٦ إلى ٢٠١٦×٢٠١٦
  • معالجة بصرية متقدمة
تنزيل نموذج الرؤية واللغة

تعليمات التثبيت

الوصول إلى النماذج عبر Hugging Face:

# For Text Model
git lfs install
git clone https://huggingface.co/MiniMaxAI/MiniMax-Text-01

# For VL Model
git lfs install
git clone https://huggingface.co/MiniMaxAI/MiniMax-VL-01

خيارات نشر MiniMax-01

خيارات التكميم

دعم تكميم int8 مع وحدات متخصصة للأداء الأمثل

  • تكميم الأوزان int8
  • تحويل انتقائي للوحدات
  • استخدام محسّن للذاكرة

نشر متعدد وحدات معالجة الرسومات

توزيع فعال عبر وحدات معالجة رسومات متعددة مع استراتيجيات متوازية متقدمة

  • تكوين خريطة الأجهزة
  • توزيع الطبقات
  • توازن الحمل

تحميل النموذج

خيارات تحميل مرنة مع دعم bfloat16 وإدارة المخزن المؤقت

  • دقة bfloat16
  • تفريغ المخزن المؤقت
  • تخطيط مخصص للأجهزة

إعدادات التوليد

معلمات توليد قابلة للتكوين للتحكم الأمثل في المخرجات

  • حدود مخصصة للرموز
  • إدارة ذاكرة التخزين المؤقت
  • تنسيق الاستجابات

كيفية استخدام MiniMax-01

طرق متعددة للوصول واستخدام قدرات MiniMax-01

الخيار 1

اختر طريقة الوصول

اختر بين واجهة المحادثة عبر الإنترنت (Hailuo AI)، أو منصة واجهة برمجة التطبيقات، أو الوصول المباشر للنموذج عبر Hugging Face

الخيار 2

المحادثة عبر الإنترنت

قم بزيارة www.hailuo.ai لبدء المحادثة مع MiniMax-01 فوراً - لا يتطلب التسجيل

الخيار 3

تكامل واجهة برمجة التطبيقات

قم بالوصول إلى منصة واجهة برمجة التطبيقات على intl.minimaxi.com للحصول على وثائق المطورين وأدلة التكامل

الخيار 4

نشر النموذج

قم بتنزيل ونشر النماذج من Hugging Face مع دعم لمهام النص والرؤية واللغة

الأسئلة الشائعة

أسئلة شائعة حول MiniMax-01

ما هي الهندسة المعمارية لـ MiniMax-01؟

يتميز MiniMax-01 بهندسة معمارية هجينة تجمع بين Lightning Attention وSoftmax Attention وMixture-of-Experts (MoE). يحتوي على ٤٥٦ مليار معامل إجمالي مع تنشيط ٤٥,٩ مليار معامل لكل رمز، و٨٠ طبقة، و٦٤ رأس انتباه.

ما هو طول السياق في MiniMax-01؟

يدعم MiniMax-01 حتى ٤ مليون رمز أثناء الاستدلال ومليون رمز أثناء التدريب، مما يتيح المعالجة الفعالة للمستندات الطويلة والمهام المعقدة.

كيف يؤدي MiniMax-01 في المقاييس المعيارية؟

يحقق MiniMax-01 نتائج قوية في مختلف المقاييس، بما في ذلك ٨٨,٥٪ في MMLU، و٧٥,٧٪ في MMLU-Pro، و٩٤,٨٪ في GSM8K، مما يظهر قدرات ممتازة في الاستدلال وحل المشكلات.

ما هو MiniMax-VL-01؟

MiniMax-VL-01 هو نموذج الرؤية واللغة لدينا المبني على MiniMax-Text-01. يتميز بمحول رؤية (ViT) بـ ٣٠٣ مليون معامل ويدعم دقة ديناميكية من ٣٣٦×٣٣٦ إلى ٢٠١٦×٢٠١٦.

كيف يمكنني الوصول إلى MiniMax-01؟

يمكنك الوصول إلى MiniMax-01 من خلال واجهة المحادثة عبر الإنترنت (Hailuo AI)، أو منصة واجهة برمجة التطبيقات (intl.minimaxi.com)، أو تنزيل النماذج من Hugging Face.

ما هي خيارات النشر المتاحة؟

يدعم MiniMax-01 خيارات نشر متنوعة تشمل تكميم int8، والتوزيع على وحدات معالجة رسومات متعددة، والتحميل المرن مع دعم bfloat16.

ما هي متطلبات الأجهزة؟

يمكن نشر النموذج على وحدات معالجة رسومات متعددة مع تخطيط مخصص للأجهزة وتوازن الحمل للأداء الأمثل.

هل هناك واجهة برمجة تطبيقات متاحة؟

نعم، نوفر منصة واجهة برمجة تطبيقات شاملة على intl.minimaxi.com مع وثائق للمطورين وأدلة التكامل.

ابدأ مع MiniMax-01

جرب المحادثة عبر الإنترنت

اختبر قدرات MiniMax-01 من خلال واجهة محادثة Hailuo AI

بدء المحادثة

الوصول إلى واجهة برمجة تطبيقات MiniMax

قم بدمج قدرات MiniMax-01 في تطبيقاتك من خلال منصة المطورين لدينا

زيارة المنصة

استكشف النماذج

الوصول إلى نماذج MiniMax-01 عبر Hugging Face، متوفرة في إصدارات النص والرؤية واللغة

عرض النماذج

اقرأ البحث

تعرف على هندستنا المعمارية وابتكاراتنا في ورقتنا البحثية

عرض الورقة