MiniMax-01

MiniMax-01: مدل زبانی پیشرفته با ۴۵۶ میلیارد پارامتر

تجربه یک مدل زبانی قدرتمند با توجه ترکیبی و معماری MoE، برتر در استدلال، ریاضیات و وظایف کدنویسی با طول متن تا ۴ میلیون توکن

۴۵۶ میلیارد پارامتر
۴۵.۹ میلیارد پارامتر فعال
۴ میلیون توکن متن

ادغام رایگان در وب‌سایت

رابط چت هوش مصنوعی پیشرفته ما را با یک کد iframe ساده در وب‌سایت خود ادغام کنید. بدون نیاز به ثبت‌نام.

<iframe src="https://www.minimax01.com/embed" width="100%" height="600px" frameborder="0"></iframe>

چت MiniMax-01 را امتحان کنید

ویژگی‌های کلیدی

قابلیت‌های قدرتمند MiniMax-01 را کشف کنید

معماری ترکیبی

ترکیب نوآورانه Lightning Attention، Softmax Attention و Mixture-of-Experts (MoE) با مجموع ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال برای هر توکن

  • معماری ۸۰ لایه
  • ۶۴ هسته توجه
  • ۳۲ شبکه متخصص
  • استراتژی مسیریابی برتر-۲

عملکرد معیار

نتایج برجسته در معیارهای مختلف از جمله MMLU (۸۸.۵٪)، MMLU-Pro (۷۵.۷٪) و GSM8K (۹۴.۸٪)

  • استدلال ریاضی قوی
  • قابلیت‌های پیشرفته کدنویسی
  • حل مسائل پیچیده
  • درک متن طولانی

پردازش متن طولانی

پشتیبانی از ۴ میلیون توکن در استنتاج و ۱ میلیون توکن در آموزش

  • پنجره متنی گسترده
  • پردازش کارآمد توکن
  • درک اسناد
  • تحلیل در مقیاس بزرگ

توجه پیشرفته

مکانیسم توجه ترکیبی با softmax attention پس از هر ۷ لایه lightning attention

  • درک متن پیشرفته
  • پردازش کارآمد اطلاعات
  • توزیع متعادل توجه
  • عملکرد بهینه‌شده

شبکه‌های متخصص

۳۲ شبکه متخصص با ابعاد پنهان ۹۲۱۶ و استراتژی مسیریابی کارآمد

  • پردازش تخصصی
  • مسیریابی پویا
  • بهینه‌سازی وظایف
  • محاسبات کارآمد

معماری مدل

معماری پیشرفته طراحی شده برای عملکرد و کارایی بهینه

  • اندازه پنهان: ۶۱۴۴
  • اندازه واژگان: ۲۰۰,۰۶۴
  • کدگذاری موقعیت RoPE
  • اشتراک‌گذاری پارامتر پیشرفته

کاربردهای متنوع

قابلیت‌های جامع در حوزه‌های مختلف شامل ریاضیات، کدنویسی و استدلال

  • محاسبات ریاضی
  • تولید کد
  • استدلال پیچیده
  • بازیابی دانش

بهینه‌سازی عملکرد

بهینه‌سازی شده برای آموزش و استنتاج با تکنیک‌های پیشرفته

  • فعال‌سازی کارآمد پارامترها
  • توزیع متعادل بار
  • استفاده بهینه از حافظه
  • سرعت استنتاج بالا

دستاوردهای مینی‌مکس-۰۱

عملکرد پیشرو در وظایف زبانی و بینایی

برتری در معیارهای سنجش

مینی‌مکس-۰۱ به عملکرد برجسته‌ای در معیارهای سنجش دست یافته است، از جمله ۸۸.۵٪ در MMLU، ۷۵.۷٪ در MMLU-Pro و ۹۴.۸٪ در GSM8K، که نشان‌دهنده قابلیت‌های قوی در استدلال و حل مسئله است.

معماری پیشرفته

با ۴۵۶ میلیارد پارامتر و ۴۵.۹ میلیارد پارامتر فعال برای هر توکن، مینی‌مکس-۰۱ ترکیبی از Lightning Attention، Softmax Attention و MoE را برای عملکرد بهینه ارائه می‌دهد.

پردازش متن طولانی

پشتیبانی از ۴ میلیون توکن در زمان استنتاج و ۱ میلیون توکن در زمان آموزش، که امکان پردازش مؤثر اسناد گسترده و وظایف پیچیده را فراهم می‌کند.

قابلیت‌های بینایی

مینی‌مکس-بینایی-۰۱ مدل را با پردازش بصری پیشرفته گسترش می‌دهد، با وضوح پویا از ۳۳۶×۳۳۶ تا ۲۰۱۶×۲۰۱۶ و دستیابی به عملکرد قوی در وظایف بصری.

معیارهای عملکرد MiniMax-01

دانش عمومی و استدلال

MMLU (۸۸.۵٪)
DROP (۸۷.۸٪)

برنامه‌نویسی و توسعه

HumanEval (۸۶.۹٪)
MBPP (۷۱.۷٪)

استدلال ریاضی

GSM8K (۹۴.۸٪)
MATH (۷۷.۴٪)

مشخصات فنی

معماری و قابلیت‌های پیشرفته MiniMax-01 را کاوش کنید

جزئیات معماری MiniMax-01

معماری عصبی پیشرفته با ترکیب Lightning Attention و Mixture-of-Experts (MoE)

مجموع ۴۵۶ میلیارد پارامتر با ۴۵.۹ میلیارد پارامتر فعال برای هر توکن
۸۰ لایه با مکانیزم توجه ترکیبی
۶۴ هسته توجه با ابعاد ۱۲۸
۳۲ متخصص با ابعاد پنهان ۹۲۱۶
استراتژی مسیریابی Top-2 برای MoE
اندازه پنهان: ۶۱۴۴
اندازه واژگان: ۲۰۰,۰۶۴
کدگذاری موقعیت RoPE

پژوهش MiniMax-01

پیشرفت هوش مصنوعی از طریق معماری‌ها و تکنیک‌های نوآورانه

معماری ترکیبی

ترکیب انقلابی Lightning Attention، Softmax Attention و معماری Mixture-of-Experts (MoE) با استراتژی‌های پیشرفته موازی

پردازش متن طولانی

قابلیت‌های گسترده پردازش متن تا ۴ میلیون توکن در زمان استنتاج از طریق تکنیک‌های نوآورانه مانند LASP+ و varlen ring attention

مقیاس‌پذیری کارآمد

استراتژی‌های پیشرفته موازی شامل Linear Attention Sequence Parallelism Plus (LASP+) و Expert Tensor Parallel (ETP)

مقاله فنی

مقاله پژوهشی ما با عنوان 'MiniMax-01: Scaling Foundation Models with Lightning Attention' را که جزئیات معماری نوآورانه و دستاوردهای ما را شرح می‌دهد، مطالعه کنید.

مطالعه مقاله

درباره مینی‌مکس

پیشرفت هوش مصنوعی از طریق معماری‌های نوآورانه

نمای کلی شرکت

مینی‌مکس متعهد به توسعه مدل‌های هوش مصنوعی پیشرفته از طریق معماری‌های نوآورانه و تحقیقات پیشرفته در مکانیسم‌های توجه و سیستم‌های خبره است.

فناوری اصلی

مدل‌های شاخص ما ترکیبی از Lightning Attention، Softmax Attention و معماری‌های Mixture-of-Experts (MoE) هستند که عملکرد برتر در وظایف مختلف را به دست می‌آورند.

دانلود مدل‌های MiniMax-01

انتخاب بین مدل‌های MiniMax-Text-01 و MiniMax-VL-01

MiniMax-Text-01

مدل زبانی پیشرفته با معماری توجه ترکیبی و MoE

متن
  • ۴۵۶ میلیارد پارامتر کل
  • ۴۵.۹ میلیارد پارامتر فعال
  • طول متن ۴ میلیون توکن
  • معماری ۸۰ لایه
دانلود مدل متنی

MiniMax-VL-01

مدل بینایی-زبانی ساخته شده بر پایه MiniMax-Text-01

بینایی-زبانی
  • ۳۰۳ میلیون پارامتر ViT
  • وضوح پویا
  • ۳۳۶×۳۳۶ تا ۲۰۱۶×۲۰۱۶
  • پردازش بصری پیشرفته
دانلود مدل بینایی-زبانی

دستورالعمل‌های نصب

دسترسی به مدل‌ها از طریق Hugging Face:

# For Text Model
git lfs install
git clone https://huggingface.co/MiniMaxAI/MiniMax-Text-01

# For VL Model
git lfs install
git clone https://huggingface.co/MiniMaxAI/MiniMax-VL-01

گزینه‌های استقرار MiniMax-01

گزینه‌های کوانتیزاسیون

پشتیبانی از کوانتیزاسیون int8 با ماژول‌های تخصصی برای عملکرد بهینه

  • کوانتیزاسیون وزن‌های Int8
  • تبدیل انتخابی ماژول
  • استفاده بهینه از حافظه

استقرار چند GPU

توزیع کارآمد در چندین GPU با استراتژی‌های پیشرفته موازی

  • پیکربندی نقشه دستگاه
  • توزیع لایه‌ها
  • بار کاری متعادل

بارگذاری مدل

گزینه‌های بارگذاری انعطاف‌پذیر با پشتیبانی از bfloat16 و مدیریت بافر

  • دقت Bfloat16
  • تخلیه بافر
  • نگاشت سفارشی دستگاه

تنظیمات تولید

پارامترهای قابل تنظیم تولید برای کنترل بهینه خروجی

  • محدودیت‌های سفارشی توکن
  • مدیریت کش
  • قالب‌بندی پاسخ

نحوه استفاده از MiniMax-01

روش‌های مختلف دسترسی و استفاده از قابلیت‌های MiniMax-01

گزینه 1

روش دسترسی را انتخاب کنید

بین رابط چت آنلاین ما (Hailuo AI)، پلتفرم API، یا دسترسی مستقیم به مدل از طریق Hugging Face انتخاب کنید

گزینه 2

چت آنلاین

برای شروع گفتگو با MiniMax-01 به www.hailuo.ai مراجعه کنید - بدون نیاز به ثبت‌نام

گزینه 3

ادغام API

برای مستندات توسعه‌دهندگان و راهنمای ادغام به پلتفرم API ما در intl.minimaxi.com مراجعه کنید

گزینه 4

استقرار مدل

دانلود و استقرار مدل‌ها از Hugging Face با پشتیبانی از وظایف متنی و بینایی-زبانی

سوالات متداول

سوالات رایج درباره MiniMax-01

معماری MiniMax-01 چیست؟

MiniMax-01 دارای معماری ترکیبی است که شامل Lightning Attention، Softmax Attention و Mixture-of-Experts (MoE) می‌باشد. این مدل دارای ۴۵۶ میلیارد پارامتر کلی با ۴۵.۹ میلیارد پارامتر فعال برای هر توکن، ۸۰ لایه و ۶۴ هد توجه است.

طول متن قابل پردازش در MiniMax-01 چقدر است؟

MiniMax-01 از ۴ میلیون توکن در زمان استنتاج و ۱ میلیون توکن در زمان آموزش پشتیبانی می‌کند که امکان پردازش مؤثر اسناد طولانی و وظایف پیچیده را فراهم می‌کند.

عملکرد MiniMax-01 در معیارهای ارزیابی چگونه است؟

MiniMax-01 نتایج قوی در معیارهای مختلف کسب کرده است، از جمله ۸۸.۵٪ در MMLU، ۷۵.۷٪ در MMLU-Pro و ۹۴.۸٪ در GSM8K که نشان‌دهنده قابلیت‌های عالی در استدلال و حل مسئله است.

MiniMax-VL-01 چیست؟

MiniMax-VL-01 مدل بینایی-زبانی ما است که بر پایه MiniMax-Text-01 ساخته شده است. این مدل دارای ۳۰۳ میلیون پارامتر Vision Transformer (ViT) است و از رزولوشن پویا از ۳۳۶×۳۳۶ تا ۲۰۱۶×۲۰۱۶ پشتیبانی می‌کند.

چگونه می‌توانم به MiniMax-01 دسترسی پیدا کنم؟

شما می‌توانید از طریق رابط چت آنلاین ما (Hailuo AI)، پلتفرم API (intl.minimaxi.com) یا دانلود مدل‌ها از Hugging Face به MiniMax-01 دسترسی پیدا کنید.

چه گزینه‌های استقراری در دسترس هستند؟

MiniMax-01 از گزینه‌های مختلف استقرار از جمله کوانتیزاسیون int8، توزیع چند GPU و بارگذاری انعطاف‌پذیر با پشتیبانی از bfloat16 پشتیبانی می‌کند.

نیازمندی‌های سخت‌افزاری چیست؟

این مدل می‌تواند روی چندین GPU با نگاشت دستگاه قابل تنظیم و متعادل‌سازی بار برای عملکرد بهینه مستقر شود.

آیا API در دسترس است؟

بله، ما یک پلتفرم API جامع در intl.minimaxi.com همراه با مستندات توسعه‌دهنده و راهنمای یکپارچه‌سازی ارائه می‌دهیم.

شروع کار با MiniMax-01

چت آنلاین را امتحان کنید

قابلیت‌های MiniMax-01 را از طریق رابط چت هوش مصنوعی Hailuo تجربه کنید

شروع چت

دسترسی به MiniMax API

قابلیت‌های MiniMax-01 را از طریق پلتفرم توسعه‌دهندگان ما در برنامه‌های خود ادغام کنید

مشاهده پلتفرم

کاوش مدل‌ها

به مدل‌های MiniMax-01 از طریق Hugging Face، در هر دو نسخه متنی و بینایی-زبانی دسترسی پیدا کنید

مشاهده مدل‌ها

مطالعه تحقیقات

درباره معماری و نوآوری‌های ما در مقاله تحقیقاتی ما بیشتر بدانید

مشاهده مقاله