שיאומי מצטרפת למרוץ ה-AI ומציגה את מודל ה-MiMo
הצגת מודל ה-MiMo
שיאומי (Xiaomi) הודיעה על השקת מודל השפה הגדול הראשון שלה, MiMo, הכולל 7 מיליארד פרמטרים. מדובר במודל קוד פתוח המתמקד במשימות הסקה (reasoning) ומציע ביצועים גבוהים בתחומים כגון חישובים מתמטיים וכתיבת קוד.
בשורת ה-AI של שיאומי
ההכרזה על MiMo מציינת את כניסת שיאומי למרוץ החימוש בתחום הבינה המלאכותית, כאשר המודל החדש צפוי להשתלב בהמשך במגוון מוצרי החברה. MiMo נחשב למודל קומפקטי בהשוואה למודלים אחרים בשוק, אך מציג ביצועים מרשימים שמזעיקים את ההתעניינות בעולם ה-AI.
ביצועים והשוואות
למרות גודלו, MiMo מצליח להציג ביצועים הקרובים לאלו של מודל ה-o1-mini של OpenAI ואף טובים ממודלים אחרים בגודל של 32 מיליארד פרמטרים. הוא מפגין יכולות מרשימות, אפילו בהשוואה למודלים גדולים יותר כמו DeepSeek-R1-Zero-32B ודוגמת Qwen2.5-32B-RL-Zero.
גרסאות המודל
מודל MiMo-7B של שיאומי זמין בארבע גרסאות שונות:
- MiMo-7B-Base: גרסה בסיסית של המודל.
- MiMo-7B-RL-Zero: גרסה עם "למידת חיזוק" (Reinforcement Learning) המבוססת על גרסה הבסיס.
- MiMo-7B-SFT: גרסה בסיסית שעברה "כיול עדין" (Supervised Fine-Tuning).
- MiMo-7B-RL: גרסה שהאומנה על בסיס גרסת ה-SFT מציעה ביצועים תואמים לאלו של מודל ה-o1-mini של OpenAI.
מידע נוסף
למידע נוסף ולהורדת מודל ה-MiMo החדש של שיאומי, ניתן לבקר ב-Hugging Face וב-GitHub