|
170 | 170 | "MiniMax-Text-01": {
|
171 | 171 | "description": "في سلسلة نماذج MiniMax-01، قمنا بإجراء ابتكارات جريئة: تم تنفيذ آلية الانتباه الخطي على نطاق واسع لأول مرة، لم يعد هيكل Transformer التقليدي هو الخيار الوحيد. يصل عدد معلمات هذا النموذج إلى 456 مليار، مع تنشيط واحد يصل إلى 45.9 مليار. الأداء الشامل للنموذج يتساوى مع النماذج الرائدة في الخارج، بينما يمكنه معالجة سياقات تصل إلى 4 ملايين توكن، وهو 32 مرة من GPT-4o و20 مرة من Claude-3.5-Sonnet."
|
172 | 172 | },
|
173 |
| - "Nous-Hermes-2-Mixtral-8x7B-DPO": { |
174 |
| - "description": "Hermes 2 Mixtral 8x7B DPO هو دمج متعدد النماذج مرن للغاية، يهدف إلى تقديم تجربة إبداعية ممتازة." |
175 |
| - }, |
176 | 173 | "NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO": {
|
177 | 174 | "description": "Nous Hermes 2 - Mixtral 8x7B-DPO (46.7B) هو نموذج تعليمات عالي الدقة، مناسب للحسابات المعقدة."
|
178 | 175 | },
|
|
323 | 320 | "SenseChat-5": {
|
324 | 321 | "description": "أحدث إصدار من النموذج (V5.5)، بطول سياق 128K، مع تحسينات ملحوظة في القدرة على الاستدلال الرياضي، المحادثات باللغة الإنجليزية، اتباع التعليمات وفهم النصوص الطويلة، مما يجعله في مستوى GPT-4o."
|
325 | 322 | },
|
| 323 | + "SenseChat-5-1202": { |
| 324 | + "description": "هو الإصدار الأحدث المبني على V5.5، وقد شهد تحسنًا ملحوظًا في القدرات الأساسية بين الصينية والإنجليزية، والدردشة، والمعرفة العلمية، والمعرفة الأدبية، والكتابة، والمنطق الرياضي، والتحكم في عدد الكلمات." |
| 325 | + }, |
326 | 326 | "SenseChat-5-Cantonese": {
|
327 | 327 | "description": "بطول سياق 32K، يتفوق في فهم المحادثات باللغة الكانتونية مقارنة بـ GPT-4، ويضاهي GPT-4 Turbo في مجالات المعرفة، الاستدلال، الرياضيات وكتابة الأكواد."
|
328 | 328 | },
|
|
335 | 335 | "SenseChat-Turbo": {
|
336 | 336 | "description": "مناسب للأسئلة السريعة، وسيناريوهات ضبط النموذج."
|
337 | 337 | },
|
| 338 | + "SenseChat-Turbo-1202": { |
| 339 | + "description": "هو أحدث نموذج خفيف الوزن، يحقق أكثر من 90% من قدرات النموذج الكامل، مما يقلل بشكل ملحوظ من تكلفة الاستدلال." |
| 340 | + }, |
| 341 | + "SenseChat-Vision": { |
| 342 | + "description": "النموذج الأحدث (V5.5) يدعم إدخال صور متعددة، ويحقق تحسينات شاملة في القدرات الأساسية للنموذج، مع تحسينات كبيرة في التعرف على خصائص الكائنات، والعلاقات المكانية، والتعرف على الأحداث، وفهم المشاهد، والتعرف على المشاعر، واستنتاج المعرفة المنطقية، وفهم النصوص وتوليدها." |
| 343 | + }, |
338 | 344 | "Skylark2-lite-8k": {
|
339 | 345 | "description": "نموذج سكايلارك (Skylark) من الجيل الثاني، نموذج سكايلارك2-لايت يتميز بسرعات استجابة عالية، مناسب للسيناريوهات التي تتطلب استجابة في الوقت الحقيقي، وحساسة للتكاليف، وغير متطلبة لدقة نموذج عالية، بسعة سياق تبلغ 8k."
|
340 | 346 | },
|
|
1019 | 1025 | "hunyuan-standard-vision": {
|
1020 | 1026 | "description": "نموذج متعدد الوسائط حديث يدعم الإجابة بعدة لغات، مع توازن في القدرات بين الصينية والإنجليزية."
|
1021 | 1027 | },
|
| 1028 | + "hunyuan-translation": { |
| 1029 | + "description": "يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية، ويعتمد على مجموعة تقييم الترجمة متعددة السيناريوهات لتقييم تلقائي باستخدام درجة COMET، حيث يتفوق بشكل عام على نماذج السوق المماثلة في القدرة على الترجمة بين اللغات الشائعة." |
| 1030 | + }, |
| 1031 | + "hunyuan-translation-lite": { |
| 1032 | + "description": "يدعم نموذج الترجمة هونيون الترجمة الحوارية بلغة طبيعية؛ يدعم الترجمة بين 15 لغة بما في ذلك الصينية والإنجليزية واليابانية والفرنسية والبرتغالية والإسبانية والتركية والروسية والعربية والكورية والإيطالية والألمانية والفيتنامية والماليزية والإندونيسية." |
| 1033 | + }, |
1022 | 1034 | "hunyuan-turbo": {
|
1023 | 1035 | "description": "نسخة المعاينة من الجيل الجديد من نموذج اللغة الكبير، يستخدم هيكل نموذج الخبراء المختلط (MoE) الجديد، مما يوفر كفاءة استدلال أسرع وأداء أقوى مقارنة بـ hunyuan-pro."
|
1024 | 1036 | },
|
|
1220 | 1232 | "meta-llama/llama-3-8b-instruct": {
|
1221 | 1233 | "description": "Llama 3 8B Instruct تم تحسينه لمشاهد الحوار عالية الجودة، ويظهر أداءً أفضل من العديد من النماذج المغلقة."
|
1222 | 1234 | },
|
1223 |
| - "meta-llama/llama-3.1-405b-instruct": { |
1224 |
| - "description": "Llama 3.1 405B Instruct هو أحدث إصدار من Meta، تم تحسينه لتوليد حوارات عالية الجودة، متجاوزًا العديد من النماذج المغلقة الرائدة." |
1225 |
| - }, |
1226 | 1235 | "meta-llama/llama-3.1-70b-instruct": {
|
1227 | 1236 | "description": "Llama 3.1 70B Instruct مصمم للحوار عالي الجودة، ويظهر أداءً بارزًا في التقييمات البشرية، مما يجعله مناسبًا بشكل خاص للمشاهد التفاعلية العالية."
|
1228 | 1237 | },
|
|
1286 | 1295 | "microsoft/WizardLM-2-8x22B": {
|
1287 | 1296 | "description": "WizardLM 2 هو نموذج لغوي تقدمه Microsoft AI، يتميز بأداء ممتاز في المحادثات المعقدة، واللغات المتعددة، والاستدلال، ومساعدات الذكاء."
|
1288 | 1297 | },
|
1289 |
| - "microsoft/wizardlm 2-7b": { |
1290 |
| - "description": "WizardLM 2 7B هو أحدث نموذج خفيف الوزن وسريع من Microsoft AI، ويقترب أداؤه من 10 أضعاف النماذج الرائدة المفتوحة المصدر الحالية." |
1291 |
| - }, |
1292 | 1298 | "microsoft/wizardlm-2-8x22b": {
|
1293 | 1299 | "description": "WizardLM-2 8x22B هو نموذج Wizard المتقدم من Microsoft، يظهر أداءً تنافسيًا للغاية."
|
1294 | 1300 | },
|
|
1580 | 1586 | "qwq-32b-preview": {
|
1581 | 1587 | "description": "نموذج QwQ هو نموذج بحث تجريبي تم تطويره بواسطة فريق Qwen، يركز على تعزيز قدرات الاستدلال للذكاء الاصطناعي."
|
1582 | 1588 | },
|
1583 |
| - "solar-1-mini-chat": { |
1584 |
| - "description": "Solar Mini هو نموذج LLM مدمج، يتفوق على GPT-3.5، ويتميز بقدرات متعددة اللغات، ويدعم الإنجليزية والكورية، ويقدم حلولًا فعالة وصغيرة الحجم." |
| 1589 | + "solar-mini": { |
| 1590 | + "description": "Solar Mini هو نموذج LLM مدمج، يتفوق على GPT-3.5، ويتميز بقدرات متعددة اللغات قوية، ويدعم الإنجليزية والكورية، ويقدم حلولًا فعالة وصغيرة الحجم." |
1585 | 1591 | },
|
1586 |
| - "solar-1-mini-chat-ja": { |
1587 |
| - "description": "Solar Mini (Ja) يوسع قدرات Solar Mini، ويركز على اللغة اليابانية، مع الحفاظ على الكفاءة والأداء الممتاز في استخدام الإنجليزية والكورية." |
| 1592 | + "solar-mini-ja": { |
| 1593 | + "description": "Solar Mini (Ja) يوسع من قدرات Solar Mini، مع التركيز على اللغة اليابانية، مع الحفاظ على الكفاءة والأداء الممتاز في استخدام الإنجليزية والكورية." |
1588 | 1594 | },
|
1589 | 1595 | "solar-pro": {
|
1590 | 1596 | "description": "Solar Pro هو نموذج LLM عالي الذكاء تم إطلاقه من قبل Upstage، يركز على قدرة اتباع التعليمات على وحدة معالجة الرسوميات الواحدة، وسجل IFEval فوق 80. حاليًا يدعم اللغة الإنجليزية، ومن المقرر إصدار النسخة الرسمية في نوفمبر 2024، مع توسيع دعم اللغات وطول السياق."
|
|
1619 | 1625 | "step-1.5v-mini": {
|
1620 | 1626 | "description": "يمتلك هذا النموذج قدرة قوية على فهم الفيديو."
|
1621 | 1627 | },
|
| 1628 | + "step-1o-turbo-vision": { |
| 1629 | + "description": "يمتلك هذا النموذج قدرة قوية على فهم الصور، ويتفوق في مجالات الرياضيات والبرمجة مقارنةً بـ 1o. النموذج أصغر من 1o، وسرعة الإخراج أسرع." |
| 1630 | + }, |
1622 | 1631 | "step-1o-vision-32k": {
|
1623 | 1632 | "description": "يمتلك هذا النموذج قدرة قوية على فهم الصور. مقارنةً بسلسلة نماذج step-1v، فإنه يتمتع بأداء بصري أقوى."
|
1624 | 1633 | },
|
|
1634 | 1643 | "step-2-mini": {
|
1635 | 1644 | "description": "نموذج كبير سريع يعتمد على بنية الانتباه الجديدة MFA، يحقق نتائج مشابهة لـ step1 بتكلفة منخفضة جداً، مع الحفاظ على قدرة أعلى على المعالجة وزمن استجابة أسرع. يمكنه التعامل مع المهام العامة، ويتميز بقدرات قوية في البرمجة."
|
1636 | 1645 | },
|
1637 |
| - "taichu2_mm": { |
1638 |
| - "description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية." |
1639 |
| - }, |
1640 | 1646 | "taichu_llm": {
|
1641 | 1647 | "description": "نموذج اللغة الكبير TaiChu يتمتع بقدرات قوية في فهم اللغة، بالإضافة إلى إنشاء النصوص، والإجابة على الأسئلة، وبرمجة الأكواد، والحسابات الرياضية، والاستدلال المنطقي، وتحليل المشاعر، وتلخيص النصوص. يجمع بشكل مبتكر بين التدريب المسبق على البيانات الضخمة والمعرفة الغنية من مصادر متعددة، من خلال تحسين تقنيات الخوارزميات باستمرار واستيعاب المعرفة الجديدة من البيانات النصية الضخمة، مما يحقق تطورًا مستمرًا في أداء النموذج. يوفر للمستخدمين معلومات وخدمات أكثر سهولة وتجربة أكثر ذكاءً."
|
1642 | 1648 | },
|
| 1649 | + "taichu_vl": { |
| 1650 | + "description": "يجمع بين فهم الصور، ونقل المعرفة، والاستدلال المنطقي، ويظهر أداءً بارزًا في مجال الأسئلة والأجوبة النصية والصورية." |
| 1651 | + }, |
1643 | 1652 | "text-embedding-3-large": {
|
1644 | 1653 | "description": "أقوى نموذج لتضمين النصوص، مناسب للمهام الإنجليزية وغير الإنجليزية."
|
1645 | 1654 | },
|
|
0 commit comments