يشهد مشهد الذكاء الاصطناعي تطوراً سريعاً، ويتمثل أحد الاتجاهات الرئيسية في صعود النماذج اللغوية الصغيرة (SLMs). تقدم هذه النماذج مزيجاً جذاباً من الكفاءة وقوة الاستدلال والدقة الواقعية واستخدام الأدوات وإمكانية الوصول الواسعة. تستكشف هذه المقالة من KDnuggets أفضل 7 نماذج SLM تحقق تقدماً كبيراً في عالم الذكاء الاصطناعي، وتقارن بين حجمها وأدائها لمساعدة القراء على فهم أفضل الخيارات لاحتياجاتهم الخاصة.
صعود النماذج اللغوية الصغيرة
تظهر النماذج اللغوية الصغيرة كبديل عملي للنماذج اللغوية الكبيرة (LLMs). أصبحت هذه النماذج متطورة بشكل متزايد مع طلب موارد حسابية أقل، مما يجعلها مثالية لمختلف التطبيقات، وخاصة تلك التي تتطلب ذكاءً على الجهاز.
- توفر SLMs أداءً أسرع، وتتطلب ذاكرة أقل، وتستهلك طاقة أقل مقارنة بـ LLMs.
- يتضمن الاتجاه البارز استخدام LLMs لإنشاء مجموعات بيانات تركيبية، والتي يتم استخدامها بعد ذلك لضبط SLMs لمهام محددة أو لتحقيق أنماط معينة.
- تتيح SLMs الذكاء على الجهاز، وهو أمر بالغ الأهمية للتطبيقات التي تتطلب الخصوصية والسرعة والموثوقية دون اتصال دائم بالإنترنت.
أفضل 7 نماذج لغوية صغيرة: نظرة مفصلة
تقدم المقالة نظرة عامة على سبعة نماذج SLM بارزة، وتسلط الضوء على ميزاتها وقدراتها الرئيسية.
-
google/gemma-3-270m-it: الأصغر في عائلة Gemma 3، مصمم للكفاءة وإمكانية الوصول.
- يضم 270 مليون معلمة.
- مثالي للتجريب والنماذج الأولية والتطبيقات خفيفة الوزن.
- يدعم نافذة سياق 32K ومهام مثل الإجابة على الأسئلة والتلخيص والاستدلال.
-
Qwen/Qwen3-0.6B: نوع خفيف الوزن في سلسلة Qwen3، يوازن بين الأداء والكفاءة.
- يحتوي على 600 مليون معلمة (0.44B غير مضمن).
- ينتقل بسلاسة بين “وضع التفكير” للاستدلال المعقد و “وضع عدم التفكير” للحوار العام.
- يدعم طول سياق 32K ودعم متعدد اللغات عبر أكثر من 100 لغة.
-
HuggingFaceTB/SmolLM3-3B: نموذج مفتوح المصدر يدفع حدود النماذج اللغوية الصغيرة النطاق.
- يتميز بـ 3 مليارات معلمة.
- أداء قوي في الاستدلال والرياضيات والبرمجة والمهام متعددة اللغات.
- يدعم الاستدلال ثنائي الوضع والاستخدام العام مع استدعاء الأدوات.
-
Qwen/Qwen3-4B-Instruct-2507: نوع مضبوط بالتعليمات من سلسلة Qwen3-4B مُحسّن لـ “وضع عدم التفكير”.
- يستخدم 4 مليارات معلمة (3.6B غير مضمن).
- تعليمات محسّنة للمتابعة والاستدلال المنطقي وفهم النصوص والرياضيات والعلوم والبرمجة واستخدام الأدوات.
- يتفوق في المهام الإبداعية المفتوحة مثل الكتابة والحوار.
-
google/gemma-3-4b-it: عضو متعدد الوسائط في عائلة Gemma 3، يتعامل مع مدخلات النصوص والصور.
- يحتوي على 4 مليارات معلمة.
- يدعم نافذة سياق رمزية 128K.
- مناسب تماماً للإجابة على الأسئلة والتلخيص والاستدلال وفهم الصور.
- مناسب تماماً للضبط الدقيق في مهام محددة مثل تصنيف النصوص أو الصور.
-
janhq/Jan-v1-4B: مصمم للاستدلال العام وحل المشكلات داخل نظام Jan App.
- يعتمد على نموذج Lucy وهندسة Qwen3-4B-thinking.
- حقق دقة قدرها 91.1٪ في SimpleQA.
- محسّن للاستخدام المحلي مع تطبيق Jan و vLLM و llama.cpp.
-
microsoft/Phi-4-mini-instruct: نموذج خفيف الوزن من عائلة Phi-4 من Microsoft، مصمم للاستدلال الفعال والنشر الآمن.
- يستخدم 3.8 مليار معلمة.
- تم تدريبه على مزيج من بيانات الويب وبيانات الاستدلال التركيبية وبيانات التعليمات الخاضعة للإشراف.
- يدعم طول سياق رمزي 128K ويتفوق في الرياضيات والمنطق والمهام متعددة اللغات.
- يدعم استدعاء الوظائف وإنشاء متعدد اللغات (20+ لغة).
خاتمة
تسلط المقالة الضوء على الأهمية المتزايدة لـ SLMs في مشهد الذكاء الاصطناعي. توضح هذه النماذج أنه يمكن تحقيق قدرات الذكاء الاصطناعي القوية ببصمات أصغر، مما يوفر مزايا من حيث الكفاءة وإمكانية الوصول وإمكانية النشر على الجهاز. من سلسلة Gemma من Google إلى نماذج Qwen و SmolLM3 من Hugging Face و Jan-v1 و Phi-4 من Microsoft، يعرض كل نموذج SLM نقاط قوة وقدرات فريدة، مما يساهم في إضفاء الطابع الديمقراطي على تكنولوجيا الذكاء الاصطناعي وتمهيد الطريق للتطبيقات المبتكرة في مختلف المجالات. يؤكد المؤلف، Abid Ali Awan، عالم بيانات ومنشئ محتوى، على إمكانات هذه النماذج لإعادة تشكيل مستقبل الذكاء الاصطناعي.
المصدر: KDnuggets
The AI landscape is rapidly evolving, and a key trend is the rise of Small Language Models (SLMs). These models offer a compelling blend of efficiency, reasoning power, factual accuracy, tool utilization, and broad accessibility. This article from KDnuggets explores the top 7 SLMs that are making significant waves in the AI world, comparing their size and performance to help readers understand the best options for their specific needs.
The Rise of Small Language Models
Small language models are emerging as a practical alternative to Large Language Models (LLMs). They are becoming increasingly sophisticated while demanding fewer computational resources, making them ideal for various applications, especially those requiring on-device intelligence.
- SLMs offer faster performance, require less memory, and consume less energy compared to LLMs.
- A prominent trend involves using LLMs to generate synthetic datasets, which are then used to fine-tune SLMs for specific tasks or to achieve particular styles.
- SLMs enable on-device intelligence, crucial for applications requiring privacy, speed, and reliability without a constant internet connection.
Top 7 Small Language Models: A Detailed Look
The article provides an overview of seven prominent SLMs, highlighting their key features and capabilities.
-
google/gemma-3-270m-it: The smallest in the Gemma 3 family, designed for efficiency and accessibility.
- Boasts 270 million parameters.
- Ideal for experimentation, prototyping, and lightweight applications.
- Supports a 32K context window and tasks like question answering, summarization, and reasoning.
-
Qwen/Qwen3-0.6B: A lightweight variant in the Qwen3 series, balancing performance and efficiency.
- Contains 600 million parameters (0.44B non-embedding).
- Seamlessly switches between “thinking mode” for complex reasoning and “non-thinking mode” for general dialogue.
- Supports a 32K context length and multilingual support across 100+ languages.
-
HuggingFaceTB/SmolLM3-3B: An open-source model pushing the limits of small-scale language models.
- Features 3 billion parameters.
- Strong performance in reasoning, math, coding, and multilingual tasks.
- Supports dual-mode reasoning and agentic usage with tool calling.
-
Qwen/Qwen3-4B-Instruct-2507: An instruction-tuned variant of the Qwen3-4B series optimized for “non-thinking mode.”
- Uses 4 billion parameters (3.6B non-embedding).
- Improved instruction following, logical reasoning, text comprehension, mathematics, science, coding, and tool usage.
- Excels in open-ended and creative tasks such as writing and dialogue.
-
google/gemma-3-4b-it: A multimodal member of the Gemma 3 family, handling both text and image inputs.
- Contains 4 billion parameters.
- Supports a 128K token context window.
- Well-suited for question answering, summarization, reasoning, and image understanding.
- Highly suitable for fine-tuning on specific tasks like text or image classification.
-
janhq/Jan-v1-4B: Built for agentic reasoning and problem-solving within the Jan App ecosystem.
- Based on the Lucy model and the Qwen3-4B-thinking architecture.
- Achieved an accuracy of 91.1% on SimpleQA.
- Optimized for local use with Jan app, vLLM, and llama.cpp.
-
microsoft/Phi-4-mini-instruct: A lightweight model from Microsoft’s Phi-4 family, designed for efficient reasoning and safe deployment.
- Uses 3.8B parameters.
- Trained on a mix of web data, synthetic reasoning data, and supervised instruction data.
- Supports a 128K token context length and excels in math, logic, and multilingual tasks.
- Supports function calling and multilingual generation (20+ languages).
Conclusion
The article highlights the growing importance of SLMs in the AI landscape. These models demonstrate that powerful AI capabilities can be achieved with smaller footprints, offering advantages in terms of efficiency, accessibility, and the potential for on-device deployment. From Google’s Gemma series to Qwen’s models, Hugging Face’s SmolLM3, Jan-v1, and Microsoft’s Phi-4, each SLM showcases unique strengths and capabilities, contributing to the democratization of AI technology and paving the way for innovative applications across various domains. The author, Abid Ali Awan, a data scientist and content creator, emphasizes the potential of these models to reshape the future of AI.
Source: KDnuggets