AI

أفضل 7 نماذج لغوية صغيرة تعيد تشكيل مشهد الذكاء الاصطناعي

ع
عبدالله الفضلي
· · 3 دقائق قراءة
أفضل 7 نماذج لغوية صغيرة تعيد تشكيل مشهد الذكاء الاصطناعي

يشهد مشهد الذكاء الاصطناعي تطوراً سريعاً، ويتمثل أحد الاتجاهات الرئيسية في صعود النماذج اللغوية الصغيرة (SLMs). تقدم هذه النماذج مزيجاً جذاباً من الكفاءة وقوة الاستدلال والدقة الواقعية واستخدام الأدوات وإمكانية الوصول الواسعة. تستكشف هذه المقالة من KDnuggets أفضل 7 نماذج SLM تحقق تقدماً كبيراً في عالم الذكاء الاصطناعي، وتقارن بين حجمها وأدائها لمساعدة القراء على فهم أفضل الخيارات لاحتياجاتهم الخاصة.

صعود النماذج اللغوية الصغيرة

تظهر النماذج اللغوية الصغيرة كبديل عملي للنماذج اللغوية الكبيرة (LLMs). أصبحت هذه النماذج متطورة بشكل متزايد مع طلب موارد حسابية أقل، مما يجعلها مثالية لمختلف التطبيقات، وخاصة تلك التي تتطلب ذكاءً على الجهاز.

  • توفر SLMs أداءً أسرع، وتتطلب ذاكرة أقل، وتستهلك طاقة أقل مقارنة بـ LLMs.
  • يتضمن الاتجاه البارز استخدام LLMs لإنشاء مجموعات بيانات تركيبية، والتي يتم استخدامها بعد ذلك لضبط SLMs لمهام محددة أو لتحقيق أنماط معينة.
  • تتيح SLMs الذكاء على الجهاز، وهو أمر بالغ الأهمية للتطبيقات التي تتطلب الخصوصية والسرعة والموثوقية دون اتصال دائم بالإنترنت.

أفضل 7 نماذج لغوية صغيرة: نظرة مفصلة

تقدم المقالة نظرة عامة على سبعة نماذج SLM بارزة، وتسلط الضوء على ميزاتها وقدراتها الرئيسية.

  • google/gemma-3-270m-it: الأصغر في عائلة Gemma 3، مصمم للكفاءة وإمكانية الوصول.

    • يضم 270 مليون معلمة.
    • مثالي للتجريب والنماذج الأولية والتطبيقات خفيفة الوزن.
    • يدعم نافذة سياق 32K ومهام مثل الإجابة على الأسئلة والتلخيص والاستدلال.
  • Qwen/Qwen3-0.6B: نوع خفيف الوزن في سلسلة Qwen3، يوازن بين الأداء والكفاءة.

    • يحتوي على 600 مليون معلمة (0.44B غير مضمن).
    • ينتقل بسلاسة بين “وضع التفكير” للاستدلال المعقد و “وضع عدم التفكير” للحوار العام.
    • يدعم طول سياق 32K ودعم متعدد اللغات عبر أكثر من 100 لغة.
  • HuggingFaceTB/SmolLM3-3B: نموذج مفتوح المصدر يدفع حدود النماذج اللغوية الصغيرة النطاق.

    • يتميز بـ 3 مليارات معلمة.
    • أداء قوي في الاستدلال والرياضيات والبرمجة والمهام متعددة اللغات.
    • يدعم الاستدلال ثنائي الوضع والاستخدام العام مع استدعاء الأدوات.
  • Qwen/Qwen3-4B-Instruct-2507: نوع مضبوط بالتعليمات من سلسلة Qwen3-4B مُحسّن لـ “وضع عدم التفكير”.

    • يستخدم 4 مليارات معلمة (3.6B غير مضمن).
    • تعليمات محسّنة للمتابعة والاستدلال المنطقي وفهم النصوص والرياضيات والعلوم والبرمجة واستخدام الأدوات.
    • يتفوق في المهام الإبداعية المفتوحة مثل الكتابة والحوار.
  • google/gemma-3-4b-it: عضو متعدد الوسائط في عائلة Gemma 3، يتعامل مع مدخلات النصوص والصور.

    • يحتوي على 4 مليارات معلمة.
    • يدعم نافذة سياق رمزية 128K.
    • مناسب تماماً للإجابة على الأسئلة والتلخيص والاستدلال وفهم الصور.
    • مناسب تماماً للضبط الدقيق في مهام محددة مثل تصنيف النصوص أو الصور.
  • janhq/Jan-v1-4B: مصمم للاستدلال العام وحل المشكلات داخل نظام Jan App.

    • يعتمد على نموذج Lucy وهندسة Qwen3-4B-thinking.
    • حقق دقة قدرها 91.1٪ في SimpleQA.
    • محسّن للاستخدام المحلي مع تطبيق Jan و vLLM و llama.cpp.
  • microsoft/Phi-4-mini-instruct: نموذج خفيف الوزن من عائلة Phi-4 من Microsoft، مصمم للاستدلال الفعال والنشر الآمن.

    • يستخدم 3.8 مليار معلمة.
    • تم تدريبه على مزيج من بيانات الويب وبيانات الاستدلال التركيبية وبيانات التعليمات الخاضعة للإشراف.
    • يدعم طول سياق رمزي 128K ويتفوق في الرياضيات والمنطق والمهام متعددة اللغات.
    • يدعم استدعاء الوظائف وإنشاء متعدد اللغات (20+ لغة).

خاتمة

تسلط المقالة الضوء على الأهمية المتزايدة لـ SLMs في مشهد الذكاء الاصطناعي. توضح هذه النماذج أنه يمكن تحقيق قدرات الذكاء الاصطناعي القوية ببصمات أصغر، مما يوفر مزايا من حيث الكفاءة وإمكانية الوصول وإمكانية النشر على الجهاز. من سلسلة Gemma من Google إلى نماذج Qwen و SmolLM3 من Hugging Face و Jan-v1 و Phi-4 من Microsoft، يعرض كل نموذج SLM نقاط قوة وقدرات فريدة، مما يساهم في إضفاء الطابع الديمقراطي على تكنولوجيا الذكاء الاصطناعي وتمهيد الطريق للتطبيقات المبتكرة في مختلف المجالات. يؤكد المؤلف، Abid Ali Awan، عالم بيانات ومنشئ محتوى، على إمكانات هذه النماذج لإعادة تشكيل مستقبل الذكاء الاصطناعي.


المصدر: KDnuggets