إطلاق Mistral AI للإصدار الجديد Mistral-7B v0.3: دليل الاستخدام والتفاصيل

كيفية استخدام Mistral-7B v0.3: دليل خطوة بخطوة

كيفية استخدام الإصدار الجديد Mistral-7B v0.3 من Mistral AI

أعلنت شركة Mistral AI عن إصدار جديد من نماذج الذكاء الاصطناعي الخاصة بها، والذي يشمل Mistral-7B-v0.3 وMistral-7B-Instruct-v0.3. يُعتبر هذا التحديث تحسينًا كبيرًا في كفاءة وأداء نماذج اللغة.

جرب الان نموذج Mistral باللغة العربية من خلال موقعنا.

 


 

الفرق بين Mistral-7B وMistral Instruct-7B

يتساوى كلا النموذجين في مستوى الذكاء والقدرة التحليلية، ولكن يتميز نموذج Mistral-7B v0.3-Instruct بتدريبه الخاص على تنفيذ التعليمات بدقة.

هذا يعني أنه يمكنه أداء المهام والإجابة على الأسئلة بشكل طبيعي وسلس، بينما النموذج الأساسي لا يمتلك هذه الخاصية.

تقدم النسخة الجديدة من Mistral AI تحسينات كبيرة تتيح للمستخدمين الاستفادة القصوى من تقنيات الذكاء الاصطناعي المتقدمة. إذا كنت تبحث عن نموذج ذكاء اصطناعي يمكنه فهم التعليمات بشكل أفضل وتقديم إجابات دقيقة، فإن Mistral-7B v0.3-Instruct هو الخيار المثالي لك.

 


 

ما الجديد في نموذج الذكاء الاصطناعي الأخير

التحسينات الرئيسية

يقدم نموذج الذكاء الاصطناعي الجديد تحسينات كبيرة مقارنة بالإصدار السابق. يتضمن النموذج الجديد مفردات موسعة ويدعم Tokenizer v3، مما يعزز من فهم اللغة وتوليدها. بالإضافة إلى ذلك، تمكين النموذج من استدعاء الدوال الخارجية يفتح آفاقًا جديدة لتكامل النموذج مع تطبيقات متنوعة.

التغييرات في Mistral-7B-v0.3-instruct مقارنة بـ Mistral-7B-v0.2-instruct

١. توسيع المفردات إلى 32,768 رمزًا.

٢. دعم Tokenizer v3.

٣. دعم استدعاء الدوال.

مفردات موسعة

أحد التحسينات الرئيسية في هذا الإصدار هو توسيع المفردات. يدعم النموذج الآن 32,768 رمزًا، مما يمثل زيادة كبيرة عن الإصدار السابق. هذه المفردات الموسعة تُمكن هذا النموذج من فهم وتوليد مجموعة أوسع من الكلمات والعبارات، مما يسمح له بالتعامل مع مهام لغوية أكثر تعقيدًا وتنوعًا.

دعم Tokenizer v3

إضافة ملحوظة أخرى هي دعم Tokenizer v3. يعتبر التقسيم إلى وحدات أصغر، أو ما يعرف بالتقسيم الرمزي، خطوة حاسمة في معالجة اللغة الطبيعية. يوفر Tokenizer v3 أداءً محسّنًا وتوافقية أفضل، مما يضمن أن النموذج يمكنه معالجة وفهم النص المدخل بكفاءة أعلى.

قدرة استدعاء الدوال

ميزة هذا النموذج الجديد الأكثر إثارة للجدل هي قدرته على دعم استدعاء الدوال. هذا يعني أن النموذج يمكنه الآن التفاعل مع الدوال الخارجية وواجهات البرمجة التطبيقية، مما يوسع بشكل كبير قدراته.

من خلال استخدام استدعاء الدوال، يمكن للمطورين دمج هذا الإصدار في مختلف التطبيقات، مما يتيح له أداء مهام تتجاوز توليد النصوص البسيطة.

 


 

كيفية الوصول إلى Mistral-7B-Instruct-v0.3

هناك عدة طرق لتثبيت واستخدام نماذج Mistral، وسنناقش فيما يلي بعض أكثر الطرق شيوعًا.

الخيار الأول: Mistral-inference على Hugging Face

إذا كنت ترغب في الوصول إلى Mistral-7B v0.3، يمكنك استخدام مكتبة mistral_inference الرسمية، والتي تعتبر خيارًا مريحًا.

التثبيت من Hugging Face


pip install mistral_inference

التنزيل من Hugging Face


# Download from Hugging Face
from huggingface_hub import snapshot_download
from pathlib import Path

# Define the path to save the model
mistral_models_path = Path.home().joinpath('mistral_models', '7B-Instruct-v0.3')
mistral_models_path.mkdir(parents=True, exist_ok=True)

# Download the model
snapshot_download(repo_id="mistralai/Mistral-7B-Instruct-v0.3",
                  allow_patterns=["params.json", "consolidated.safetensors", "tokenizer.model.v3"],
                  local_dir=mistral_models_path)

الخيار الثاني: استخدامه مباشرة على Hugging Face

يمكنك استخدامه بشكل مباشر من خلال الصفحة الخاصة ب Mistral علي هاجنج فيس أو من خلال المساحات الموجودة والتي توفر هذا النموذج للزائرين.

 


 

الختام

Mistral-7B-Instruct-v0.3 تمثل تقدمًا كبيرًا في نماذج اللغة الكبيرة. مع مفرداتها الموسعة ودعمها لـ Tokenizer v3 وقدرات استدعاء الدوال، توفر أداءً وتنوعًا محسنين.

عند تشغيل هذا النموذج، يتوفر للمطورين خيارات عدة. تقدم مكتبة mistral_inference نهجًا رسميًا، بينما تقدم ChatLabs وOLLaMA وLM Studio بدائل أكثر مرونة. من خلال النظر في سهولة الاستخدام والتوافقية والميزات والأداء، يمكن للمطورين اختيار أفضل أداة لمشاريعهم.

مع استمرار تطور معالجة اللغة الطبيعية، ستلعب النماذج مثل Mistral 7B دورًا حاسمًا في توسيع إمكانيات الذكاء الاصطناعي. بفضل قدراتها المتقدمة وخيارات التشغيل المرنة، فإنها مرشحة لتصبح أداة قيمة للباحثين والمطورين والشركات.