دمج ALLaM-7B-Instruct-preview مع Ollama

يوفر Ollama طريقة مريحة لتشغيل نماذج اللغة الكبيرة محلياً. بينما العديد من النماذج متاحة مباشرة عبر ollama pull، يمكنك أيضاً استيراد نماذج مخصصة، مثل ALLaM-AI/ALLaM-7B-Instruct-preview، من خلال إنشاء Modelfile.
فهم تنسيقات النماذج: Safetensors مقابل GGUF
قبل الغوص في عملية الاستيراد، من المفيد فهم تنسيقات النماذج المختلفة المعنية:
Safetensors / تنسيق PyTorch
- ما هو: هذه التنسيقات (
.safetensors،.bin،.pth) قياسية لتوزيع النماذج المستخدمة في التدريب وداخل أطر العمل مثل Hugging Face Transformers. عادةً ما تخزن أوزان النموذج عالية الدقة (مثل 16 بت أو 32 بت عائم). - حالة الاستخدام: بشكل أساسي لتدريب النموذج والتدريب الدقيق وتشغيل الاستدلال باستخدام مكتبات Python (
transformers،torch) غالباً ما تتطلب أجهزة قوية (خاصة GPUs).
GGUF (تنسيق موحد مولد بـ GPT)
- ما هو: تنسيق ثنائي مصمم خصيصاً بواسطة مشروع
llama.cppللاستدلال الفعال على مجموعة أوسع من الأجهزة، بما في ذلك وحدات المعالجة المركزية وأجهزة Apple Silicon (Metal). - الميزة الرئيسية - التكميم: عادةً ما تحتوي ملفات GGUF على أوزان مكممة. يقلل التكميم من الدقة (مثل إلى أعداد صحيحة 4 بت أو 5 بت)، مما يقلص حجم الملف واستخدام الذاكرة بشكل كبير.
- مستقل ذاتياً: يجمع أوزان النموذج وتفاصيل البنية ومعلومات المُرمِّز في ملف واحد.
لماذا يفضل Ollama تنسيق GGUF
يستفيد Ollama من مكتبة llama.cpp داخلياً. GGUF هو التنسيق الأصلي لـ llama.cpp، مما يوفر العديد من المزايا:
- الكفاءة: تعمل نماذج GGUF المكممة بشكل أسرع وتستخدم ذاكرة أقل.
- إمكانية الوصول: تمكن من تشغيل النماذج الكبيرة على أجهزة الكمبيوتر المحمولة العادية.
- البساطة: يتفاعل المستخدمون مع تنسيق ملف واحد يديره Ollama بسلاسة.
استيراد علام إلى Ollama (يتطلب GGUF)
1. الحصول على ملف نموذج GGUF
- Ollama مثبت: تأكد من تشغيل Ollama على نظامك. قم بزيارة ollama.com لتعليمات التثبيت.
- ملف GGUF: نظراً لأن Ollama يعمل بشكل أفضل مع GGUF، تحتاج إلى نموذج ALLaM بهذا التنسيق.
- الخيار أ (موصى به): ابحث في مجتمع Hugging Face عن إصدار GGUF محول مسبقاً من
ALLaM-7B-Instruct-preview. - الخيار ب (متقدم): حمّل أوزان Safetensors الأصلية وحولها إلى GGUF بنفسك باستخدام نصوص تحويل
llama.cpp.
- الخيار أ (موصى به): ابحث في مجتمع Hugging Face عن إصدار GGUF محول مسبقاً من
2. إنشاء Modelfile
أنشئ ملفاً باسم Modelfile (بدون امتداد) في دليل من اختيارك:
# Modelfile لـ ALLaM-7B-Instruct-preview
FROM /path/to/your/allam-7b-instruct.gguf
# إعداد طلب النظام (اختياري)
SYSTEM """أنت علام، مساعد ذكاء اصطناعي ثنائي اللغة بالإنجليزية والعربية."""
# تعيين معلمات التوليد (اختياري)
PARAMETER temperature 0.7
PARAMETER top_p 0.95
PARAMETER num_ctx 40963. إنشاء النموذج في Ollama
افتح الطرفية وشغل:
ollama create allam -f /path/to/your/Modelfile4. اختبار النموذج
ollama run allam "كيف أجهز كوب شاهي؟"نشر النموذج (اختياري)
إذا كنت تريد مشاركة النموذج المخصص، يمكنك نشره إلى Ollama Hub:
ollama push your-username/allamالخاتمة
لقد تعلمت كيفية دمج نموذج ALLaM مع Ollama للتشغيل المحلي. يتيح لك هذا الاستفادة من قوة نماذج اللغة الكبيرة على جهازك الخاص دون الحاجة إلى اتصال بالإنترنت أو خدمات سحابية.
المرجع: توثيق Ollama
ناقش مشروعك معنا
نحن هنا للمساعدة في احتياجات تطوير الويب الخاصة بك. حدد موعدًا لمناقشة مشروعك وكيف يمكننا مساعدتك.
دعنا نجد أفضل الحلول لاحتياجاتك.
مقالات ذات صلة

دمج ALLaM-7B-Instruct-preview مع Ollama
تعلم كيفية إضافة نموذج ALLaM-7B-Instruct-preview إلى إعداد Ollama المحلي باستخدام Modelfile.

البدء مع ALLaM-7B-Instruct-preview
تعلم كيفية استخدام نموذج ALLaM-7B-Instruct-preview مع Python، وكيفية التفاعل معه من JavaScript عبر واجهة برمجة مستضافة (مثل Hugging Face Spaces).

دليل دمج روبوت الدردشة الذكي: بناء واجهات محادثة ذكية
دليل شامل لدمج روبوتات الدردشة الذكية في تطبيقاتك باستخدام OpenAI وAnthropic Claude وElevenLabs. تعلم بناء روبوتات دردشة نصية وصوتية مع Next.js.