الجيل الجديد من توليد الفيديوهات بالذكاء الاصطناعي MAGI-1
مقدمة 🔥
في تطور مذهل لعالم الذكاء الاصطناعي، ظهر لنا مؤخراً نموذج قوي جداً، يتيح لنا تحويل أي صورة ثابتة إلى فيديو متحرك مدته تصل إلى 10 ثوانٍ كحد أقصى!
النموذج ده مش بس قوي، ده كمان مفتوح المصدر ومتاح للجميع يستخدموه بكل سهولة. 👏
اليوم في هذا المقال، سأستعرض معكم تفاصيل استخدام هذا النموذج الجديد، وخطوات التعامل معه خطوة بخطوة، وأيضاً بعض الأدوات الرائعة اللي ممكن تدمجها معاه لنتائج أفضل. يلا بينا! 🚀
🔍 ما هو MAGI-1؟
ماجي 1 هو نموذج توليد فيديوهات يعتمد على التنبؤ المتسلسل لمقاطع الفيديو، حيث يقسم الفيديو إلى “قطع chunks” عبارة عن مجموعات متتالية من الإطارات (frames)، ويتعامل مع كل قطعة بطريقة ذكية عبر خوارزمية إزالة التشويش (denoising).
📌 طريقة العمل على
✅ كل قطعة تتكون من 24 إطارًا.
✅ يتم تنظيفها تدريجياً من الضوضاء.
✅ بمجرد الوصول إلى مستوى جيد من التنظيف، يبدأ النموذج تلقائياً بإنشاء القطعة التالية.
✅ يمكن معالجة حتى 4 قطع في نفس الوقت، مما يجعل عملية توليد الفيديو أكثر كفاءة وسرعة.
⚙️ أهم مميزات MAGI-1 التقنية
✅ نموذج Transformer-VAE
✅ يعتمد على هيكلية تجمع بين محول (Transformer) وتشفير تلقائي تبايني (VAE).
✅ ضغط المكاني: ×8
✅ ضغط الزمني: ×4
✅ سرعة فك تشفير عالية جدًا مع جودة إعادة بناء قوية للفيديو.
✅ خوارزمية إزالة التشويش التتابعية (Auto-Regressive Denoising)
🌟 الابتكار هنا:
✅ بدل ما يولد الفيديو دفعة واحدة، يتم توليده قطعة قطعة.
✅ هذا يعطي مرونة كبيرة وسرعة أعلى في الإنجاز.
✅ معمارية مبنية على نموذج التحويل بالانتشار (Diffusion Transformer)
✅ استخدام تقنيات مثل:
- Block-Causal Attention
- Parallel Attention Block
- Sandwich Normalization
- SwiGLU
- Softcap Modulation
✅ خوارزمية التقطير (Distillation)
✅ تُمكن النموذج من العمل بكفاءة أعلى من خلال تقنيات التقطير الذكية.
✅ تعلم ذاتي يحافظ على الجودة مع تقليل عدد خطوات الاستدلال (inference steps).
🏛️ مكتبة النماذج (Model Zoo) بالذكاء الاصطناعي
قامت SandAI بتوفير مجموعة نماذج مدربة مسبقًا:
النموذج | الوزن | الجهاز الموصى به |
---|---|---|
📦 MAGI-1-VAE | MAGI-1-VAE | – |
📦 MAGI-1-24B | MAGI-1-24B | 8 × H100/H800 |
📦 MAGI-1-24B-distill | MAGI-1-24B-distill | 8 × H100/H800 |
📦 MAGI-1-24B-distill+fp8_quant | MAGI-1-24B-distill+quant | 4 × H100/H800 أو 8 × RTX 4090 |
📦 MAGI-1-4.5B | MAGI-1-4.5B | 1 × RTX 4090 |
📊 أداء النموذج: نتائج مبهره
في التقييمات البشرية والمخبرية، أظهر ماجي 1 أداءً مذهلاً، متفوقًا على معظم النماذج مفتوحة المصدر.
✨ مقارنة الأداء مع النماذج الأخرى:
النموذج | الدقة الفيزيائية (Phys IQ Score) | جودة الصورة المكانية (Spatial IoU) | جودة الزمان والمكان (Spatio-Temporal) | الخطأ المتوسط التربيعي (MSE) |
---|---|---|---|---|
🏆 MAGI (V2V) | 56.02 | 0.367 | 0.270 | 0.005 |
🏆 VideoPoet (V2V) | 29.50 | 0.204 | 0.164 | 0.010 |
🏆 MAGI (I2V) | 30.23 | 0.203 | 0.151 | 0.012 |
🏆 Kling1.6 (I2V) | 23.64 | 0.197 | 0.086 | 0.025 |
🏆 Wan2.1 (I2V) | 20.89 | 0.153 | 0.100 | 0.023 |
🏆 GroundTruth | 100.00 | 0.678 | 0.535 | 0.002 |
📌 استنتاج مهم:
✅ MAGI-1 يقدم أفضل جودة حركة ودقة متناهية في المشاهد الطبيعية مقارنة بكل منافسيه.
🖥️ كيف التشغل ؟
توجد طريقتان:
🐳 عبر Docker (مُوصى به)
✅ تثبيت Docker
✅ تحميل الصورة الجاهزة
✅ تشغيل الحاوية مع جميع الإعدادات
docker pull sandai/magi:latest
docker run -it --gpus all --privileged --shm-size=32g --name magi --net=host --ipc=host --ulimit memlock=-1 --ulimit stack=6710886 sandai/magi:latest /bin/bash
📦 عبر الكود المصدر (-Source Code)
✅ إنشاء بيئة افتراضية جديدة.
✅ تثبيت PyTorch مع الاعتماديات.
✅ تثبيت باقي المكتبات المطلوبة.
✅ تثبيت مكتبة MagiAttention.
conda create -n magi python==3.10.12
conda install pytorch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0 pytorch-cuda=12.4 -c pytorch -c nvidia
pip install -r requirements.txt
conda install -c conda-forge ffmpeg=4.4
git clone git@github.com:SandAI-org/MagiAttention.git
cd MagiAttention
git submodule update --init --recursive
pip install --no-build-isolation .
🎬 أوامر التشغيل (Inference)
يمكنك تشغيل MAGI-1 بثلاثة أوضاع:
✅ تحويل نص إلى فيديو (Text to Video – T2V).
✅ تحويل صورة إلى فيديو (Image to Video – I2V).
✅ تحويل فيديو إلى فيديو (Video to Video – V2V).
مثال أمر تشغيل لتحويل صورة إلى فيديو:
bash example/24B/run.sh --mode i2v --image_path example/assets/image.jpeg --output_path results/
📜 الرخصة والحقوق
✅ مرخصة تحت رخصة Apache License 2.0.
✅ كل التفاصيل موجودة هنا.
📣 لمن يريد الاستشهاد بالنموذج
لو استفدت من MAGI-1 في أبحاثك أو مشاريعك العلمية، يمكنك استخدام الاقتباس التالي:
@misc{magi1,
title={MAGI-1: Autoregressive Video Generation at Scale},
author={Sand-AI},
year={2025},
url={https://static.magi.world/static/files/MAGI_1.pdf},
}
✨ الخلاصة عن
✅ نموذج يمثل طفرة نوعية في عالم توليد الفيديوهات بالذكاء الاصطناعي.
✅ يقدم أفضل جودة حركة ودقة مقارنة بالنماذج المفتوحة الأخرى.
✅ يسمح بإنشاء فيديوهات طويلة بدقة عالية بناءً على نصوص أو صور أو حتى فيديوهات سابقة.
✅ يتيح تحكم مرن في المشاهد، مع دعم سلس للدمج بين المشاهد والتبديل الناعم بينها.
باختصار، ماجي 1 ليس مجرد أداة، بل منصة متكاملة لابتكار الفيديوهات الإبداعية عالية الجودة بسهولة وبشكل مفتوح للجميع. 🚀
فيديوهات تعليمية مفيدة 📚
بعض الفيديوهات اللي أنصحكم تشوفوها:
🔹 شرح مفصل بواسطة Mohamed Ansary