أعلنت شركة تنسنت Tencent الصينية إطلاق نموذج HunyuanVideo، وهو نموذج جديد مفتوح المصدر لتوليد الفيديو بالذكاء الاصطناعي يهدف إلى منافسة النماذج التجارية الحالية.
ويُعد هذا النموذج، الذي يضم أكثر من 13 مليار مَعلَمة، أكبر نموذج من نوعه للعامة حاليًا، وفقًا لما صرحت به الشركة.
وتشير الوثائق التقنية إلى أن أداء HunyuanVideo يتفوق على أنظمة مشابهة، مثل Runway Gen-3 و Luma 1.6، بالإضافة إلى ثلاثة نماذج رئيسية لتوليد الفيديو مطوّرة في الصين. وأظهرت الاختبارات أن النموذج يقدّم نتائج مميزة خاصةً في جودة الحركة داخل الفيديو.
ويدعم نموذج HunyuanVideo مهام متعددة، ومنها توليد مقاطع الفيديو من الأوصاف النصية، وتحويل الصور الثابتة إلى مقاطع متحركة، وإنشاء شخصيات متحركة، وإضافة الصوت إلى محتوى الفيديو.
وطوّرت فرق تنسنت نهج تدريب متعدد المراحل للنموذج، يبدأ بالتدريب على الصور ذات الدقة المنخفضة (256 بكسلًا)، ثم ينتقل إلى تدريب مختلط على مقاييس أعلى. وأما المرحلة النهائية، فتتضمن تدريبات تدريجية على مقاطع الفيديو والصور، مع زيادة الدقة وطول الفيديو بنحو تصاعدي، مما يؤدي إلى تحسين جودة الإنتاج النهائي، وفقًا لمطوري النموذج.
وباختيارها جعل نموذجها HunyuanVideo مفتوح المصدر، تهدف تنسنت إلى تقليص الفجوة بين الأنظمة المملوكة للشركات والأنظمة المفتوحة. وقد أصدرت الشركة الشفرة المصدرية للنموذج عبر منصة GitHub، مع خطط لتطوير النموذج، وإضافة مزايا جديدة مستقبلًا.
ويضع هذا الإطلاق شركة تنسنت في منافسة مباشرة مع شركات رائدة، مثل Runway وشركة OpenAI بنموذجها Sora، بالإضافة إلى شركات صينية أخرى تعمل على تطوير نماذج مشابهة مثل KLING.
نسخ الرابط تم نسخ الرابط
تابعنا
ملحوظة: مضمون هذا الخبر تم كتابته بواسطة البوابة العربية للأخبار التقنية ولا يعبر عن وجهة نظر منقول وانما تم نقله بمحتواه كما هو من البوابة العربية للأخبار التقنية ونحن غير مسئولين عن محتوى الخبر والعهدة علي المصدر السابق ذكرة.