OpenAI n’est pas le seul acteur à proposer des modèles d’IA pouvant générer des vidéos. ByteDance, l’entreprise chinoise derrière TikTok, a récemment présenté Seedance 2.0 : un nouveau modèle axé sur le réalisme pouvant créer des scènes complexes.Vidéo ByteDanceLe modèle accepte du texte, des images, de l’audio et de la vidéo comme entrées. Il peut donc combiner des instructions en langage naturel avec des références multiples allant jusqu’à 9 images, 3 segments vidéo et 3 fichiers audio. Cela lui permet de réutiliser les cadrages et les mouvements, ainsi que les ambiances sonores ou le style.Les développeurs mettent en avant un net bond en qualité par rapport à la version 1.5. Le modèle s’améliore surtout dans les scènes difficiles avec des interactions entre plusieurs sujets ou des mouvements complexes. Il se débrouille mieux pour éviter de casser la continuité et éviter les artefacts ou autres petites bourdes non désirées. Le modèle peut générer des clips vidéo avec audio d'une...
Avec Seedance 2.0, ByteDance passe un cap dans la génération de vidéos