IA générative : du mouvement humain à la création visuelle

Lab7 Uncategorized décembre 7, 2025

Dès les balbutiements de la génération d’image par intelligence artificielle, Samuel Tétreault – directeur artistique LAB7 – a vu le potentiel d’un dialogue créatif entre cette technologie, le mouvement humain et la performance live. Pour réaliser cette vision nous avons mené plusieurs explorations, au rythme des évolutions des outils d’IA générative.

Lors de notre première exploration en 2023, nous avons simplement transformé grâce à l’intelligence artificielle des vidéos pré-enregistrées, confirmant ainsi le potentiel créatif. Puis un de nos stagiaires, ingénieur informatique, a construit une première ébauche faisant dialoguer le mouvement humain et l’IA générative en « temps réel ». Ce pipeline combinait caméra vidéo, détourage de silhouette et recherche dans une banque d’images qui étaient générées en amont. 

 

La seconde itération du projet, à l’été 2024, a remplacé la caméra vidéo par une caméra Kinect et s’est appuyée sur une intégration de Stable Diffusion dans Comfy UI. Sous la direction artistique de Samuel Tétreault, nous avons réalisé plusieurs recettes visuelles et avons invité des danseurs acrobates à leur donner vie. Les résultats de cette étape de travail ont été présentés au Forum LAB7 en novembre 2024 puis à la conférence E-AI en février 2025. Le système créait de 4 à 10 images par seconde, ce qui donnait un rendu un peu saccadé et a orienté certains choix artistiques, notamment au niveau du rythme de la performance. 

 

En février 2025, nous avons tiré parti de l’intégration de Stable Diffusion dans le logiciel VVVV pour pousser plus loin notre concept et atteindre une plus grande fluidité visuelle. Nous avons utilisé ce dispositif lors de la cérémonie d’ouverture de Hannover Messe, le plus grand salon mondial des technologies industrielles, avec une performance dirigée par Patrick Léonard (codirecteur artistique des 7 Doigts), en collaboration avec la formidable compagnie autochtone torontoise Red Sky Performance et notre compagnie sœur Supply + Demand. 

 

Enfin, nous avons perfectionné la version la plus récente du dispositif lors d’un laboratoire de création en juillet 2025, financé par la Ville de Montréal. Samuel Tétreault a travaillé main dans la main avec l’artiste numérique Raphaël Dupont, de notre compagnie sœur Supply + Demand, pour créer une dizaine de recettes visuelles qui appliquent la génération d’images par intelligence artificielle sur des compositions mêlant la silhouette des artistes en mouvement avec des animations d’objets 3D et des systèmes de particules. Un travail de composition visuelle a également été réalisé sur un dispositif multi-écran pour explorer le potentiel d’un espace immersif et quatre acrobates ont donné vie aux visuels. Cette démo ainsi qu’une version courte présentée à HUB Montréal en octobre 2025 ont été deux beaux succès et notre public de professionnels a été impressionné par le niveau esthétique et technique que nous avons atteint.  

Tout au long de ce projet, nous avons mené de nombreux tests avec notre partenaire le Centre HUPR, par exemple pour tester le dispositif avec des disciplines de cirque plus complexes, des accessoires, ou bien encore avec d’autres méthodes de captation. La SAT a également réalisé une interface utilisateur simplifiée, intégrée dans leur solution open source Ossia, pour permettre aux créateurs d’explorer ce type de concept mêlant mouvement humain et générations d’images par intelligence artificielle. Maintenant que le dispositif a prouvé son potentiel, nous pouvons l’utiliser en contexte de performance, avec des danseurs et acrobates, mais également comme installation interactive disponible au grand public. Et, pourquoi pas, prochainement dans un spectacle! 

Nous remercions le soutien de la Ville de Montréal et de nos partenaires pour la réalisation de ce projet. 

 

Aucun Commentaire

Laisser un commentaire

Vous aimeriez aussi