Art Sciences 2025/2026 E1

De wiki-se.plil.fr
Aller à la navigation Aller à la recherche

Présentation du projet

Avatar est un projet artistique qui questionne la fragilité des intelligences artificielles génératives et leurs dérives possibles. Contrairement à l’image d’une IA performante et totalement maîtrisée, le projet met en avant des systèmes instables, imprévisibles et capables de se détériorer avec le temps.

Le projet repose sur l’idée que les IA génératives utilisent de plus en plus leurs propres images pour s’entraîner, ce qui peut provoquer une baisse de qualité et un effondrement progressif des images produites. Ce phénomène est aujourd’hui étudié dans plusieurs recherches scientifiques sur le model collapse.

L’esthétique du projet s’inspire du glitch IA observé entre 2015 et 2020, une période où les modèles génératifs étaient encore peu entraînés et produisaient des images déformées et imparfaites. En réutilisant ces esthétiques anciennes, le projet imagine un futur où l’IA ne tend pas vers la perfection, mais vers l’erreur, la perte et l’instabilité.

Prévisualisation de l'installation finale

Le projet prend la forme d’une installation interactive. Un écran vertical affiche un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci reste instable, avec des micro-mouvements et des dégradations visuelles, donnant l’impression d’une entité artificielle en perte de contrôle.

Jour 1 — Recherche esthétique et choix du modèle

La première journée a été consacrée à une recherche sur les esthétiques de l’IA générative. Les modèles récents ont rapidement été écartés, car leurs images étaient trop lisses, trop maîtrisées et visuellement trop parfaites. L’attention s’est alors portée sur les images glitchées apparues autour de 2023, afin de comprendre d’où venait cette esthétique.

Mario Klingemann. Memories of Passersby I, 2018

Cette recherche s’appuie sur le travail de Mario Klingemann (Memories of Passersby I, 2018), dont la pratique utilise le glitch, l’erreur et les limites du machine learning comme matière artistique. Son travail montre une intelligence artificielle imparfaite, instable, et remet en question l’idée d’une IA neutre et parfaitement contrôlée.

Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.

Dans cette continuité, la recherche a mené à l’utilisation de modèles génératifs plus anciens, comme VQGAN + CLIP (2021), connus pour produire des images déformées, instables et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en lien avec le propos du projet.

Le principal problème rencontré lors de cette journée était la perfection excessive des IA récentes : les images générées manquaient d’erreurs et de déformations. Il a donc été nécessaire de revenir à des modèles plus anciens afin d’obtenir une esthétique plus expressive, impossible à atteindre avec les IA actuelles.



Jour 2 — Mise en place technique et travail en local

Premier essai réussi d'image générée en local

Le 28 janvier, le projet entre dans une phase plus technique. L’IA est installée en local sur un ordinateur plus puissant, avec une carte graphique dédiée, et configurée en Python dans VS Code. Cela permet de ne plus dépendre du cloud et d’avoir un meilleur contrôle sur la génération des images.

L’IA est ensuite reliée au questionnaire de l’installation Avatar. Les réponses du questionnaire sont intégrées au code afin d’influencer la génération des avatars. De nombreux tests sont réalisés, car une partie du code VQGAN + CLIP disponible en ligne n’est plus fonctionnelle aujourd’hui, notamment à cause de bibliothèques obsolètes.

Objectifs pour demain :
  • Accélérer le temps de génération (<1min) ou ajouter quelque chose qui fait rester durant la génération ( image/ compte à rebours ?).
  • Faire en sorte que la vidéo se lance automatiquement en boucle jusqu’à ce qu’un nouveau spectateur génère un avatar (gif).
  • Séparer l’affichage : la vidéo sur la télévision et le questionnaire sur la tablette.
  • Enregistrer automatiquement chaque vidéo générée.

Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site

Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de séparer clairement l’espace d’interaction du spectateur (la tablette) et l’espace de visualisation (l’écran), tout en conservant un lien direct entre les deux.

Ahmed Abergadi sur VS code

Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar. En parallèle, l’écran vertical affiche uniquement la vidéo du portrait généré, qui évolue en fonction des réponses transmises.

Un serveur local permet la communication entre la tablette et l’écran, assurant une interaction fluide et une lecture claire du dispositif. Une réflexion est également engagée autour de la création d’un QR code associé à chaque vidéo générée, afin de permettre aux spectateurs de récupérer leur avatar après l’expérience.

Objectifs avant la fin de la journée :
  • Simplifier l’interface du questionnaire en limitant le bouton « générer un avatar » à une seule utilisation
  • Supprimer l’affichage de l’image et les éléments inutiles sur la tablette, et améliorer la rapidité de génération ( réduire la résolution ect..)
  • L’objectif est de ne conserver que le questionnaire et les boutons de navigation, puis d’afficher uniquement un bouton « recommencer un avatar » une fois la génération terminée.
  • Penser un socle pour positionner la tablette
  • Trouver un moyen pour un plein écran sur la tablette
  • Autonomie ?