Art Sciences 2025/2026 E1

De wiki-se.plil.fr
Aller à la navigation Aller à la recherche

Présentation du projet

Avatar est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.

Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données [1]

L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.

Prévisualisation de l'installation finale


Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.

Jour 1 — Recherche esthétique et choix du modèle

La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.

Mario Klingemann. Memories of Passersby I, 2018

Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.

Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.[2]

Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.




Jour 2 — Mise en place technique et travail en local

Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.

Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation Avatar. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.


Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site

Ahmed Abergadi sur VS code


Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace d’interaction du spectateur (tablette) de l’espace de visualisation (écran), tout en maintenant un lien direct entre les deux.

Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar en temps réel. En parallèle, l’écran vertical affiche uniquement le portrait généré, qui évolue selon les données transmises.

Un serveur local assure la communication entre les deux dispositifs, garantissant une interaction fluide tout en renforçant la distinction entre interface de contrôle et espace de représentation.

Enfin, une réflexion est engagée autour de la création d’un QR code associé à chaque vidéo générée, permettant aux spectateurs de récupérer leur avatar après l’expérience.