« Art Sciences 2025/2026 E1 » : différence entre les versions

De wiki-se.plil.fr
Aller à la navigation Aller à la recherche
Aucun résumé des modifications
Ligne 20 : Ligne 20 :


Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.<ref>https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb</ref>[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.<ref>https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb</ref>[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]




Ligne 26 : Ligne 27 :


== Jour 2 — Mise en place technique et travail en local ==
== Jour 2 — Mise en place technique et travail en local ==
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.


Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==
Cette troisième journée a été consacrée à la séparation des interfaces et à la mise en relation entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace de saisie du spectateur (la tablette) de l’espace de représentation (l’écran), tout en maintenant un lien direct entre les deux.
Le questionnaire est intégré dans une interface web pensée pour une tablette. Il permet au spectateur de sélectionner des critères physiques, esthétiques et expressifs (visage, peau, cheveux, expression, accessoires). Ces choix sont traduits en données exploitables par le système d’IA.
En parallèle, l’écran vertical affiche uniquement le portrait généré. Celui-ci se met à jour en fonction des réponses envoyées depuis la tablette, créant un dialogue en temps réel entre le spectateur et l’avatar.
Un lien technique est établi entre les deux interfaces via un serveur local : les données du questionnaire sont envoyées au modèle d’IA, exécuté en Python dans VS Code, puis le résultat est retransmis à l’écran. Cette architecture permet de conserver une interaction fluide tout en affirmant la distinction des rôles entre interface de contrôle et espace de visualisation.
Cette journée marque ainsi une étape importante dans la concrétisation de l’installation interactive, en faisant émerger un dispositif où l’IA devient un intermédiaire fragile entre les choix humains et leur traduction visuelle.

Version du 29 janvier 2026 à 09:45

Présentation du projet

Avatar est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.

Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données [1]

L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.

Prévisualisation de l'installation finale


Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.

Jour 1 — Recherche esthétique et choix du modèle

La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.

Mario Klingemann. Memories of Passersby I, 2018

Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.

Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.[2]

Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.




Jour 2 — Mise en place technique et travail en local

Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.

Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation Avatar. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.


Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site

Cette troisième journée a été consacrée à la séparation des interfaces et à la mise en relation entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace de saisie du spectateur (la tablette) de l’espace de représentation (l’écran), tout en maintenant un lien direct entre les deux.

Le questionnaire est intégré dans une interface web pensée pour une tablette. Il permet au spectateur de sélectionner des critères physiques, esthétiques et expressifs (visage, peau, cheveux, expression, accessoires). Ces choix sont traduits en données exploitables par le système d’IA.

En parallèle, l’écran vertical affiche uniquement le portrait généré. Celui-ci se met à jour en fonction des réponses envoyées depuis la tablette, créant un dialogue en temps réel entre le spectateur et l’avatar.

Un lien technique est établi entre les deux interfaces via un serveur local : les données du questionnaire sont envoyées au modèle d’IA, exécuté en Python dans VS Code, puis le résultat est retransmis à l’écran. Cette architecture permet de conserver une interaction fluide tout en affirmant la distinction des rôles entre interface de contrôle et espace de visualisation.

Cette journée marque ainsi une étape importante dans la concrétisation de l’installation interactive, en faisant émerger un dispositif où l’IA devient un intermédiaire fragile entre les choix humains et leur traduction visuelle.