<?xml version="1.0"?>
<feed xmlns="http://www.w3.org/2005/Atom" xml:lang="fr">
	<id>https://wiki-se.plil.fr/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Abergadi</id>
	<title>wiki-se.plil.fr - Contributions [fr]</title>
	<link rel="self" type="application/atom+xml" href="https://wiki-se.plil.fr/mediawiki/api.php?action=feedcontributions&amp;feedformat=atom&amp;user=Abergadi"/>
	<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php/Sp%C3%A9cial:Contributions/Abergadi"/>
	<updated>2026-04-23T09:13:19Z</updated>
	<subtitle>Contributions</subtitle>
	<generator>MediaWiki 1.39.1</generator>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11743</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11743"/>
		<updated>2026-01-29T14:42:33Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : /* Objectifs avant la fin de la journée : */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui questionne la fragilité des intelligences artificielles génératives et leurs dérives possibles. Contrairement à l’image d’une IA performante et totalement maîtrisée, le projet met en avant des systèmes instables, imprévisibles et capables de se détériorer avec le temps.&lt;br /&gt;
&lt;br /&gt;
Le projet repose sur l’idée que les IA génératives utilisent de plus en plus leurs propres images pour s’entraîner, ce qui peut provoquer une baisse de qualité et un effondrement progressif des images produites. Ce phénomène est aujourd’hui étudié dans plusieurs recherches scientifiques sur le model collapse.&lt;br /&gt;
&lt;br /&gt;
L’esthétique du projet s’inspire du glitch IA observé entre 2015 et 2020, une période où les modèles génératifs étaient encore peu entraînés et produisaient des images déformées et imparfaites. En réutilisant ces esthétiques anciennes, le projet imagine un futur où l’IA ne tend pas vers la perfection, mais vers l’erreur, la perte et l’instabilité.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive. Un écran vertical affiche un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci reste instable, avec des micro-mouvements et des dégradations visuelles, donnant l’impression d’une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à une recherche sur les esthétiques de l’IA générative. Les modèles récents ont rapidement été écartés, car leurs images étaient trop lisses, trop maîtrisées et visuellement trop parfaites. L’attention s’est alors portée sur les images glitchées apparues autour de 2023, afin de comprendre d’où venait cette esthétique.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]Cette recherche s’appuie sur le travail de Mario Klingemann (''Memories of Passersby I'', 2018), dont la pratique utilise le glitch, l’erreur et les limites du machine learning comme matière artistique. Son travail montre une intelligence artificielle imparfaite, instable, et remet en question l’idée d’une IA neutre et parfaitement contrôlée.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche a mené à l’utilisation de modèles génératifs plus anciens, comme VQGAN + CLIP (2021), connus pour produire des images déformées, instables et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en lien avec le propos du projet.&lt;br /&gt;
&lt;br /&gt;
Le principal problème rencontré lors de cette journée était la perfection excessive des IA récentes : les images générées manquaient d’erreurs et de déformations. Il a donc été nécessaire de revenir à des modèles plus anciens afin d’obtenir une esthétique plus expressive, impossible à atteindre avec les IA actuelles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
[[Fichier:Portrait 1.jpg|vignette|Premier essai réussi d'image générée en local]]&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase plus technique. L’IA est installée en local sur un ordinateur plus puissant, avec une carte graphique dédiée, et configurée en Python dans VS Code. Cela permet de ne plus dépendre du cloud et d’avoir un meilleur contrôle sur la génération des images.&lt;br /&gt;
&lt;br /&gt;
L’IA est ensuite reliée au questionnaire de l’installation '''Avatar'''. Les réponses du questionnaire sont intégrées au code afin d’influencer la génération des avatars. De nombreux tests sont réalisés, car une partie du code VQGAN + CLIP disponible en ligne n’est plus fonctionnelle aujourd’hui, notamment à cause de bibliothèques obsolètes.&lt;br /&gt;
&lt;br /&gt;
====== Objectifs pour demain : ======&lt;br /&gt;
&lt;br /&gt;
* Accélérer le temps de génération (&amp;lt;1min) ou ajouter quelque chose qui fait rester durant la génération ( image/ compte à rebours ?).&lt;br /&gt;
* Faire en sorte que la vidéo se lance automatiquement en boucle jusqu’à ce qu’un nouveau spectateur génère un avatar (gif).&lt;br /&gt;
* Séparer l’affichage : la vidéo sur la télévision et le questionnaire sur la tablette.&lt;br /&gt;
* Enregistrer automatiquement chaque vidéo générée.&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de séparer clairement l’espace d’interaction du spectateur (la tablette) et l’espace de visualisation (l’écran), tout en conservant un lien direct entre les deux.[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar. En parallèle, l’écran vertical affiche uniquement la vidéo du portrait généré, qui évolue en fonction des réponses transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local permet la communication entre la tablette et l’écran, assurant une interaction fluide et une lecture claire du dispositif. Une réflexion est également engagée autour de la création d’un QR code associé à chaque vidéo générée, afin de permettre aux spectateurs de récupérer leur avatar après l’expérience.&lt;br /&gt;
&lt;br /&gt;
======  Objectifs avant la fin de la journée : ======&lt;br /&gt;
* Simplifier l’interface du questionnaire en limitant le bouton « générer un avatar » à une seule utilisation &lt;br /&gt;
* Supprimer l’affichage de l’image et les éléments inutiles sur la tablette, et améliorer la rapidité de génération ( réduire la résolution ect..)&lt;br /&gt;
* L’objectif est de ne conserver que le questionnaire et les boutons de navigation, puis d’afficher uniquement un bouton « recommencer un avatar » une fois la génération terminée.&lt;br /&gt;
* Penser un socle pour positionner la tablette&lt;br /&gt;
* Trouver un moyen pour un plein écran sur la tablette&lt;br /&gt;
* Autonomie ?&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11696</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11696"/>
		<updated>2026-01-29T13:49:05Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui questionne la fragilité des intelligences artificielles génératives et leurs dérives possibles. Contrairement à l’image d’une IA performante et totalement maîtrisée, le projet met en avant des systèmes instables, imprévisibles et capables de se détériorer avec le temps.&lt;br /&gt;
&lt;br /&gt;
Le projet repose sur l’idée que les IA génératives utilisent de plus en plus leurs propres images pour s’entraîner, ce qui peut provoquer une baisse de qualité et un effondrement progressif des images produites. Ce phénomène est aujourd’hui étudié dans plusieurs recherches scientifiques sur le model collapse.&lt;br /&gt;
&lt;br /&gt;
L’esthétique du projet s’inspire du glitch IA observé entre 2015 et 2020, une période où les modèles génératifs étaient encore peu entraînés et produisaient des images déformées et imparfaites. En réutilisant ces esthétiques anciennes, le projet imagine un futur où l’IA ne tend pas vers la perfection, mais vers l’erreur, la perte et l’instabilité.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive. Un écran vertical affiche un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci reste instable, avec des micro-mouvements et des dégradations visuelles, donnant l’impression d’une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à une recherche sur les esthétiques de l’IA générative. Les modèles récents ont rapidement été écartés, car leurs images étaient trop lisses, trop maîtrisées et visuellement trop parfaites. L’attention s’est alors portée sur les images glitchées apparues autour de 2023, afin de comprendre d’où venait cette esthétique.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]Cette recherche s’appuie sur le travail de Mario Klingemann (''Memories of Passersby I'', 2018), dont la pratique utilise le glitch, l’erreur et les limites du machine learning comme matière artistique. Son travail montre une intelligence artificielle imparfaite, instable, et remet en question l’idée d’une IA neutre et parfaitement contrôlée.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche a mené à l’utilisation de modèles génératifs plus anciens, comme VQGAN + CLIP (2021), connus pour produire des images déformées, instables et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en lien avec le propos du projet.&lt;br /&gt;
&lt;br /&gt;
Le principal problème rencontré lors de cette journée était la perfection excessive des IA récentes : les images générées manquaient d’erreurs et de déformations. Il a donc été nécessaire de revenir à des modèles plus anciens afin d’obtenir une esthétique plus expressive, impossible à atteindre avec les IA actuelles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
[[Fichier:Portrait 1.jpg|vignette|Premier essai réussi d'image générée en local]]&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase plus technique. L’IA est installée en local sur un ordinateur plus puissant, avec une carte graphique dédiée, et configurée en Python dans VS Code. Cela permet de ne plus dépendre du cloud et d’avoir un meilleur contrôle sur la génération des images.&lt;br /&gt;
&lt;br /&gt;
L’IA est ensuite reliée au questionnaire de l’installation '''Avatar'''. Les réponses du questionnaire sont intégrées au code afin d’influencer la génération des avatars. De nombreux tests sont réalisés, car une partie du code VQGAN + CLIP disponible en ligne n’est plus fonctionnelle aujourd’hui, notamment à cause de bibliothèques obsolètes.&lt;br /&gt;
&lt;br /&gt;
====== Objectifs pour demain : ======&lt;br /&gt;
&lt;br /&gt;
* Accélérer le temps de génération (&amp;lt;1min) ou ajouter quelque chose qui fait rester durant la génération ( image/ compte à rebours ?).&lt;br /&gt;
* Faire en sorte que la vidéo se lance automatiquement en boucle jusqu’à ce qu’un nouveau spectateur génère un avatar (gif).&lt;br /&gt;
* Séparer l’affichage : la vidéo sur la télévision et le questionnaire sur la tablette.&lt;br /&gt;
* Enregistrer automatiquement chaque vidéo générée.&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de séparer clairement l’espace d’interaction du spectateur (la tablette) et l’espace de visualisation (l’écran), tout en conservant un lien direct entre les deux.[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar. En parallèle, l’écran vertical affiche uniquement la vidéo du portrait généré, qui évolue en fonction des réponses transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local permet la communication entre la tablette et l’écran, assurant une interaction fluide et une lecture claire du dispositif. Une réflexion est également engagée autour de la création d’un QR code associé à chaque vidéo générée, afin de permettre aux spectateurs de récupérer leur avatar après l’expérience.&lt;br /&gt;
&lt;br /&gt;
======  Objectifs avant la fin de la journée : ======&lt;br /&gt;
* Simplifier l’interface du questionnaire en limitant le bouton « générer un avatar » à une seule utilisation &lt;br /&gt;
* Supprimer l’affichage de l’image et les éléments inutiles sur la tablette, et améliorer la rapidité de génération ( réduire la résolution ect..)&lt;br /&gt;
* L’objectif est de ne conserver que le questionnaire et les boutons de navigation, puis d’afficher uniquement un bouton « recommencer un avatar » une fois la génération terminée.&lt;br /&gt;
* Penser un socle pour positionner la tablette&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11690</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11690"/>
		<updated>2026-01-29T13:38:03Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : /* Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui questionne la fragilité des intelligences artificielles génératives et leurs dérives possibles. Contrairement à l’image d’une IA performante et totalement maîtrisée, le projet met en avant des systèmes instables, imprévisibles et capables de se détériorer avec le temps.&lt;br /&gt;
&lt;br /&gt;
Le projet repose sur l’idée que les IA génératives utilisent de plus en plus leurs propres images pour s’entraîner, ce qui peut provoquer une baisse de qualité et un effondrement progressif des images produites. Ce phénomène est aujourd’hui étudié dans plusieurs recherches scientifiques sur le model collapse.&lt;br /&gt;
&lt;br /&gt;
L’esthétique du projet s’inspire du glitch IA observé entre 2015 et 2020, une période où les modèles génératifs étaient encore peu entraînés et produisaient des images déformées et imparfaites. En réutilisant ces esthétiques anciennes, le projet imagine un futur où l’IA ne tend pas vers la perfection, mais vers l’erreur, la perte et l’instabilité.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive. Un écran vertical affiche un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci reste instable, avec des micro-mouvements et des dégradations visuelles, donnant l’impression d’une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à une recherche sur les esthétiques de l’IA générative. Les modèles récents ont rapidement été écartés, car leurs images étaient trop lisses, trop maîtrisées et visuellement trop parfaites. L’attention s’est alors portée sur les images glitchées apparues autour de 2023, afin de comprendre d’où venait cette esthétique.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]Cette recherche s’appuie sur le travail de Mario Klingemann (''Memories of Passersby I'', 2018), dont la pratique utilise le glitch, l’erreur et les limites du machine learning comme matière artistique. Son travail montre une intelligence artificielle imparfaite, instable, et remet en question l’idée d’une IA neutre et parfaitement contrôlée.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche a mené à l’utilisation de modèles génératifs plus anciens, comme VQGAN + CLIP (2021), connus pour produire des images déformées, instables et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en lien avec le propos du projet.&lt;br /&gt;
&lt;br /&gt;
Le principal problème rencontré lors de cette journée était la perfection excessive des IA récentes : les images générées manquaient d’erreurs et de déformations. Il a donc été nécessaire de revenir à des modèles plus anciens afin d’obtenir une esthétique plus expressive, impossible à atteindre avec les IA actuelles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
[[Fichier:Portrait 1.jpg|vignette|Premier essai réussi d'image générée en local]]&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase plus technique. L’IA est installée en local sur un ordinateur plus puissant, avec une carte graphique dédiée, et configurée en Python dans VS Code. Cela permet de ne plus dépendre du cloud et d’avoir un meilleur contrôle sur la génération des images.&lt;br /&gt;
&lt;br /&gt;
L’IA est ensuite reliée au questionnaire de l’installation '''Avatar'''. Les réponses du questionnaire sont intégrées au code afin d’influencer la génération des avatars. De nombreux tests sont réalisés, car une partie du code VQGAN + CLIP disponible en ligne n’est plus fonctionnelle aujourd’hui, notamment à cause de bibliothèques obsolètes.&lt;br /&gt;
&lt;br /&gt;
====== Objectifs pour demain : ======&lt;br /&gt;
&lt;br /&gt;
* Accélérer le temps de génération (&amp;lt;1min) ou ajouter quelque chose qui fait rester durant la génération ( image/ compte à rebours ?).&lt;br /&gt;
* Faire en sorte que la vidéo se lance automatiquement en boucle jusqu’à ce qu’un nouveau spectateur génère un avatar (gif).&lt;br /&gt;
* Séparer l’affichage : la vidéo sur la télévision et le questionnaire sur la tablette.&lt;br /&gt;
* Enregistrer automatiquement chaque vidéo générée.&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de séparer clairement l’espace d’interaction du spectateur (la tablette) et l’espace de visualisation (l’écran), tout en conservant un lien direct entre les deux.[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar. En parallèle, l’écran vertical affiche uniquement la vidéo du portrait généré, qui évolue en fonction des réponses transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local permet la communication entre la tablette et l’écran, assurant une interaction fluide et une lecture claire du dispositif. Une réflexion est également engagée autour de la création d’un QR code associé à chaque vidéo générée, afin de permettre aux spectateurs de récupérer leur avatar après l’expérience.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectifs avant la fin de la journée :'''&lt;br /&gt;
&lt;br /&gt;
* Simplifier l’interface du questionnaire en limitant le bouton « générer un avatar » à une seule utilisation &lt;br /&gt;
* Supprimer l’affichage de l’image et les éléments inutiles sur la tablette, et améliorer la rapidité de génération ( réduire la résolution ect..)&lt;br /&gt;
* L’objectif est de ne conserver que le questionnaire et les boutons de navigation, puis d’afficher uniquement un bouton « recommencer un avatar » une fois la génération terminée.&lt;br /&gt;
* Penser un socle pour positionner la tablette&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11689</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11689"/>
		<updated>2026-01-29T13:37:49Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui questionne la fragilité des intelligences artificielles génératives et leurs dérives possibles. Contrairement à l’image d’une IA performante et totalement maîtrisée, le projet met en avant des systèmes instables, imprévisibles et capables de se détériorer avec le temps.&lt;br /&gt;
&lt;br /&gt;
Le projet repose sur l’idée que les IA génératives utilisent de plus en plus leurs propres images pour s’entraîner, ce qui peut provoquer une baisse de qualité et un effondrement progressif des images produites. Ce phénomène est aujourd’hui étudié dans plusieurs recherches scientifiques sur le model collapse.&lt;br /&gt;
&lt;br /&gt;
L’esthétique du projet s’inspire du glitch IA observé entre 2015 et 2020, une période où les modèles génératifs étaient encore peu entraînés et produisaient des images déformées et imparfaites. En réutilisant ces esthétiques anciennes, le projet imagine un futur où l’IA ne tend pas vers la perfection, mais vers l’erreur, la perte et l’instabilité.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive. Un écran vertical affiche un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci reste instable, avec des micro-mouvements et des dégradations visuelles, donnant l’impression d’une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à une recherche sur les esthétiques de l’IA générative. Les modèles récents ont rapidement été écartés, car leurs images étaient trop lisses, trop maîtrisées et visuellement trop parfaites. L’attention s’est alors portée sur les images glitchées apparues autour de 2023, afin de comprendre d’où venait cette esthétique.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]Cette recherche s’appuie sur le travail de Mario Klingemann (''Memories of Passersby I'', 2018), dont la pratique utilise le glitch, l’erreur et les limites du machine learning comme matière artistique. Son travail montre une intelligence artificielle imparfaite, instable, et remet en question l’idée d’une IA neutre et parfaitement contrôlée.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche a mené à l’utilisation de modèles génératifs plus anciens, comme VQGAN + CLIP (2021), connus pour produire des images déformées, instables et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en lien avec le propos du projet.&lt;br /&gt;
&lt;br /&gt;
Le principal problème rencontré lors de cette journée était la perfection excessive des IA récentes : les images générées manquaient d’erreurs et de déformations. Il a donc été nécessaire de revenir à des modèles plus anciens afin d’obtenir une esthétique plus expressive, impossible à atteindre avec les IA actuelles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
[[Fichier:Portrait 1.jpg|vignette|Premier essai réussi d'image générée en local]]&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase plus technique. L’IA est installée en local sur un ordinateur plus puissant, avec une carte graphique dédiée, et configurée en Python dans VS Code. Cela permet de ne plus dépendre du cloud et d’avoir un meilleur contrôle sur la génération des images.&lt;br /&gt;
&lt;br /&gt;
L’IA est ensuite reliée au questionnaire de l’installation '''Avatar'''. Les réponses du questionnaire sont intégrées au code afin d’influencer la génération des avatars. De nombreux tests sont réalisés, car une partie du code VQGAN + CLIP disponible en ligne n’est plus fonctionnelle aujourd’hui, notamment à cause de bibliothèques obsolètes.&lt;br /&gt;
&lt;br /&gt;
====== Objectifs pour demain : ======&lt;br /&gt;
&lt;br /&gt;
* Accélérer le temps de génération (&amp;lt;1min) ou ajouter quelque chose qui fait rester durant la génération ( image/ compte à rebours ?).&lt;br /&gt;
* Faire en sorte que la vidéo se lance automatiquement en boucle jusqu’à ce qu’un nouveau spectateur génère un avatar (gif).&lt;br /&gt;
* Séparer l’affichage : la vidéo sur la télévision et le questionnaire sur la tablette.&lt;br /&gt;
* Enregistrer automatiquement chaque vidéo générée.&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de séparer clairement l’espace d’interaction du spectateur (la tablette) et l’espace de visualisation (l’écran), tout en conservant un lien direct entre les deux.&lt;br /&gt;
&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar. En parallèle, l’écran vertical affiche uniquement la vidéo du portrait généré, qui évolue en fonction des réponses transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local permet la communication entre la tablette et l’écran, assurant une interaction fluide et une lecture claire du dispositif. Une réflexion est également engagée autour de la création d’un QR code associé à chaque vidéo générée, afin de permettre aux spectateurs de récupérer leur avatar après l’expérience.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectifs avant la fin de la journée :'''&lt;br /&gt;
&lt;br /&gt;
* Simplifier l’interface du questionnaire en limitant le bouton « générer un avatar » à une seule utilisation &lt;br /&gt;
* Supprimer l’affichage de l’image et les éléments inutiles sur la tablette, et améliorer la rapidité de génération ( réduire la résolution ect..)&lt;br /&gt;
* L’objectif est de ne conserver que le questionnaire et les boutons de navigation, puis d’afficher uniquement un bouton « recommencer un avatar » une fois la génération terminée.&lt;br /&gt;
* Penser un socle pour positionner la tablette&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11687</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11687"/>
		<updated>2026-01-29T13:34:09Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui questionne la fragilité des intelligences artificielles génératives et leurs dérives possibles. Contrairement à l’image d’une IA performante et totalement maîtrisée, le projet met en avant des systèmes instables, imprévisibles et capables de se détériorer avec le temps.&lt;br /&gt;
&lt;br /&gt;
Le projet repose sur l’idée que les IA génératives utilisent de plus en plus leurs propres images pour s’entraîner, ce qui peut provoquer une baisse de qualité et un effondrement progressif des images produites. Ce phénomène est aujourd’hui étudié dans plusieurs recherches scientifiques sur le model collapse.&lt;br /&gt;
&lt;br /&gt;
L’esthétique du projet s’inspire du glitch IA observé entre 2015 et 2020, une période où les modèles génératifs étaient encore peu entraînés et produisaient des images déformées et imparfaites. En réutilisant ces esthétiques anciennes, le projet imagine un futur où l’IA ne tend pas vers la perfection, mais vers l’erreur, la perte et l’instabilité.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive. Un écran vertical affiche un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci reste instable, avec des micro-mouvements et des dégradations visuelles, donnant l’impression d’une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à une recherche sur les esthétiques de l’IA générative. Les modèles récents ont rapidement été écartés, car leurs images étaient trop lisses, trop maîtrisées et visuellement trop parfaites. L’attention s’est alors portée sur les images glitchées apparues autour de 2023, afin de comprendre d’où venait cette esthétique.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]Cette recherche s’appuie sur le travail de Mario Klingemann (''Memories of Passersby I'', 2018), dont la pratique utilise le glitch, l’erreur et les limites du machine learning comme matière artistique. Son travail montre une intelligence artificielle imparfaite, instable, et remet en question l’idée d’une IA neutre et parfaitement contrôlée.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche a mené à l’utilisation de modèles génératifs plus anciens, comme VQGAN + CLIP (2021), connus pour produire des images déformées, instables et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en lien avec le propos du projet.&lt;br /&gt;
&lt;br /&gt;
Le principal problème rencontré lors de cette journée était la perfection excessive des IA récentes : les images générées manquaient d’erreurs et de déformations. Il a donc été nécessaire de revenir à des modèles plus anciens afin d’obtenir une esthétique plus expressive, impossible à atteindre avec les IA actuelles.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
[[Fichier:Portrait 1.jpg|vignette|Premier essai réussi d'image générée en local]]&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase plus technique. L’IA est installée en local sur un ordinateur plus puissant, avec une carte graphique dédiée, et configurée en Python dans VS Code. Cela permet de ne plus dépendre du cloud et d’avoir un meilleur contrôle sur la génération des images.&lt;br /&gt;
&lt;br /&gt;
L’IA est ensuite reliée au questionnaire de l’installation '''Avatar'''. Les réponses du questionnaire sont intégrées au code afin d’influencer la génération des avatars. De nombreux tests sont réalisés, car une partie du code VQGAN + CLIP disponible en ligne n’est plus fonctionnelle aujourd’hui, notamment à cause de bibliothèques obsolètes.&lt;br /&gt;
&lt;br /&gt;
====== Objectifs pour demain : ======&lt;br /&gt;
&lt;br /&gt;
* Accélérer le temps de génération (&amp;lt;1min) ou ajouter quelque chose qui fait rester durant la génération ( image/ compte à rebours ?).&lt;br /&gt;
* Faire en sorte que la vidéo se lance automatiquement en boucle jusqu’à ce qu’un nouveau spectateur génère un avatar (gif).&lt;br /&gt;
* Séparer l’affichage : la vidéo sur la télévision et le questionnaire sur la tablette.&lt;br /&gt;
* Enregistrer automatiquement chaque vidéo générée.&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de séparer clairement l’espace d’interaction du spectateur (la tablette) et l’espace de visualisation (l’écran), tout en conservant un lien direct entre les deux.&lt;br /&gt;
&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar. En parallèle, l’écran vertical affiche uniquement la vidéo du portrait généré, qui évolue en fonction des réponses transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local permet la communication entre la tablette et l’écran, assurant une interaction fluide et une lecture claire du dispositif. Une réflexion est également engagée autour de la création d’un QR code associé à chaque vidéo générée, afin de permettre aux spectateurs de récupérer leur avatar après l’expérience.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Objectifs avant la fin de la journée :'''&lt;br /&gt;
&lt;br /&gt;
* Simplifier l’interface du questionnaire en limitant le bouton « générer un avatar » à une seule utilisation &lt;br /&gt;
* Supprimer l’affichage de l’image et les éléments inutiles sur la tablette, et améliorer la rapidité de génération ( réduire la résolution ect..)&lt;br /&gt;
* L’objectif est de ne conserver que le questionnaire et les boutons de navigation, puis d’afficher uniquement un bouton « recommencer un avatar » une fois la génération terminée.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11665</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11665"/>
		<updated>2026-01-29T12:55:48Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
[[Fichier:Portrait 1.jpg|vignette|Premier essai d'image générée en local]]&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui. &lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace d’interaction du spectateur (tablette) de l’espace de visualisation (écran), tout en maintenant un lien direct entre les deux.&lt;br /&gt;
&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar en temps réel. En parallèle, l’écran vertical affiche uniquement le portrait généré, qui évolue selon les données transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local assure la communication entre les deux dispositifs, garantissant une interaction fluide tout en renforçant la distinction entre interface de contrôle et espace de représentation.&lt;br /&gt;
&lt;br /&gt;
Enfin, une réflexion est engagée autour de la création d’un QR code associé à chaque vidéo générée, permettant aux spectateurs de récupérer leur avatar après l’expérience.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Portrait_1.jpg&amp;diff=11663</id>
		<title>Fichier:Portrait 1.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Portrait_1.jpg&amp;diff=11663"/>
		<updated>2026-01-29T12:51:02Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Image générée à partir d'un portrait fictif :&lt;br /&gt;
Rond, étroit, haut, rapprochés, petits, amande, bleu, fins, fin, fines, rapproché, très claire, aucune, noir, courts, lisse, coiffé , neutre, enfant, aucun&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11642</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11642"/>
		<updated>2026-01-29T10:28:06Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace d’interaction du spectateur (tablette) de l’espace de visualisation (écran), tout en maintenant un lien direct entre les deux.&lt;br /&gt;
&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar en temps réel. En parallèle, l’écran vertical affiche uniquement le portrait généré, qui évolue selon les données transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local assure la communication entre les deux dispositifs, garantissant une interaction fluide tout en renforçant la distinction entre interface de contrôle et espace de représentation.&lt;br /&gt;
&lt;br /&gt;
Enfin, une réflexion est engagée autour de la création d’un QR code associé à chaque vidéo générée, permettant aux spectateurs de récupérer leur avatar après l’expérience.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11640</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11640"/>
		<updated>2026-01-29T10:25:45Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la connexion entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace d’interaction du spectateur (tablette) de l’espace de visualisation (écran), tout en maintenant un lien direct entre les deux.&lt;br /&gt;
&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Les choix physiques et esthétiques du spectateur sont envoyés au modèle d’IA, exécuté en Python dans VS Code, afin de générer un avatar en temps réel. En parallèle, l’écran vertical affiche uniquement le portrait généré, qui évolue selon les données transmises.&lt;br /&gt;
&lt;br /&gt;
Un serveur local assure la communication entre les deux dispositifs, garantissant une interaction fluide tout en renforçant la distinction entre interface de contrôle et espace de représentation.&lt;br /&gt;
&lt;br /&gt;
Enfin, une réflexion est engagée autour de la création d’un QR code associé à chaque vidéo générée, permettant aux spectateurs de récupérer leur avatar après l’expérience.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11638</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11638"/>
		<updated>2026-01-29T10:23:32Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la mise en relation entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace de saisie du spectateur (la tablette) de l’espace de représentation (l’écran), tout en maintenant un lien direct entre les deux.&lt;br /&gt;
[[Fichier:Ahmed Abergadi .jpg|gauche|vignette|400x400px|Ahmed Abergadi sur VS code]]&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Il permet au spectateur de sélectionner des critères physiques, esthétiques et expressifs (visage, peau, cheveux, expression, accessoires). Ces choix sont traduits en données exploitables par le système d’IA.&lt;br /&gt;
&lt;br /&gt;
En parallèle, l’écran vertical affiche uniquement le portrait généré. Celui-ci se met à jour en fonction des réponses envoyées depuis la tablette, créant un dialogue en temps réel entre le spectateur et l’avatar. &lt;br /&gt;
&lt;br /&gt;
Un lien technique est établi entre les deux interfaces via un serveur local : les données du questionnaire sont envoyées au modèle d’IA, exécuté en Python dans VS Code, puis le résultat est retransmis à l’écran. Cette architecture permet de conserver une interaction fluide tout en affirmant la distinction des rôles entre interface de contrôle et espace de visualisation.&lt;br /&gt;
&lt;br /&gt;
Cette journée marque ainsi une étape importante dans la concrétisation de l’installation interactive, en faisant émerger un dispositif où l’IA devient un intermédiaire fragile entre les choix humains et leur traduction visuelle.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Ahmed_Abergadi_.jpg&amp;diff=11637</id>
		<title>Fichier:Ahmed Abergadi .jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Ahmed_Abergadi_.jpg&amp;diff=11637"/>
		<updated>2026-01-29T10:22:21Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Ahmed Abergadi en pleine session de travail&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11605</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11605"/>
		<updated>2026-01-29T09:45:58Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 3 — Mise en place du lien entre tablette et écran et de l'interface du site ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Cette troisième journée a été consacrée à la séparation des interfaces et à la mise en relation entre le questionnaire et l’affichage de l’avatar généré. L’objectif est de dissocier l’espace de saisie du spectateur (la tablette) de l’espace de représentation (l’écran), tout en maintenant un lien direct entre les deux.&lt;br /&gt;
&lt;br /&gt;
Le questionnaire est intégré dans une interface web pensée pour une tablette. Il permet au spectateur de sélectionner des critères physiques, esthétiques et expressifs (visage, peau, cheveux, expression, accessoires). Ces choix sont traduits en données exploitables par le système d’IA.&lt;br /&gt;
&lt;br /&gt;
En parallèle, l’écran vertical affiche uniquement le portrait généré. Celui-ci se met à jour en fonction des réponses envoyées depuis la tablette, créant un dialogue en temps réel entre le spectateur et l’avatar. &lt;br /&gt;
&lt;br /&gt;
Un lien technique est établi entre les deux interfaces via un serveur local : les données du questionnaire sont envoyées au modèle d’IA, exécuté en Python dans VS Code, puis le résultat est retransmis à l’écran. Cette architecture permet de conserver une interaction fluide tout en affirmant la distinction des rôles entre interface de contrôle et espace de visualisation.&lt;br /&gt;
&lt;br /&gt;
Cette journée marque ainsi une étape importante dans la concrétisation de l’installation interactive, en faisant émerger un dispositif où l’IA devient un intermédiaire fragile entre les choix humains et leur traduction visuelle.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11560</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11560"/>
		<updated>2026-01-28T15:24:16Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : /* Jour 1 — Recherche esthétique et choix du modèle */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''. Celle-ci, après codage a pu être réalisé. Les différentes réponses possibles au questionnaire à été adapté au code. De nombreux test ont été réalisé, car le code disponible pour VQGAN + CLIP sur google colab n'existait plus aujourd'hui.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11559</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11559"/>
		<updated>2026-01-28T14:29:02Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : /* Jour 1 — Recherche esthétique et choix du modèle */&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11558</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11558"/>
		<updated>2026-01-28T13:59:52Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.&lt;br /&gt;
&lt;br /&gt;
Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11557</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11557"/>
		<updated>2026-01-28T13:58:58Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11556</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11556"/>
		<updated>2026-01-28T13:48:49Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11555</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11555"/>
		<updated>2026-01-28T13:40:07Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Installation Avatar.png|centré|vignette|500x500px|Prévisualisation de l'installation finale]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
La première journée a été consacrée à la recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte alors sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
[[Fichier:Mario Klingemann Memories of Passersby I.jpg|gauche|vignette|500x500px|Mario Klingemann. ''Memories of Passersby I, 2018'']]&lt;br /&gt;
Cette recherche s’inscrit dans le prolongement du travail de Mario Klingemann, dont la pratique explore l’esthétique du machine learning, du glitch et de l’erreur comme matière artistique. En révélant les mécanismes internes et les limites des IA génératives, son œuvre remet en question l’idée d’une intelligence artificielle neutre ou parfaite, laissant apparaître ses dérives, ses hésitations et ses zones d’ombre.[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]Dans cette continuité, la recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2021), connus pour produire des images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Mario_Klingemann_Memories_of_Passersby_I.jpg&amp;diff=11554</id>
		<title>Fichier:Mario Klingemann Memories of Passersby I.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Mario_Klingemann_Memories_of_Passersby_I.jpg&amp;diff=11554"/>
		<updated>2026-01-28T13:37:24Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;installation mécanique qui utilise des réseaux neuronaux pour générer des portraits déformés/fusionnés&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Installation_Avatar.png&amp;diff=11553</id>
		<title>Fichier:Installation Avatar.png</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Installation_Avatar.png&amp;diff=11553"/>
		<updated>2026-01-28T13:11:21Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Image générée par IA permettant de visualiser l'installation finale.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11552</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11552"/>
		<updated>2026-01-28T12:52:26Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Will Smith Eating Spaghetti Original.jpg|vignette|Image de Will Smith mangeant des spaghettis, générée en 2023 par Modelscope.]]&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
La première journée est consacrée à une recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
&lt;br /&gt;
Cette recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2015–2020), connus pour leurs images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11551</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11551"/>
		<updated>2026-01-28T10:52:38Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
[[Fichier:Will Smith Eating Spaghetti Original.jpg|gauche|vignette]]&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
La première journée est consacrée à une recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
&lt;br /&gt;
Cette recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2015–2020), connus pour leurs images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Will_Smith_Eating_Spaghetti_Original.jpg&amp;diff=11550</id>
		<title>Fichier:Will Smith Eating Spaghetti Original.jpg</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Fichier:Will_Smith_Eating_Spaghetti_Original.jpg&amp;diff=11550"/>
		<updated>2026-01-28T10:51:01Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;Will smith généré par ia 2023 à l'esthétique étrange / déformé&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11549</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11549"/>
		<updated>2026-01-28T10:49:17Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;== Présentation du projet ==&lt;br /&gt;
'''Avatar''' est un projet artistique qui interroge la fragilité des intelligences artificielles génératives et leurs possibles dérives futures. À l’opposé de l’image d’une IA maîtrisée, performante et optimisée, le projet met en lumière des systèmes instables, imprévisibles, capables de se dégrader de manière autonome.&lt;br /&gt;
&lt;br /&gt;
Le projet s’appuie sur l’idée que les IA génératives se nourrissent aujourd’hui de leurs propres productions visuelles, un processus pouvant entraîner une perte progressive de qualité, voire un effondrement des images générées. Ce phénomène est documenté par des recherches scientifiques récentes, notamment sur le collapse des modèles génératifs lorsque ceux-ci sont réentraînés sur leurs propres données &amp;lt;ref&amp;gt;https://www.inria.fr/fr/risque-effondrement-collapse-ia-generatives&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
L’esthétique développée s’inspire du glitch IA observé entre 2015 et 2020, période durant laquelle les modèles génératifs étaient encore peu entraînés, fragiles et fortement imparfaits. En réactivant ces esthétiques anciennes, le projet cherche à imaginer une esthétique future marquée non par la perfection, mais par la perte, l’erreur et l’instabilité des systèmes.&lt;br /&gt;
&lt;br /&gt;
Le projet prend la forme d’une installation interactive intitulée Avatar. Un écran vertical présente un avatar généré par une IA, tandis qu’une tablette permet au spectateur de répondre à un questionnaire physique et esthétique. À partir de ces choix, l’IA génère un avatar en temps réel. Celui-ci n’est jamais stable : il présente des micro-mouvements et des dégradations visuelles, évoquant une entité artificielle en perte de contrôle.&lt;br /&gt;
&lt;br /&gt;
== Jour 1 — Recherche esthétique et choix du modèle ==&lt;br /&gt;
La première journée est consacrée à une recherche autour des esthétiques de l’IA générative. Les modèles contemporains sont rapidement écartés, jugés trop lisses et contrôlés. L’attention se porte sur les images glitchées observées autour de 2023, puis sur leurs origines techniques.&lt;br /&gt;
&lt;br /&gt;
Cette recherche mène à l’utilisation de modèles génératifs plus anciens, notamment VQGAN + CLIP (2015–2020), connus pour leurs images instables, déformées et imparfaites. Ces modèles permettent de retrouver une esthétique fragile, en cohérence avec la thématique du projet.&amp;lt;ref&amp;gt;https://colab.research.google.com/github/justinjohn0306/VQGAN-CLIP/blob/main/VQGAN%2BCLIP(Updated).ipynb&amp;lt;/ref&amp;gt;&lt;br /&gt;
&lt;br /&gt;
== Jour 2 — Mise en place technique et travail en local ==&lt;br /&gt;
Le 28 janvier, le projet entre dans une phase technique. L’IA est installée en local sur un ordinateur plus puissant, équipé d’une carte graphique dédiée, avec un environnement Python sous VS Code.&lt;br /&gt;
&lt;br /&gt;
Cette étape marque le passage d’un travail sur le cloud à un dispositif autonome, permettant un meilleur contrôle des paramètres de génération et préparant l’intégration de l’IA au questionnaire interactif de l’installation '''Avatar'''.&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11548</id>
		<title>Art Sciences 2025/2026 E1</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Art_Sciences_2025/2026_E1&amp;diff=11548"/>
		<updated>2026-01-28T10:08:39Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : Page créée avec « 27 janvier 2026 :   A la recherche de l'ésthétique »&lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;27 janvier 2026 :&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
A la recherche de l'ésthétique&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Arts_et_sciences_2025/2026&amp;diff=11547</id>
		<title>Arts et sciences 2025/2026</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Arts_et_sciences_2025/2026&amp;diff=11547"/>
		<updated>2026-01-28T10:07:19Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Introduction =&lt;br /&gt;
Cette page retrace le parcours du module qui se déroule en janvier pendant une semaine à l'[https://www.esa-n.info/ Esä] et au Fabricarium et s'achève par la production d'une documentation (les pages de ce wiki) et d'une soutenance portant sur chacun des projets développés par les binômes. Expérimentations sur les matériaux, programmation, systèmes embarqués, électronique, modélisation, impression 3D, robotisation, microscopie, chimie, etc. sont autant d'éléments mis en œuvre pendant la semaine. Pour l'Esä, ce module s'inscrit dans le parcours Arts et Sciences Prist https://prist-esanpdc.fr/ qui développe cette année une réflexions sur le Mondes sauvages.&lt;br /&gt;
&lt;br /&gt;
'''Le vernissage de l'exposition''' présentant l'aboutissement des projets des étudiant·e·s aura lieu le '''26 mars 2026''' à 18h à la '''Galerie Commune''' de l'Esä, 36 bis rue des Ursulines à Tourcoing.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:2025_equipe.jpg|centré|800px|L'équipe du Module, décembre 2025]]&lt;br /&gt;
L'équipe du Module, janvier 2025, dans le hall de Polytech.&lt;br /&gt;
&lt;br /&gt;
= Répartition des binômes =&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Titre de l'œuvre !! Elève Esä !! Elève(s) Polytech Lille&lt;br /&gt;
|-&lt;br /&gt;
| Jardin sur la métropole || Axelle Dussart || &lt;br /&gt;
|-&lt;br /&gt;
| Avatar || Valentin Luce || Ahmed Bergadi&lt;br /&gt;
|-&lt;br /&gt;
| Le canivet ||  Adele	Descamps || &lt;br /&gt;
|-&lt;br /&gt;
| Cartographie Sauvage ||  Alana Gibson || &lt;br /&gt;
|-&lt;br /&gt;
| T4T || Beluna 	 Larionov || Léa Hanotel&lt;br /&gt;
|-&lt;br /&gt;
| Corallium sacrificium || Camille Rolin || &lt;br /&gt;
|-&lt;br /&gt;
| Sans titre || Mary Costeaux || &lt;br /&gt;
|-&lt;br /&gt;
| L’esprit qu’on Jette || Daria Karpova || &lt;br /&gt;
|-&lt;br /&gt;
| Sans titre (Apoapsis) || Elies El Ferroun-Panier || Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
| Peau d’Humus || Emilie Beve || &lt;br /&gt;
|-&lt;br /&gt;
| Le Masque de Pouvoir des Enfants Sauvages || Shuqi Huang || &lt;br /&gt;
|-&lt;br /&gt;
| Barbare || Lamis Madaci || &lt;br /&gt;
|-&lt;br /&gt;
| Micromonde || Louison Pavie || &lt;br /&gt;
|-&lt;br /&gt;
| Champ d’agrainage || Madeleine Gobeaut|| Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
| Habiter en oiseau || Maya Denudt || Nithesh Sivalinganathan&lt;br /&gt;
|-&lt;br /&gt;
|  || Naomi	Verpraet || &lt;br /&gt;
|-&lt;br /&gt;
| Cumulus Specimen N°1 || Nadim	Halabi || &lt;br /&gt;
|-&lt;br /&gt;
| La terre attend || Nicolas Markovic || &lt;br /&gt;
|-&lt;br /&gt;
| || Pauline Aranda || &lt;br /&gt;
|-&lt;br /&gt;
| Glassbound Ecosystem || Pauline Dewitte || &lt;br /&gt;
|-&lt;br /&gt;
| Fera Foris || Sandro	Demay || Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
| Gone || Kaylian Chipotel || &lt;br /&gt;
|-&lt;br /&gt;
| La respiration de la matière || Woohyeok Choi || &lt;br /&gt;
|-&lt;br /&gt;
| Étreinte sonore || Yohan Paratian || &lt;br /&gt;
|-&lt;br /&gt;
| Prima facie || Jade Segond || &lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Déroulé de la co-création =&lt;br /&gt;
&lt;br /&gt;
== Lundi 26 janvier : ==&lt;br /&gt;
[[Fichier:Journée d'ouverture du module.jpg|centré|vignette|564x564px|[[Fichier:Présentation des projets.jpg|vignette|581x581px]]]]&lt;br /&gt;
&lt;br /&gt;
=== Présentation générale ===&lt;br /&gt;
&lt;br /&gt;
Présentation des projets des étudiant·e·s de l'Esä dans la Salle 36 bis, autour d'un café et devant les dossiers préparés pour cette rencontre ; ici l'objectif est de vriser la glace entre les deux formations, de construire et de renforcer les liens pour que le reste de la semaine puisse être consacrée à la réalisation concrète des productions plastiques souvent complexes et expérimentales.&lt;br /&gt;
[[Fichier:Présentation du projet par Mary Costaud.jpg|vignette|548x548px]]&lt;br /&gt;
[[Fichier:Journée d'ouverture.jpg|centré|sans_cadre|534x534px|&amp;lt;gallery&amp;gt;&lt;br /&gt;
Fichier:Journée d'ouverture du module.jpg|alt=Journée d'ouverture&lt;br /&gt;
Fichier:Première rencontre entre les étudiant-es de l'Esä et de Polytech'Lille.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Mise en place des groupes des binômes entre étudiant·e·s de l'Esä et de Polytech'Lille&lt;br /&gt;
=== Présentation et visite de l'Esä en petits groupes, par les étudiant·e·s  de l'Esä ===&lt;br /&gt;
12h00 - 13h00&lt;br /&gt;
&lt;br /&gt;
==== Bibliothèque ====&lt;br /&gt;
[[Fichier:Bibliothèque.jpg|centré|vignette|573x573px]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier métal ====&lt;br /&gt;
[[Fichier:Atelier.jpg|[[Fichier:Atelier photographie argentique.jpg|vignette]][[Fichier:Rouge Cendre.jpg|vignette]]Atelier métal, Esä|centré|551x551px|bordure|sans_cadre]]&lt;br /&gt;
[[Fichier:Atelier métal.jpg|centré|vignette|500x500px]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier son ====&lt;br /&gt;
[[Fichier:Son.jpg|centré|sans_cadre|555x555px|[[Fichier:Atelier son - Esä.jpg|alt=Atelier son Esä|centré|vignette|500x500px]][[Fichier:Atelier son.jpg|centré|vignette|500x500px]]Atelier son]]&lt;br /&gt;
[[Fichier:Atelier son - Esä.jpg|centré|vignette|500x500px]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier photographie argentique ====&lt;br /&gt;
[[Fichier:Atelier photographie argentique.jpg|vignette|620x620px|centré]]&lt;br /&gt;
[[Fichier:Argentique.jpg|vignette|407x407px|centré]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Atelier modelage ====&lt;br /&gt;
[[Fichier:Modelage.jpg|centré|sans_cadre|573x573px|modelage]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier peinture ====&lt;br /&gt;
[[Fichier:Atelier peinture.jpg|centré|sans_cadre|597x597px]]&lt;br /&gt;
&lt;br /&gt;
==== Jardin écologique ====&lt;br /&gt;
[[Fichier:2023_ArtScience_Visite-jardin.jpg|446x446px|center|Espace jardin|sans_cadre]]&lt;br /&gt;
&lt;br /&gt;
=== Atelier Créatif  : travail autour de la thématique de la glace ===&lt;br /&gt;
[[Fichier:Glace.jpg|gauche|vignette]]&lt;br /&gt;
Présentation et discussion animées par Hugo Dïner  &lt;br /&gt;
&lt;br /&gt;
Les étudiants se regroupent par équipe et ont deux heures pour produire une œuvre (tout type accepté).&lt;br /&gt;
[[Fichier:Briser la glace.jpg|centré|vignette]]&lt;br /&gt;
[[Fichier:Danse.jpg|centré|vignette|498x498px]]&lt;br /&gt;
&lt;br /&gt;
== Mardi 27 janvier au vendredi 30 janvier ==&lt;br /&gt;
[[Fichier:Avec Alexandre Boé.jpg|vignette]]&lt;br /&gt;
&lt;br /&gt;
== Vendredi 30 janvier ==&lt;br /&gt;
Présentation des projets devant le jury composé de : &lt;br /&gt;
&lt;br /&gt;
* Hugo Diner&lt;br /&gt;
* Fabien Jonckheere&lt;br /&gt;
* Alexandre Boé&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Réalisation au Fabricarium.jpg|vignette]]&lt;br /&gt;
&lt;br /&gt;
=Cahiers de travail= &lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Cahier!!Nom du projet !! Elève Esä!!Elève(s) Polytech Lille&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2025 E0 | Cahier n°0]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E1 | Cahier n°1]]|| Avatar|| Valentin Luce||Ahmed bergadi&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E2 | Cahier n°2]]|| T4T|| Beluna 	 Larionov||Léa Hanotel&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E3 | Cahier n°3]]|| || ||Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E4 | Cahier n°4]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E5 | Cahier n°5]]|| Habiter en oiseau|| Maya Denudt||Nithesh Sivalinganathan&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E6 | Cahier n°6]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E7 | Cahier n°7]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E8 | Cahier n°8]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E9 | Cahier n°9]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E10 | Cahier n°10]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E11 | Cahier n°11]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E12 | Cahier n°12]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E13 | Cahier n°13]]|| ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E14 | Cahier n°14]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E15 | Cahier n°15]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E16 | Cahier n°16]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=Remerciements à ReX pour le Wiki =&lt;br /&gt;
&lt;br /&gt;
C'est pas beau de flatter les gens :p :p :p, réponse : si si (et je ne parle pas de l'impératrice)&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
	<entry>
		<id>https://wiki-se.plil.fr/mediawiki/index.php?title=Arts_et_sciences_2025/2026&amp;diff=11546</id>
		<title>Arts et sciences 2025/2026</title>
		<link rel="alternate" type="text/html" href="https://wiki-se.plil.fr/mediawiki/index.php?title=Arts_et_sciences_2025/2026&amp;diff=11546"/>
		<updated>2026-01-28T10:05:56Z</updated>

		<summary type="html">&lt;p&gt;Abergadi : &lt;/p&gt;
&lt;hr /&gt;
&lt;div&gt;= Introduction =&lt;br /&gt;
Cette page retrace le parcours du module qui se déroule en janvier pendant une semaine à l'[https://www.esa-n.info/ Esä] et au Fabricarium et s'achève par la production d'une documentation (les pages de ce wiki) et d'une soutenance portant sur chacun des projets développés par les binômes. Expérimentations sur les matériaux, programmation, systèmes embarqués, électronique, modélisation, impression 3D, robotisation, microscopie, chimie, etc. sont autant d'éléments mis en œuvre pendant la semaine. Pour l'Esä, ce module s'inscrit dans le parcours Arts et Sciences Prist https://prist-esanpdc.fr/ qui développe cette année une réflexions sur le Mondes sauvages.&lt;br /&gt;
&lt;br /&gt;
'''Le vernissage de l'exposition''' présentant l'aboutissement des projets des étudiant·e·s aura lieu le '''26 mars 2026''' à 18h à la '''Galerie Commune''' de l'Esä, 36 bis rue des Ursulines à Tourcoing.&lt;br /&gt;
&lt;br /&gt;
[[Fichier:2025_equipe.jpg|centré|800px|L'équipe du Module, décembre 2025]]&lt;br /&gt;
L'équipe du Module, janvier 2025, dans le hall de Polytech.&lt;br /&gt;
&lt;br /&gt;
= Répartition des binômes =&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
! Titre de l'œuvre !! Elève Esä !! Elève(s) Polytech Lille&lt;br /&gt;
|-&lt;br /&gt;
| Jardin sur la métropole || Axelle Dussart || &lt;br /&gt;
|-&lt;br /&gt;
| Avatar || Valentin Luce || Ahmed Bergadi&lt;br /&gt;
|-&lt;br /&gt;
| Le canivet ||  Adele	Descamps || &lt;br /&gt;
|-&lt;br /&gt;
| Cartographie Sauvage ||  Alana Gibson || &lt;br /&gt;
|-&lt;br /&gt;
| T4T || Beluna 	 Larionov || Léa Hanotel&lt;br /&gt;
|-&lt;br /&gt;
| Corallium sacrificium || Camille Rolin || &lt;br /&gt;
|-&lt;br /&gt;
| Sans titre || Mary Costeaux || &lt;br /&gt;
|-&lt;br /&gt;
| L’esprit qu’on Jette || Daria Karpova || &lt;br /&gt;
|-&lt;br /&gt;
| Sans titre (Apoapsis) || Elies El Ferroun-Panier || Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
| Peau d’Humus || Emilie Beve || &lt;br /&gt;
|-&lt;br /&gt;
| Le Masque de Pouvoir des Enfants Sauvages || Shuqi Huang || &lt;br /&gt;
|-&lt;br /&gt;
| Barbare || Lamis Madaci || &lt;br /&gt;
|-&lt;br /&gt;
| Micromonde || Louison Pavie || &lt;br /&gt;
|-&lt;br /&gt;
| Champ d’agrainage || Madeleine Gobeaut|| Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
| Habiter en oiseau || Maya Denudt || Nithesh Sivalinganathan&lt;br /&gt;
|-&lt;br /&gt;
|  || Naomi	Verpraet || &lt;br /&gt;
|-&lt;br /&gt;
| Cumulus Specimen N°1 || Nadim	Halabi || &lt;br /&gt;
|-&lt;br /&gt;
| La terre attend || Nicolas Markovic || &lt;br /&gt;
|-&lt;br /&gt;
| || Pauline Aranda || &lt;br /&gt;
|-&lt;br /&gt;
| Glassbound Ecosystem || Pauline Dewitte || &lt;br /&gt;
|-&lt;br /&gt;
| Fera Foris || Sandro	Demay || Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
| Gone || Kaylian Chipotel || &lt;br /&gt;
|-&lt;br /&gt;
| La respiration de la matière || Woohyeok Choi || &lt;br /&gt;
|-&lt;br /&gt;
| Étreinte sonore || Yohan Paratian || &lt;br /&gt;
|-&lt;br /&gt;
| Prima facie || Jade Segond || &lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
= Déroulé de la co-création =&lt;br /&gt;
&lt;br /&gt;
== Lundi 26 janvier : ==&lt;br /&gt;
[[Fichier:Journée d'ouverture du module.jpg|centré|vignette|564x564px|[[Fichier:Présentation des projets.jpg|vignette|581x581px]]]]&lt;br /&gt;
&lt;br /&gt;
=== Présentation générale ===&lt;br /&gt;
&lt;br /&gt;
Présentation des projets des étudiant·e·s de l'Esä dans la Salle 36 bis, autour d'un café et devant les dossiers préparés pour cette rencontre ; ici l'objectif est de vriser la glace entre les deux formations, de construire et de renforcer les liens pour que le reste de la semaine puisse être consacrée à la réalisation concrète des productions plastiques souvent complexes et expérimentales.&lt;br /&gt;
[[Fichier:Présentation du projet par Mary Costaud.jpg|vignette|548x548px]]&lt;br /&gt;
[[Fichier:Journée d'ouverture.jpg|centré|sans_cadre|534x534px|&amp;lt;gallery&amp;gt;&lt;br /&gt;
Fichier:Journée d'ouverture du module.jpg|alt=Journée d'ouverture&lt;br /&gt;
Fichier:Première rencontre entre les étudiant-es de l'Esä et de Polytech'Lille.jpg&lt;br /&gt;
&amp;lt;/gallery&amp;gt;]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
Mise en place des groupes des binômes entre étudiant·e·s de l'Esä et de Polytech'Lille&lt;br /&gt;
=== Présentation et visite de l'Esä en petits groupes, par les étudiant·e·s  de l'Esä ===&lt;br /&gt;
12h00 - 13h00&lt;br /&gt;
&lt;br /&gt;
==== Bibliothèque ====&lt;br /&gt;
[[Fichier:Bibliothèque.jpg|centré|vignette|573x573px]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier métal ====&lt;br /&gt;
[[Fichier:Atelier.jpg|[[Fichier:Atelier photographie argentique.jpg|vignette]][[Fichier:Rouge Cendre.jpg|vignette]]Atelier métal, Esä|centré|551x551px|bordure|sans_cadre]]&lt;br /&gt;
[[Fichier:Atelier métal.jpg|centré|vignette|500x500px]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier son ====&lt;br /&gt;
[[Fichier:Son.jpg|centré|sans_cadre|555x555px|[[Fichier:Atelier son - Esä.jpg|alt=Atelier son Esä|centré|vignette|500x500px]][[Fichier:Atelier son.jpg|centré|vignette|500x500px]]Atelier son]]&lt;br /&gt;
[[Fichier:Atelier son - Esä.jpg|centré|vignette|500x500px]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier photographie argentique ====&lt;br /&gt;
[[Fichier:Atelier photographie argentique.jpg|vignette|620x620px|centré]]&lt;br /&gt;
[[Fichier:Argentique.jpg|vignette|407x407px|centré]]&lt;br /&gt;
&lt;br /&gt;
&lt;br /&gt;
==== Atelier modelage ====&lt;br /&gt;
[[Fichier:Modelage.jpg|centré|sans_cadre|573x573px|modelage]]&lt;br /&gt;
&lt;br /&gt;
==== Atelier peinture ====&lt;br /&gt;
[[Fichier:Atelier peinture.jpg|centré|sans_cadre|597x597px]]&lt;br /&gt;
&lt;br /&gt;
==== Jardin écologique ====&lt;br /&gt;
[[Fichier:2023_ArtScience_Visite-jardin.jpg|446x446px|center|Espace jardin|sans_cadre]]&lt;br /&gt;
&lt;br /&gt;
=== Atelier Créatif  : travail autour de la thématique de la glace ===&lt;br /&gt;
[[Fichier:Glace.jpg|gauche|vignette]]&lt;br /&gt;
Présentation et discussion animées par Hugo Dïner  &lt;br /&gt;
&lt;br /&gt;
Les étudiants se regroupent par équipe et ont deux heures pour produire une œuvre (tout type accepté).&lt;br /&gt;
[[Fichier:Briser la glace.jpg|centré|vignette]]&lt;br /&gt;
[[Fichier:Danse.jpg|centré|vignette|498x498px]]&lt;br /&gt;
&lt;br /&gt;
== Mardi 27 janvier au vendredi 30 janvier ==&lt;br /&gt;
[[Fichier:Avec Alexandre Boé.jpg|vignette]]&lt;br /&gt;
&lt;br /&gt;
== Vendredi 30 janvier ==&lt;br /&gt;
Présentation des projets devant le jury composé de : &lt;br /&gt;
&lt;br /&gt;
* Hugo Diner&lt;br /&gt;
* Fabien Jonckheere&lt;br /&gt;
* Alexandre Boé&lt;br /&gt;
&lt;br /&gt;
[[Fichier:Réalisation au Fabricarium.jpg|vignette]]&lt;br /&gt;
&lt;br /&gt;
=Cahiers de travail= &lt;br /&gt;
&lt;br /&gt;
{| class=&amp;quot;wikitable&amp;quot;&lt;br /&gt;
!Cahier!!Nom du projet !! Elève Esä!!Elève(s) Polytech Lille&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2025 E0 | Cahier n°0]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E1 | Cahier n°1]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E2 | Cahier n°2]]|| T4T|| Beluna 	 Larionov||Léa Hanotel&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E3 | Cahier n°3]]|| || ||Adrien Dautricourt&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E4 | Cahier n°4]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E5 | Cahier n°5]]|| Habiter en oiseau|| Maya Denudt||Nithesh Sivalinganathan&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E6 | Cahier n°6]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E7 | Cahier n°7]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E8 | Cahier n°8]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E9 | Cahier n°9]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E10 | Cahier n°10]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E11 | Cahier n°11]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E12 | Cahier n°12]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E13 | Cahier n°13]]|| ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E14 | Cahier n°14]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E15 | Cahier n°15]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|[[Art Sciences 2025/2026 E16 | Cahier n°16]]|| || ||&lt;br /&gt;
|-&lt;br /&gt;
|}&lt;br /&gt;
&lt;br /&gt;
=Remerciements à ReX pour le Wiki =&lt;br /&gt;
&lt;br /&gt;
C'est pas beau de flatter les gens :p :p :p, réponse : si si (et je ne parle pas de l'impératrice)&lt;/div&gt;</summary>
		<author><name>Abergadi</name></author>
	</entry>
</feed>