« SE5 ECEAI/eceai 2023/2024/NaudotRiffaut » : différence entre les versions

De wiki-se.plil.fr
Aller à la navigation Aller à la recherche
Ligne 33 : Ligne 33 :
Nous avons tester le fonctionnement du capteur avec minicom et nous avons observé que chaque lignes est constitué de 64 valeurs séparé par un espace et une ",". Cela convenant pour le logiciel nanoedge nous n'avons pas flaché de nouveau code de le stm32. Si nous avions du le faire, nous aurions utilisé l'ide stm32cube pour modifier la fonction printresult() et changer l'affichage des données afin quelles soient exploitable par l'application nanoedge.
Nous avons tester le fonctionnement du capteur avec minicom et nous avons observé que chaque lignes est constitué de 64 valeurs séparé par un espace et une ",". Cela convenant pour le logiciel nanoedge nous n'avons pas flaché de nouveau code de le stm32. Si nous avions du le faire, nous aurions utilisé l'ide stm32cube pour modifier la fonction printresult() et changer l'affichage des données afin quelles soient exploitable par l'application nanoedge.
==Séance du 18/12/2023==
==Séance du 18/12/2023==
=== Communication/Protocole : ===
Pour ce projet nous utilisons un serveur et un client http. Cela nous permet d'afficher par la suite sur une page web les résultats du capteur après analyse de ces données.
Les données transmises entre la Raspberry et la VM xen le seront sous un format JSON qui est pratique car universelle et facile à utiliser avec le protocole HTTP.
Bien que ce protocole et ce format ne soit pas idéal en terme de performance, ces sont des formats pratique, souvent utilisé et facilement utilisable.


=== Partie Client (Raspberry): ===
=== Partie Client (Raspberry): ===
Ligne 337 : Ligne 344 :
== Séance du 20/12/2023 ==
== Séance du 20/12/2023 ==
[[Fichier:Blog-mode-and-the-city-lifestyle-avec-sans-lunettes.jpg|vignette|299x299px|Avec ou sans lunettes]]
[[Fichier:Blog-mode-and-the-city-lifestyle-avec-sans-lunettes.jpg|vignette|299x299px|Avec ou sans lunettes]]
Au cours de cette séance, nous avons commencé par changer notre cahier des charges car par manque de temps, nous avons décidé de passer sur un projet "statique", c'est à dire que nous avons décidé d’entraîner notre IA à déterminer si une forme est un ciseaux, ou pierre ou feuille.
Au cours de cette séance, nous avons eu des difficulté à exploité le Benchmark effectué à la séance précédente. Ne pouvant donc pas exploité ces résultats qui nous ont pris du temps à avoir, nous avons décidé de passer sur un projet de reconnaissance "statique". L'objectif sera de détecter si une personne porte des lunettes ou non.
 
=== NanoEdgeAiStudio : ===
 
On a donc relancé un nouveau benchmark composé de 2 signaux avec cette fois 64 axes pour utiliser chaque valeur de la matrice indépendamment (même si cela ne plaît pas à NanoEdgeStudio). Pour l’entraîner, nous nous sommes placé à une distance du capteur quasiment constante mais nous avons changer la position de notre tête sur les côté et nous avons aussi entraîné avec deux personnes différentes afin que l'intelligence ne soit pas entraîner pour une unique personne.
On choisit donc de différencier les 3 différents signaux :
 
-Pierre


-Papier
[[Fichier:NanoEdgeSignauxlunettes.png|centré|vignette|585x585px]]


-Ciseaux


 
Les signaux utilisé ne comporte environ 75 lignes chacune ce qui n'est pas énorme mais qui nous a tout de même demandé 30min afin de réaliser le Benchmark. Nous aurions pu réaliser quelque chose de plus précis avec plus de lignes par signaux seulement cela n'était pas réalisable en terme de temps.
 
=== NanoEdgeAiStudio : ===
On a donc relancé un nouveau benchmark composé de 4 signaux eux-mêmes composés de 4 axes contenant 16 valeurs.


=== Communication : ===
=== Communication : ===
On a modifié le code côté serveur de manière à afficher la page html à qui on transmet les valeurs et non afficher le code Python directement :
En parallèle de la réalisation du benchmark nous avons modifié le code côté serveur de manière à afficher la page html à qui on transmet les valeurs et non afficher le code Python directement :
[[Fichier:Site1Screenshot 2023-12-20 11-03-38.png|vignette|1071x1071px|Affichage amélioré avec la page index.html|centré]]
[[Fichier:Site1Screenshot 2023-12-20 11-03-38.png|vignette|1071x1071px|Affichage amélioré avec la page index.html|centré]]


Ligne 428 : Ligne 428 :
     httpd.serve_forever()
     httpd.serve_forever()


</syntaxhighlight>Ensuite nous avons copié les fichiers librairies qui sont sorties du benchmark du logiciel NanoEdgeAiStudio dans la VM ainsi que dans la Raspberry PI de manière à implémenter les parties traitements dans ces 2 cas, pour pouvoir par la suite, comparer les performances temporelle en termes de l'execution  mais également les performances au niveau consommation énergétique.
</syntaxhighlight>
 
=== Déploiement de l'application : ===
Une fois le Benchmark achevé, nous avons tester le résultat et la détection fonctionnait correctement.
 
Ensuite nous avons copié les fichiers librairies qui sont sorties du benchmark du logiciel NanoEdgeAiStudio dans la VM ainsi que dans la Raspberry PI de manière à implémenter les parties traitements dans ces 2 cas, pour pouvoir par la suite, comparer les performances temporelle en termes de l'execution  mais également les performances au niveau consommation énergétique.
 
Afin d'utiliser les libraries télécharger correctement nous avons suivis la documentation joint : https://wiki.st.com/stm32mcu/wiki/AI:NanoEdge_AI_Emulator_for_n-class_classification_(nCC)
 
Nous avons observer un problème lors de l'analyse des datas sur la Raspberry: l’exécutable d'analyse ne pouvait pas se lancer à cause d'une erreur.


Pour procéder autrement, nous envoyons directement les datas brut depuis le client au serveur et c'est le serveur qui traite les datas pour indiquer sur notre page web si la personne observé porte des lunettes ou non.


Nous allons premièrement exécuter le traitement Intelligence Artificielle qui sort du logiciel NanoEdge dans la VM, c'est à dire qu'on envoie les données bruts :
Mais sur la VM, cela fonctionne correctement.

Version du 20 décembre 2023 à 14:24

L’objectif de ce projet est de réaliser un système d'objet connectés pour une application d'Intelligence Artificielle. Notre application permettra de détecter la direction d'un mouvement passant devant un capteur de distance,: gauche, droite, haut et bas. L’aboutissement de cette application permettrait de réaliser un système de suivi de mouvement. Le système d'objet connecté comportera une VM (Machine Virtuelle) héberger sur le serveur chassiron qui sera connecté à une raspbery PI en wifi. Un capteur de distance sera connecté à notre raspbery PI pour réaliser notre application.

Schéma de l'architecture réseau et électrique

Le binôme

Le binôme est constitué de 2 élèves de SE5-SC :

  • Mathis RIFFAUT
  • François NAUDOT

Compte rendu des séances

Séance du 04/12/2023

Une machine virtuelle a été crée sur le serveur chassiron avec la commande :

xen-create-image --hostname fnrm --force --dist bookworm --size 10G --memory 1G --dir /usr/local/xen --password glopglop --dhcp --bridge bridgeStudents

La machine virtuelle possède les propriétés suivantes:

Hostname  : fnrm

Distribution  : bookworm

Stockage  : 10G

Mémoire vive : 1G

Mot de passe : glopglop

Les fichier /etc/network/interfaces, /etc/resolv.conf et /etc/apt/sources.list on étés configurés comme demandé dans le sujet.

La VM est connecté à internet par le BridgeStudents.

On vérifie la connexion à internet à l'aide d'un ping www.google.com.


Le STM32F401RE et le capteur de distance (Nucleo-53L5A1):

Nous avons tester le fonctionnement du capteur avec minicom et nous avons observé que chaque lignes est constitué de 64 valeurs séparé par un espace et une ",". Cela convenant pour le logiciel nanoedge nous n'avons pas flaché de nouveau code de le stm32. Si nous avions du le faire, nous aurions utilisé l'ide stm32cube pour modifier la fonction printresult() et changer l'affichage des données afin quelles soient exploitable par l'application nanoedge.

Séance du 18/12/2023

Communication/Protocole :

Pour ce projet nous utilisons un serveur et un client http. Cela nous permet d'afficher par la suite sur une page web les résultats du capteur après analyse de ces données.

Les données transmises entre la Raspberry et la VM xen le seront sous un format JSON qui est pratique car universelle et facile à utiliser avec le protocole HTTP.

Bien que ce protocole et ce format ne soit pas idéal en terme de performance, ces sont des formats pratique, souvent utilisé et facilement utilisable.

Partie Client (Raspberry):

Nous avons résolu le problème de la Raspberry qui ne répondait pas. Cela était dû à l'alimentation : brancher la carte en USBC résoud le problème. Cependant, nous recevons une erreur l'erreur EXT4-fs error (device mmcblk0p2). Le problème venait des arguments saisis lors du lancement de Minicom.

Mot de passe : pasglop

Login : pifou

La communication entre la Raspberry et la machine virtuelle a été vérifiée avec une commande de ping.

La Raspberry Pi 4 a été configurée et connectée au WiFi WIFI_IE_1.

On se connecte a la Raspberry Pi 4 avec une liaison série et on l'alimente en la branchant avec l'alimentation officielle qui se branche sur secteur.

On vérifie la connexion avec un ping www.google.com Avec la commande suivante, il est à présent possible de se connecter sur la Raspberry : minicom -D /dev/ttyUSB0 -b 115200

On installe un environnement web Python de manière à définir un client simple et de tester la connexion.

On a également défini un programme Python3 qui envoie des requêtes au serveur :

import requests
import json
import sys

def send_post_request(url, data):
    try:
        response = requests.post(url, data=json.dumps(data), headers={'Content-T
ype': 'application/json'})
        print("Réponse du serveur :", response.text)
    except requests.exceptions.RequestException as e:
        print("Erreur lors de l'envoi de la requête POST :", e)

def main():
    if len(sys.argv) < 2:
        print("Usage: python script.py '{\"key\": \"value\"}'")
        return

    try:
        data = json.loads(sys.argv[1])
    except json.JSONDecodeError as e:
        print("Erreur de décodage JSON :", e)
        return

    # L'adresse du serveur (remplacez avec l'adresse IPv6 de votre serveur et le
 port)
    url = 'http://[2001:660:4401:6050:216:3eff:fe4c:2673]:8888'

    send_post_request(url, data)

if __name__ == "__main__":
    main()

Code Python3 côté client


J'améliore ce code de manière à ce qu'il permette d'être relié au capteur et transmette au serveur ce que capte le capteur par un json :

import requests
import json
import sys
import serial
import time

def read_from_sensor(ser):
    # Lire les données du capteur
    if ser.in_waiting > 0:
        line = ser.readline().decode('utf-8').rstrip()
        return line
    return None

def send_post_request(url, data):
    try:
        response = requests.post(url, data=json.dumps(data), headers={'Content-T
ype': 'application/json'})
        print("Réponse du serveur :", response.text)
    except requests.exceptions.RequestException as e:
        print("Erreur lors de l'envoi de la requête POST :", e)

def main():
    # Configuration du port série (remplacez '/dev/ttyUSB0' par votre port série
)
    ser = serial.Serial('/dev/ttyUSB0', 9600, timeout=1)
    ser.flush()

    while True:
        data = read_from_sensor(ser)
        if data:
            try:
                json_data = json.loads(data)
                # L'adresse du serveur (remplacez avec l'adresse IPv6 de votre s
erveur et le port)
                url = 'http://[2001:660:4401:6050:216:3eff:fe4c:2673]:8888'
                send_post_request(url, json_data)
            except json.JSONDecodeError as e:
                print("Erreur de décodage JSON :", e)

        time.sleep(1)  # Délai entre les lectures

if __name__ == "__main__":
    main()

Code Python3 côté client permettant la liaison USB avec le capteur

Partie Serveur (VM Debian):

On installe Python 3 sur la VM, on installe ufw comme Pare feu, on lui autorise donc les connexions HTTP

On configure un fichier app.py contenant un code de réception simple en Python capable de récupérer des fichiers JSON

On autorise les ipv6 sur le port 8888 de l'adresse : "2001:660:4401:6050:216:3eff:fe4c:2673" dans un programme Python app.py qui lance également une page html index.html qui affiche les requetes.

On a testé le fonctionnement de ce serveur en lui ajoutant les bibliothèques JSON, HTTP et socket de manière à faire apparaître sur une page html, des requetes POST envoyés.

On définit sur ce serveur des méthodes do_GET() et do_POST() de manière les prendres en compte, on définit également des fonctions pour configurer l'ipv6 et lancer la page Web :

# -*- coding: utf-8 -*-

from http.server import HTTPServer, BaseHTTPRequestHandler
import json
import socket

# Stocker les requêtes POST reçues
post_requests = []

class CustomHTTPHandler(BaseHTTPRequestHandler):

    def do_GET(self):
        if self.path == '/':
            self.path = '/index.html'

        if self.path == '/data':
            self.send_response(200)
            self.send_header('Content-type', 'application/json')
            self.end_headers()
            self.wfile.write(bytes(json.dumps(post_requests), 'utf-8'))
            return

        if self.path == '/index.html':
            self.send_response(200)
            self.send_header('Content-type', 'text/html')
            self.end_headers()

            # Créer le contenu HTML avec les données POST
            content = '<html><body><h1>Voici la liste des donnees POST:</h1><ul>'
            for item in post_requests:
                content += f'<li>{item}</li>'
            content += '</ul></body></html>'
            
            self.wfile.write(content.encode('utf-8'))
            return

        try:
            file_to_open = open(self.path[1:]).read()
            self.send_response(200)
            self.send_header('Content-type', 'text/html')
            self.end_headers()
            self.wfile.write(bytes(file_to_open, 'utf-8'))
        except FileNotFoundError:
            self.send_error(404, 'File Not Found: %s' % self.path)

    def do_POST(self):
        content_length = int(self.headers['Content-Length'])
        post_data = self.rfile.read(content_length).decode('utf-8')

        # Ajouter les données POST à la liste
        post_requests.append(post_data)

        # Envoyer une réponse HTTP
        self.send_response(200)
        self.end_headers()
        self.wfile.write(b"POST request processed")

class HTTPServerV6(HTTPServer):
    address_family = socket.AF_INET6

if __name__ == '__main__':
    server_address = ('::', 8888)  # Écoute sur toutes les interfaces IPv6, port 8888
    httpd = HTTPServerV6(server_address, CustomHTTPHandler)
    print("Serveur actif sur le port", 8888)
    httpd.serve_forever()

Code Python 3 du serveur

<!DOCTYPE html>
<html lang="en">
<head>
    <meta charset="UTF-8">
    <title>Page d'Accueil</title>
</head>
<body>
    <h1>Bienvenue sur Mon Serveur</h1>
    <h2>Données POST reçues:</h2>
    <ul id="data">
        <!-- Les données POST seront listées ici -->
    </ul>
</body>
</html>

Code html de la page web

interface Nanoedgeaistudio

Entraînement Capteur STMicroelectronics :

Avec le logiciel Nanoedgeaistudio, on commence à entraîner notre IA en lui faisant 4 premiers signaux, dans lesquels on lui montre des mouvements allant :

-Vers la Gauche

-Vers la Droite

-Vers le Haut

-Vers le Bas

Nous avons fait un premier Benchmark comprenant 2 signaux différents :

-Vers la gauche

-Vers la droite

Avec une centaine de points par signaux.

On commence par essayer un signal avec 64 axes mais il n'y a pas assez de points par axes par rapport au nombre total de points, et NanoEdgeStudio nous envoie plusieurs messages d'avertissement.

On prend donc le maximum d'axe pour une ligne 64 données, c'est à dire 4 puisqu’il faut au minimum 16 données par axe pour NanoEdge.

Séance du 19/12/2023

Entraînement Capteur STMicroelectronics :

On utilise le logiciel Nanoedgeaistudio, on configure donc cette fois-ci avec 4 axes.

Partie Client (Raspberry) :

On modifie le programme de la Raspberry de manière à ce qu'elle accepte la connexion avec le capteur et on a élaboré une ébauche de traitement de données avant envoie de requêtes brut en JSON au serveur.

import requests                                                                 
import json                                                                     
import sys                                                                      
import serial                                                                   
import time                                                                     
                                                                                
def read_from_sensor(ser):                                                      
    if ser.in_waiting > 0:                                                      
        line = ser.readline()  # Lire les données en tant que bytes             
        return line                                                             
    return None                                                                 
                                                                                
def send_post_request(url, data):                                               
    try:                                                                        
        response = requests.post(url, data=json.dumps(data), headers={'Content-)
        print("Réponse du serveur :", response.text)                            
    except requests.exceptions.RequestException as e:                           
        print("Erreur lors de l'envoi de la requête POST :", e)                 
                                                                                
def convert_data_to_json(data):                                                 
    try:                                                                        
        # Convertir les données binaires en chaîne de caractères                
        string_data = data.decode('utf-8', 'ignore').strip()                    
                                                                                
        # Séparer les nombres et convertir en entiers ou flottants              
        numbers = [int(num.strip()) for num in string_data.split(',') if num.st]
                                                                                
        # Créer une structure de données JSON (exemple simple)                  
        json_data = {"values": numbers}                                         
        return json_data                                                        
    except Exception as e:                                                      
        print("Erreur lors de la conversion des données :", e)                  
        return None                                                             
                                                                                
                                                                                
                                                                                
def main():                                                                     
    try:                                                                        
        ser = serial.Serial('/dev/ttyACM0', 460800, timeout=1)                  
        ser.flush()                                                             
                                                                                
        url = 'http://[2001:660:4401:6050:216:3eff:fe4c:2673]:8888'             
                                                                                
        while True:                                                             
            data = read_from_sensor(ser)                                        
            if data:                                                            
                print("Données lues du capteur (transmises dans les logs):", da)
                json_data = convert_data_to_json(data)                          
                if json_data:                                                   
                    send_post_request(url, json_data)                           
            time.sleep(1)                                                       
                                                                                
    except serial.SerialException as se:                                        
        print("Erreur lors de l'ouverture du port série :", se)                 
        sys.exit(1)                                                             
                                                                                
if __name__ == "__main__":                                                      
    main()

Test de la communication (avec récupération des données du capteur) :

On observe à droite de l'image, les logs du programme client géré par connexion ssh à l'intérieur de la Raspberry, celle-ci étant connectée au capteur. Tandis qu'à gauche, on observe les logs de la partie serveur localisé dans la VM à l'intérieur de Chassiron.

Valeurs en réception sur l'ébauche de l'interface
Communication brut client serveur avec données du capteur


On est donc capable de transmettre des données du capteur jusqu'au serveur en passant par la Raspberry qui ne fait pour l'instant aucun traitement.

Séance du 20/12/2023

Avec ou sans lunettes

Au cours de cette séance, nous avons eu des difficulté à exploité le Benchmark effectué à la séance précédente. Ne pouvant donc pas exploité ces résultats qui nous ont pris du temps à avoir, nous avons décidé de passer sur un projet de reconnaissance "statique". L'objectif sera de détecter si une personne porte des lunettes ou non.

NanoEdgeAiStudio :

On a donc relancé un nouveau benchmark composé de 2 signaux avec cette fois 64 axes pour utiliser chaque valeur de la matrice indépendamment (même si cela ne plaît pas à NanoEdgeStudio). Pour l’entraîner, nous nous sommes placé à une distance du capteur quasiment constante mais nous avons changer la position de notre tête sur les côté et nous avons aussi entraîné avec deux personnes différentes afin que l'intelligence ne soit pas entraîner pour une unique personne.

NanoEdgeSignauxlunettes.png


Les signaux utilisé ne comporte environ 75 lignes chacune ce qui n'est pas énorme mais qui nous a tout de même demandé 30min afin de réaliser le Benchmark. Nous aurions pu réaliser quelque chose de plus précis avec plus de lignes par signaux seulement cela n'était pas réalisable en terme de temps.

Communication :

En parallèle de la réalisation du benchmark nous avons modifié le code côté serveur de manière à afficher la page html à qui on transmet les valeurs et non afficher le code Python directement :

Affichage amélioré avec la page index.html
# -*- coding: utf-8 -*-

from http.server import HTTPServer, BaseHTTPRequestHandler
import json
import socket
import logging
import os

# Configurer le système de journalisation
logging.basicConfig(level=logging.INFO)
logger = logging.getLogger(__name__)

# Stocker les requêtes POST reçues
post_requests = []

class CustomHTTPHandler(BaseHTTPRequestHandler):

    def do_GET(self):
        logger.info(f"Requête GET reçue pour {self.path}")
        try:
            if self.path == '/':
                self.path = '/index.html'

            if self.path == '/data':
                self.send_response(200)
                self.send_header('Content-type', 'application/json')
                self.end_headers()
                self.wfile.write(bytes(json.dumps(post_requests), 'utf-8'))
                return

            # Gérer l'affichage de index.html
            if self.path == '/index.html':
                file_path = os.path.join(os.getcwd(), self.path[1:])
                if os.path.isfile(file_path):
                    with open(file_path, 'r') as file:
                        content = file.read()
                    self.send_response(200)
                    self.send_header('Content-type', 'text/html')
                    self.end_headers()
                    self.wfile.write(content.encode('utf-8'))
                else:
                    self.send_error(404, 'File Not Found: %s' % self.path)
                return

        except FileNotFoundError:
            self.send_error(404, 'File Not Found: %s' % self.path)

    def do_POST(self):
        content_length = int(self.headers['Content-Length'])
        post_data = self.rfile.read(content_length).decode('utf-8')

        # Ajouter les données POST à la liste
        post_requests.append(post_data)

        # Envoyer une réponse HTTP
        self.send_response(200)
        self.end_headers()
        self.wfile.write(b"POST request processed")
        logger.info("Requête POST reçue et traitée avec succès.")

class HTTPServerV6(HTTPServer):
    address_family = socket.AF_INET6

if __name__ == '__main__':
    server_address = ('::', 8888)  # Écoute sur toutes les interfaces IPv6, port 8888
    httpd = HTTPServerV6(server_address, CustomHTTPHandler)
    print("Serveur actif sur le port", 8888)
    logger.info("Serveur actif sur le port 8888")
    httpd.serve_forever()

Déploiement de l'application :

Une fois le Benchmark achevé, nous avons tester le résultat et la détection fonctionnait correctement.

Ensuite nous avons copié les fichiers librairies qui sont sorties du benchmark du logiciel NanoEdgeAiStudio dans la VM ainsi que dans la Raspberry PI de manière à implémenter les parties traitements dans ces 2 cas, pour pouvoir par la suite, comparer les performances temporelle en termes de l'execution mais également les performances au niveau consommation énergétique.

Afin d'utiliser les libraries télécharger correctement nous avons suivis la documentation joint : https://wiki.st.com/stm32mcu/wiki/AI:NanoEdge_AI_Emulator_for_n-class_classification_(nCC)

Nous avons observer un problème lors de l'analyse des datas sur la Raspberry: l’exécutable d'analyse ne pouvait pas se lancer à cause d'une erreur.

Pour procéder autrement, nous envoyons directement les datas brut depuis le client au serveur et c'est le serveur qui traite les datas pour indiquer sur notre page web si la personne observé porte des lunettes ou non.

Mais sur la VM, cela fonctionne correctement.