Validation et optimisation d’algorithmes pour évaluer la résistance variétale à la fusariose sur blé tendre et blé dur au champ
Titre | Validation et optimisation d’algorithmes pour évaluer la résistance variétale à la fusariose sur blé tendre et blé dur au champ |
Type | Rapport de stage |
Auteurs | Kone Seydina Ousmane |
Directeurs | Belin Etienne |
Année | 2023 |
URL | https://dune.univ-angers.fr/fichiers/18009275/2023TMPA17476/fichier/17476F.pdf |
Mots-clés | Capteur multispectrale, Capteur RGB, Deep learning (DL), fusariose de l’épi (FHB), Machine learning (ML) |
Résumé | La problématique générale de ce stage s’inscrit dans le programme de recherche européen Phenet pour développer un modèle d’intelligence artificielle (IA) fiable pour détecter et quantifier par imagerie la fusariose de l’épi du blé dans le cadre de l’inscription des variétés au Catalogue français en vue de remplacer les notations visuelles pouvant être soumises à la subjectivité des expérimentateurs. Deux approches de détection de la fusariose ont été explorées : l’une basée sur le machine learning à partir d’images multispectrales et l’autre sur le deep learning pour des images RGB. Pour la méthode de machine learning, le GEVES a fait développé une caméra multispectrale CMS4, contenant 4 longueurs d’onde spécifiques de la fusariose, allant du RGB au proche infrarouge. Des modèles existants avaient été préalablement entraînés sur des données de 2021-2022 provenant de 8 sites avec des essais inoculés par Fusarium graminearum, que nous avons comparés avec un nouveau modèle formé à partir de données réannotées. La comparaison des modèles avant et après réannotations a montré que le nouveau modèle sur les données d’entraînement avait une précision plus faible par rapport aux modèles existants, un rappel stable et une légère amélioration de la justesse de 5,75 %. Néanmoins, le nouveau modèle de prédiction de la fusariose sur des données en test a montré de meilleures performances, avec environ 10 % de gain pour la précision et le rappel et un important gain de 36.8 % pour la justesse, avec 71.3 %. Pour la méthode de deep learning, des images RGB d’épis ont été acquises en 2023 dans un un essai du GEVES inoculé avec de la fusariose, avec 2 modes de prise de vue, latéralement avec un caméra Sony et longitudinalement avec un smartphone. Afin de simplifier le processus d’annotation, j’ai choisi la plate-forme Roboflow, qui s’est révélée être une solution flexible et efficace pour la gestion des données par comparaison à d’autres plateformes. Le processus de détection de la fusariose a fait appel à divers outils et technologies, notamment YOLOv8 qui est un modèle de détection d’objets, la bibliothèque Ultralytics et Roboflow. Les résultats obtenus après l’entraînement du modèle de détection de la fusariose se sont révélés satisfaisants et encourageants, avec une précision moyenne (mAP50) de 57,2 %. La précision de détection de la partie infectée de la fusariose s’est élevée à 61,5 %, tandis que la précision pour la partie saine était de 70,1 %. |
Résumé en anglais | The general problem of this internship is part of the Phenet European research programme to develop a reliable artificial intelligence (AI) model for detecting and quantifying fusarium head blight in wheat using imagery, as part of the process of registering varieties in the French Catalogue, with a view to replacing visual ratings that may be subject to the subjectivity of experimenters. Two approaches to detecting fusarium head blight were explored : one based on machine learning using multispectral images and the other on deep learning for RGB images. For the machine learning method, GEVES had a CMS4 multispectral camera developed, containing 4 wavelengths specific to fusarium, ranging from RGB to near infrared. Existing models had previously been trained on 2021-2022 data from 8 sites with trials inoculated with Fusarium graminearum, which we compared with a new model trained on re-annotated data. Comparison of the models before and after re-annotations showed that the new model on the training data had lower precision than the existing models, stable recall and a slight improvement in trueness of 5.75%. Nevertheless, the new Fusarium head blight prediction model on test data showed better performance, with about a 10 % gain in precision and recall and a significant 36.8 % gain in trueness, with 71.3 %. For the deep learning method, RGB images of cobs were acquired in 2023 in a GEVES trial inoculated with fusarium, with 2 shooting modes, laterally with a Sony camera and longitudinally with a smartphone. To simplify the annotation process, I chose the Roboflow platform, which proved to be a flexible and efficient solution for data management compared with other platforms. The Fusarium head blight detection process used various tools and technologies, including YOLOv8 which is an object detection model, the Ultralytics library and Roboflow. The results obtained after training the Fusarium head detection model were satisfactory and encouraging, with an average accuracy (mAP50) of 57.2%. The accuracy of detection of the infected part of the fusarium was 61.5 %, while the accuracy for the healthy part was 70.1 %. |
Langue de rédaction | Français |
Nb pages | 75 |
Diplôme | Master Physique Appliquée et ingénierie physique |
Date de soutenance | 2023-10-27 |
Editeur | Université Angers |
Place Published | Angers |
Entreprise | GEVES |
Libellé UFR | UFR de Sciences |