Ce rapport détaille le développement d'un outil de phénotypage quantitatif et semi automatique visant à caractériser la sensibilité de mutants d'Arabidopsis thaliana aux symptômes causés par le champignon phytopathogène Alternaria brassicicola. En réponse aux enjeux de l'agriculture moderne et aux limites des méthodes d'évaluation visuelle, l'objectif était de créer une solution accessible et à débit moyen pour l'étude du pathosystème sur feuilles de rosette et sur jeunes plantules. L'outil s'appuie sur l’utilisation d’un macroscope ZEISS et de son logiciel associé, ZEN, intégrant un module de machine learning pour la segmentation d'images. Un montage expérimental et un plan de semis ont été conçus pour optimiser la prise d’images. Des protocoles d’acquisition adaptés à chaque modèle, incluant l’éclairage, l’optique et le mode de capture, ont également été établis. Deux modèles intelligents de segmentation par classification de pixels ont été développés et entraînés pour identifier les nécroses sur feuilles et les nécroses/conidies sur plantules. Les résultats démontrent la capacité de ce nouvel outil à traiter un grand nombre d'images en un temps raisonnable (environ 1 min par feuille ou plantule pour l'acquisition). Cependant, les modèles de segmentation nécessitent un entraînement plus approfondi avec une diversité d'images accrue afin d'améliorer leur robustesse et leur fiabilité. Une fois finalisé, cet outil permettra un phénotypage rapide et objectif des mutants pour des approches d’analyse fonctionnelle.
This report details the development of a quantitative and semi-automated phenotyping tool to characterize the susceptibility of Arabidopsis thaliana mutants
to symptoms caused by the phytopathogenic fungus Alternaria brassicicola. In response to the challenges of modern agriculture and the limitations of visual
assessment methods, the objective was to create an accessible and medium throughput solution for the study of the pathosystem on rosette leaves and young seedlings. The tool is based on a ZEISS macroscope and the related ZEN software, integrating a machine learning module for image segmentation. An experimental setup and a sowing plan were designed to optimize image capture. Acquisition protocols adapted to each model, including lighting, optics, and capture mode, were also established. Two intelligent pixel classification segmentation models were developed and trained to identify necrosis on leaves and necrosis/conidia on seedlings. The results demonstrate the tool's ability to process numerous images in a reasonable time (approximately 1 min per leaf or seedling for acquisition). However, the segmentation models require further training with increased image diversity to improve their robustness and reliability. Once finalized, this tool will enable rapid and objective phenotyping approaches for mutant analyses and functional approaches.