L’observation de la Terre et l’IA
Traditionnellement, les différents milieux se trouvant au sol étaient interprétés ou classifiés à l’aide de photo-interprètes. L’intervention d’un photo-interprète produit en général d’excellents résultats pour interpréter la cible au sol. Toutefois, cette approche nécessite un important temps d’analyse et n’est pas envisageable lorsqu’il y a un très grand nombre d’images à analyser.
Depuis plus de 20 ans, l’utilisation d’algorithmes de classification par l’apprentissage machine, comme SVM et Random Forest, permet d’automatiser l’analyse des images. Cependant, la précision des prédictions peut être très variable et, bien souvent, elle n’équivaut pas au travail effectué par un photo-interprète expérimenté.
Une des raisons expliquant cette divergence est la complexité parfois élevée des milieux à classifier. Ce type d’algorithmes saisit difficilement les « patterns » pouvant se trouver dans l’environnement, car le contexte dans lequel l’objet évolue n’est pas nécessairement pris en compte. Cependant, cette approche permet de faire une approximation des classes d’occupation du sol et peut servir d’outil pour les projets au quotidien.
Depuis quelques années, l’IA est devenue incontournable dans le domaine de l’observation de la Terre. L’une des raisons de cette popularité croissante est la capacité des réseaux de neurones convolutifs (CNN) de prendre en compte le contexte dans lequel l’objet à classifier se trouve. Cet aspect est crucial pour bien identifier les objets au sol. De plus, la flexibilité de ces architectures les rend intéressantes pour la classification d’images satellites et aériennes. Finalement, il a été rapporté dans certains cas que la précision des prédictions faites par l’IA se rapprochait de celle obtenue par un photo-interprète.
Détection des milieux humides à l’aide d’images multispectrales et de l’apprentissage profond
Depuis un peu plus d’un an, nous nous intéressons à l’identification des milieux humides à partir d’imagerie satellitaire multispectrale. Pour ce faire, nous développons une approche utilisant un modèle d’apprentissage profond du type CNN. Ce modèle est entraîné à partir d’un grand nombre d’imagettes annotées représentant les différentes classes qui nous intéressent pour la classification. Ces imagettes ont été extraites d’images captées par les capteurs Sentinel-2a et Sentinel-2b. En l’alimentant avec ces imagettes, le modèle apprend à extraire les caractéristiques permettant d’identifier les différents milieux humides.
Ces réseaux de neurones se comportent un peu comme un cerveau lorsqu’il apprend. Ils finissent par reconnaître un objet lorsqu’ils le voient à plusieurs reprises. Au bout du compte, une image satellite que l’algorithme entraîné n’a jamais « vu » couvrant une région d’intérêt peut lui être fournie et celui-ci prédira une classe pour chacun des pixels. Une cartographie détaillant les différents milieux humides, s’il y en a, est obtenue. Un tel outil, bien qu’il ne remplace pas le travail des biologistes sur le terrain, apporte un réel soutien à la planification des travaux.