Abstract: La télédétection est un outil essentiel pour surveiller et comprendre notre planète et les activités humaines à l'échelle mondiale. Les données capturées par les satellites permettent aux scientifiques et aux analystes de détecter et d'identifier une large gamme d'objets et d'événements partout dans le monde, de manière très fréquente. Avec l'avancée et la multiplication des satellites d'imagerie terrestre, les organisations civiles et gouvernementales ont aujourd'hui accès à des quantités astronomiques de données visuelles, dont l'échelle nécessite l'utilisation d'algorithmes de vision par ordinateur et d'apprentissage automatique pour être traitées. Les réseaux de neurones profonds, capables d'apprendre des représentations sémantiques puissantes à partir des données, constituent un moyen de faire des progrès significatifs dans l'analyse des images de télédétection pour des tâches d'observation de la Terre, telles que la cartographie de l'occupation et de l'utilisation des sols.Cependant, la disponibilité limitée de données annotées pour ces tâches pose un défi important, car les méthodes d'apprentissage supervisé traditionnelles nécessitent de grands ensembles de données annotées pour (pré)entraîner les modèles. Cette thèse se concentre sur l'apprentissage auto-supervisé des représentations visuelles, dont l'objectif est d'apprendre des extracteurs de caractéristiques profonds à partir d'images non annotées, pouvant ensuite être transférés pour s'attaquer à des tâches aval avec un nombre limité de données annotées.De telles méthodes suscitent un grand intérêt pour la télédétection en raison de l'abondance des données et de la rareté des annotations. Nous présentons différentes contributions à l'intersection de l'apprentissage auto-supervisé et de la télédétection. Plus précisément, nous visons à évaluer et améliorer l'efficacité et la précision des approches d'apprentissage d'embeddings conjoints pour la reconnaissance d'images satellites optiques, en proposant trois contributions ancrées dans les ...
No Comments.