INGÉNIEUR DE RECHERCHE AU LABORATOIRE DES TECHNOLOGIES INNOVANTES (AMIENS - 80000)
Je travaille depuis septembre 2022 et jusque début juin 2023 sur un projet européen financé par React-EU, un ensemble de mesures mises en place pour faire face aux conséquences de la pandémie de Covid-19 et relancer l'économie.
Notre projet est de concevoir un robot pouvant désinfecter des salles de classes d'établissements scolaires par le traitement UV. Ce robot doit donc agir en toute autonomie, se déplacer de salle en salle et stopper la désinfection s'il détecte un être humain pour des raisons de sécurité.
Au cours de ce contrat en CDD de 9 mois, j'ai eu pour objectif de permettre à un robot de réaliser une cartographie d'un environnement intérieur peu texturé.
Choix de la caméra
Dans un premier temps, des tests ont été réalisés dans le but de déterminer la caméra à utiliser. Nous avons des caméras Intel RealSense de modèle D435, D435i ainsi que T265 en notre possession. Notre robot devra pouvoir naviguer dans des environnements peu texturés tel que des couloirs étroits. Des tests ont été effectués avec des algorithmes tel que ORB-SLAM3, OV²SLAM et RTAB-Map [1-3].
Dans un premier temps, le choix d'une configuration monoculaire a été écarté en raison de la nécessité d’initialiser l'algorithme en effectuant un mouvement de translation et de rotation. Cette initialisation est réalisable sur des appareils tel que des drones, cependant sur un robot d'un certain poids, il faudrait prévoir un système à cette fin. De plus, la nécessité d'ajouter un capteur comme par exemple un IMU afin de déterminer le scale et ainsi obtenir une map avec la bonne échelle est une contrainte supplémentaire.
Ainsi les tests ont été réalisés en Stereo et en RGB-D.
Choix de l'algorithme
Une fois le choix de la Realsense T265 réalisé, il a fallu se pencher sur la sélection de l'algorithme afin d'obtenir les meilleurs résultats possible. Trois algorithmes en particulier ont été retenus, à savoir ORB-SLAM3, OV²SLAM ainsi que RTAB-Map. [1-3]
ORB-SLAM3 [1] est le Visual SLAM basé sur une feature method, la plus populaire de par sa capacité à supporter plusieurs configuration de capteurs (Monocular, Stereo, RGB-D, Mono-inertial, Stereo-inertial et RGB-D-inertial) ainsi que par ses excellents résultats sur des dataset tel que EuRoc ou KITTI. Cependant les Visual SLAM basés sur la feature method ne sont pas les meilleurs dans des environnements peu texturés, étant donné qu'ils ont besoin d'extraire des key points dans les images et les traquer grâce au feature matching. Sans key points l'algorithme ne peut pas fonctionner correctement.
OV²SLAM [2] est un algorithme de Visual SLAM qui extrait les features uniquement sur les key frames et les traque avec l'optical flow sur les frames suivantes. Il se sert également des features pour traquer les locals map mais contrairement à ORB-SLAM, il ne réalise cette opération que pour les key frames. Ainsi il possède une Visual Odometry précise et pouvant monter jusqu'à 200 Hz, permettant de garantir l'usage de l'algorithme en temps réel.
Pour finir, RTAB-Map [3] est un des seuls algorithmes de Visual SLAM à fournir une map dense (et non sparse contrairement à la majorité des autres algorithmes) qui peut donc permettre la navigation d'un robot. Le principal avantage de cet algorithme est sa gestion de mémoire qui permet des détections de boucles sur de très grandes distances.
STAGIAIRE AU LABORATOIRE DES TECHNOLOGIES INNOVANTES (AMIENS - 80000)
J'ai réalisé un stage de 20 semaines au Laboratoire des Technologies Innovantes d'Amiens au cours duquel j'ai commencé par étudier les différentes méthodes de Visual Odometry existantes (à savoir la méthode indirecte -> feature method ainsi que la méthode directe -> direct method). Une fois ces technologies analysées, des tests ont été réalisés afin de déterminer dans quelle situation il valait mieux privilégier l'utilisation de chaque type d'algorithme.
Ainsi j'ai pu continuer par l’analyse détaillée du fonctionnement de l'algorithme ORB-SLAM3 [1], un des algorithmes de Visual SLAM les plus populaires.
Les tests ont été effectués avec différents types de caméras afin de déterminer quelle méthode était la plus robuste. Il a été décidé que la suite des travaux se porterait sur ORB-SLAM3 [1] en raison de ses résultats supérieurs aux algorithmes de méthode directe, compte tenu de l'absence de calibration photométrique.
Il a également été montré dans un papier scientifique "Benchmarking cameras for open vslam indoors" [4] que l'usage de la caméra RealSense T265 était plus efficace que celui de la D435, en raison de son plus grand champ de vision.
BIBLIOGRAPHIE
[1 ] C. Campos, R. Elvira, J. J. G. Rodriguez, J. M. Montiel, and J. D.Tardos, "Orb-slam3: An accurate open-source library for visual, visual–inertial, and multimap slam", IEEE Transactions on Robotics, vol. 37, no. 6, pp. 1874–1890, 2021.
[2] M. Ferrera, A. Eudes, J. Moras, M. Sanfourche, and G. Lebesnerais, "OV2SLAM : A Fully Online and Versatile Visual SLAM for Real-Time Applications", IEEE Robotics and Automation Letters, 2021.
[3] Labbé, M. Michaud, F. "Rtab-map as an open-source lidar and visual simultaneous localization and mapping library for large-scale and long-term online operation", Journal of Field Robotics 36(2) (2019) 416–446
[4] K. Chappellet, G. Caron, F. Kanehiro, K. Sakurada, and A. Kheddar, "Benchmarking cameras for open vslam indoors", in 2020 25th International Conference on Pattern Recognition (ICPR). IEEE, 2021.