Projet de fin d'étude : Vers un modèle robuste de détection des objets dans la conduite autonome

Etudiant : TAUK YAHYA

Filière : Master Web Intelligence et Sciences des Données (WISD)

Encadrant : Pr. MOHAMED ADNANE MAHRAZ

Annèe : 2025

Résumé : Ce mémoire présente les travaux initiaux réalisés dans le cadre de mon stage de fin d’études, portant sur l'amélioration de la détection 3D pour la conduite autonome, en mettant l'accent sur la robustesse et la précision face à des scènes incomplètes ou bruitées. Dans un contexte où la perception fiable reste un défi, notamment en présence de conditions dégradées (brouillard, pluie, objets soudains...), notre projet s'appuie sur l'exploitation conjointe de deux capteurs : le LiDAR (Light Detection And Ranging), reconnu pour sa robustesse et sa précision géométrique, et la caméra RGB, riche en information sémantique. Notre première implémentation se concentre sur un pipeline modulaire réalisant le rognage d’instances 3D (instance point cloud cropping), la densification par suréchantillonnage basé sur la géométrie (geometry-based upsampling), puis la projection des objets densifiés dans la scène LIDAR originale à l’aide de leur centre de gravité (COG : Center Of Gravity). Cette approche permet d'évaluer de manière expérimentale si la complétion et la densification apportent un gain significatif de détection et de localisation d'objets. L’objectif est de vérifier la pertinence de cette direction avant de généraliser le pipeline. La seconde version, plus avancée, visera à intégrer une extraction d’instances via des réseaux de propositions régionales (RPN : Region of interest Proposal Network), combinés à une segmentation d’instances ou panoptique, afin d’isoler précisément les objets. Ces instances seront ensuite densifiées par complétion (PCN : Point Completion Network, etc.), permettant au modèle final de mieux régresser vers des boîtes englobantes (bounding boxes) plus précises et robustes. Bien que le pipeline complet soit encore en phase de construction, les premiers modules ont été conçus, testés et validés. Le projet vise à terme à proposer une solution de détection 3D plus robuste, précise et adaptée aux scénarios réels, comblant ainsi une partie de l'écart entre la perception humaine et celle des véhicules autonomes