Projet de fin d'étude : Conception d’un système de reconnaissance des gestes de la main pour l’alphabet ASL à l’aide de la réalité augmentée et du deep learning.

Etudiant : BEN ABBOU KHAOULA

Filière : Master Informatique Décisionnelle et Vision Intelligente (MIDVI)

Encadrant : Pr. LAHJOUJI AMAL

Annèe : 2024

Résumé : La reconnaissance des gestes, une sous-discipline en plein essor dans les domaines de l’intelligence artificielle (IA) et de la réalité augmentée (RA), se consacre à l’interprétation et à la compréhension des mouvements humains par des systèmes automatisés. Ce domaine est particulièrement prometteur pour des applications telles que l’assistance aux personnes ayant des besoins particuliers, la sécurité et la surveillance, ainsi que l’interaction homme- machine. Au cœur de notre projet se trouve la reconnaissance de l’alphabet de la langue des signes américaine (ASL), qui représente un mode de communication vital pour les personnes sourdes et malentendantes. L’ASL, qui utilise des gestes manuels spécifiques pour représenter les lettres de l’al- phabet, est un outil crucial pour l’expression et l’échange d’idées entre les personnes non entendantes et la société en général. La maîtrise de ce système de communication est donc essentielle pour faciliter leur inclusion sociale et leur autonomie. Notre projet s’appuie sur les avancées récentes dans les technologies d’apprentissage profond et de réalité augmentée pour développer un système capable de reconnaître et de traduire les signes de l’alphabet ASL en texte ou en parole. Les techniques d’apprentissage profond, telles que les réseaux neuronaux convolutifs (CNN), permettent d’analyser et d’in- terpréter les images et les vidéos des gestes en temps réel avec une grande précision. En parallèle, l’intégration de la réalité augmentée permet de superposer des informations et des instructions visuelles sur l’environnement réel de l’utilisateur, offrant une interface intuitive et interactive. Le développement de ce système de reconnaissance des gestes implique plusieurs étapes clés, dont la collecte de données de haute qualité, la création de modèles d’apprentissage adaptés, et l’évaluation des performances pour assurer une reconnaissance précise et fiable des signes de l’alphabet ASL. Ces modèles doivent être capables de gérer la variabilité des gestes, qu’il s’agisse des différences de vitesse, d’angle ou d’interprétation individuelle. L’objectif ultime de notre projet est de fournir un outil accessible qui non seulement facilite la communication entre les personnes sourdes et entendantes, mais qui contribue éga- lement à leur inclusion dans la société en les aidant à surmonter les barrières linguistiques et culturelles. En améliorant la compréhension mutuelle et en augmentant les possibilités de communication, nous visons à créer un monde plus inclusif où chacun peut participer plei- nement, indépendamment de ses capacités auditives. Ainsi, la reconnaissance de l’alphabet de la langue des signes américaine grâce à l’intel- ligence artificielle et à la réalité augmentée n’est pas seulement une avancée technologique, mais aussi un pas significatif vers une société plus équitable et connectée. Mots clés : Langue des signes américaine(ASL), Reconnaissance des gestes, Réalité aug- mentée (RA), Deep Learning, CNN.