Projet de fin d'étude : Comparison of sequence classification techniques with BERT for named entity recognition

Etudiant : ABDERRAHMANE SIDI MOHAMED

Filière : Master Big Data Analytics & Smart Systems (BDSaS)

Encadrant : Pr. LOQMAN CHAKIR

Annèe : 2021

Résumé : Dans ce projet, nous allons utiliser Bert (Bidirectional Encoder Representations from Transformer) pour la reconnaissance des entités nommées. BERT est un modèle de langage développé par l’équipe de développement de Google à la fin de 2018, c’est un modèle de langage pré-entraîné pour des tâches multiples de traitement du langage. Ce modèle puissant a battu plusieurs records lors de sa publication. La plupart des travaux sur la NER utilisant l’apprentissage profond ont été réalisés pour des langues non arabes comme l’anglais et le français, et seulement quelques études se sont concentrés sur l’arabe. On va utiliser Arabert (Transformer-based Model for Arabic Language Understanding) qui est un modèle basé sur Bert et qui est préformé pour la compréhension et la génération de la langue arabe. Nous allons comparer les résultats trouvés par Arabert avec des autres modèles, tels que SVM (support vector machine) et BILSTM (Bi-directional Long Short-Term Memory) dans le traitement de reconnaissance d’entités nommées (NER) et les résultats de comparaison seront montrés.