Modélisation de connaissances et raisonnement
Leaders de la thématique
Jian Tang & Amal Zouaq
Chercheuses et chercheurs impliqués
Yacine Benahmed, Jackie Cheung, Samira Ebrahimi-Kahou, Richard Khoury, Philippe Langlais, Bang Liu, Jian-Yun Nie, Reihaneh Rabbany, Siva Reddy
Étudiantes et étudiants
À venir
Sous-thèmes
Modélisation des connaissances
Web sémantique
Raisonnement neuronal et formel
Utiliser les connaissances dans différentes tâches (raisonnement textuel, QA, dialogue, etc.)
Description
Pour être utilisables, les connaissances doivent être formalisées. Cela signifie non seulement de décrire les connaissances dans un format standard, mais aussi de créer une représentation appropriée de celles-ci. Le projet étudiera le formalisme commun des graphes de connaissances (entités interconnectées) et tentera de le pousser plus loin vers un web sémantique mieux organisé. Les éléments inclus dans un tel graphe de connaissances ou web sémantique seront encodés dans un modèle. Les réseaux de neurones de graphes (GNN) sont couramment utilisés pour cette tâche. Dans ce projet, nous visons à créer des GNN adaptés à différentes tâches NLP. En particulier, nous intégrerons les GNN dans les tâches NLP (QA) pour permettre l'inférence multi-sauts basée sur les connaissances. En plus des graphes de connaissances, de grands modèles de langage pré-entraînés tels que BERT et GPT encodent également certaines connaissances générales en plus des régularités linguistiques. Nous étudierons l'inférence dans des tâches de TALN qui combinent des graphes de connaissances et des modèles de langage pré-entraînés.