Modélisation de connaissances et raisonnement

Leaders de la thématique

Jian Tang & Amal Zouaq

Chercheuses et chercheurs impliqués

Yacine Benahmed, Jackie Cheung, Samira Ebrahimi-Kahou, Richard Khoury, Philippe Langlais, Bang Liu, Jian-Yun Nie, Reihaneh Rabbany, Siva Reddy

Étudiantes et étudiants

À venir

Sous-thèmes

  • Modélisation des connaissances

  • Web sémantique

  • Raisonnement neuronal et formel

  • Utiliser les connaissances dans différentes tâches (raisonnement textuel, QA, dialogue, etc.)


Description

Pour être utilisables, les connaissances doivent être formalisées. Cela signifie non seulement de décrire les connaissances dans un format standard, mais aussi de créer une représentation appropriée de celles-ci. Le projet étudiera le formalisme commun des graphes de connaissances (entités interconnectées) et tentera de le pousser plus loin vers un web sémantique mieux organisé. Les éléments inclus dans un tel graphe de connaissances ou web sémantique seront encodés dans un modèle. Les réseaux de neurones de graphes (GNN) sont couramment utilisés pour cette tâche. Dans ce projet, nous visons à créer des GNN adaptés à différentes tâches NLP. En particulier, nous intégrerons les GNN dans les tâches NLP (QA) pour permettre l'inférence multi-sauts basée sur les connaissances. En plus des graphes de connaissances, de grands modèles de langage pré-entraînés tels que BERT et GPT encodent également certaines connaissances générales en plus des régularités linguistiques. Nous étudierons l'inférence dans des tâches de TALN qui combinent des graphes de connaissances et des modèles de langage pré-entraînés.