Les Grands Modèles de Langage (LLMs) sont en train de transformer l’accès à l’information en facilitant l’interaction en langage naturel. Cependant, les systèmes actuels présentent plusieurs limitations :
Les LLMs ne sont pas conçus initialement pour la RI, et nécessitent des adaptations pour les interactions lors d’une recherche documentaire.
Problèmes de véracité et d’hallucination, compromettant la fiabilité des réponses générées.
Faible généralisation aux langues et domaines à faibles ressources, limitant l’accessibilité et nécessitant une meilleure compréhension des fonctionnements internes.
Défis liés à l’explicabilité, rendant difficile la justification transparente des résultats.
Cet atelier abordera les défis liés à l’accès à l’information basé sur le dialogue et l’intégration de la génération automatique améliorée par la recherche d’information pour améliorer les systèmes de recherche conversationnelle.
Nous invitons les contributions portant sur les modèles, les collections de données et les méthodologies d’évaluation visant à renforcer l’explicabilité, la robustesse et l’équité dans ce contexte.
Cet atelier est en lien avec le projet ANR GUIDANCE. Il sera suivi d’un hackathon en lien avec la tâche iKAT de TREC 2025 (https://www.trecikat.com/). Il se tiendra sur une demie journée lors de la conférence CORIA-TALN 2025, à Marseille.
Appel à contributions
Nous accueillons des études, travaux préliminaires ou des propositions de table ronde portant sur la RI conversationnelle et pouvant couvrir les thématiques suivantes :
Modèles les plus adaptés à la RI Conversationnelle
Combinaison des approches de RI denses et parcimonieuses
Apprentissage en continu
Architectures pour un accès interactif à l’information
Stratégies de clarification et reformulation en recherche conversationnelle
Conception de prompts spécialisés pour la génération de requêtes
Évaluation et collections pour la recherche d’information conversationnelle
Réflexion sur les collections et mesures d’évaluation, début de collections
Collection de données et outils d’annotation pour l’évaluation
Explicabilité dans les modèles neuronaux de recherche d’information
Adaptation aux langues et domaines à faibles ressources
Apprentissage zéro-shot et few-shot pour l’adaptation aux nouveaux domaines
Gestion de la diversité linguistique et adaptation aux langues peu dotées
Factualité, biais et véracité
Détection et atténuation des hallucinations dans les réponses générées par les LLMs
Évaluation de l’équité et des biais dans les systèmes conversationnels
Mécanismes de vérification des faits pour l’accès à l’information
Consignes de soumission
Consignes de soumission
Soumission : Article scientifique*, proposition de table ronde, présentation de session interactive avec les participants, de ressources d’enseignement, de retours d’expériences, de démos, …
*Les articles ayant fait l'objet d'une publication précédente dans un journal ou une autre conférence peuvent également faire l'objet de la soumission d'un résumé à l'atelier.
Longueur : 2 à 8 pages (hors références). La longueur des propositions ne constitue pas un critère d'évaluation.