Chat
De même qu'une conversation, la section Chat vous permet d'interagir avec l'assistant IA que vous venez de créer !
Ressources supplémentaires
Maîtrisez la récupération de données avec l'interface de chat de QAnswer ! Consultez notre tutoriel d'une minute pour obtenir des informations rapides et précises via une interrogation intuitive par chat.
Dès que vous fermez ou actualisez la page, le chat de l'assistant IA oubliera toute interaction précédente.
Pour accéder à cette tâche IA, cliquez sur Tâche IA puis Chat :
Dans l'interface de chat de Tâche IA, les réponses sont basées uniquement sur les informations fournies à l'assistant IA via les connecteurs. Vous pouvez interagir avec le chat et lui donner plus d'informations. Consultez la section Data Source pour configurer un connecteur !
La réponse de l'assistant IA est une synthèse basée sur tous les documents que QAnswer a trouvés pour le dernier message que vous avez envoyé. La réponse est produite par un modèle génératif ; chaque réponse peut donc être formulée différemment tout en contenant les mêmes informations.
Vous pouvez relancer la génération pour obtenir une nouvelle réponse en cliquant sur l'icône
.Pour améliorer les performances des réponses, vous pouvez donner votre avis en cliquant sur ou .
De plus, vous pouvez modifier la réponse générée en cliquant sur l'icône .
- Retour positif
- Retour négatif
- Modifier la réponse
Paramètres de la tâche
Si vous souhaitez personnaliser votre chat d'assistant IA, cliquez sur
. Vous pouvez personnaliser la façon dont votre assistant IA vous répond en :Modifier le prompt dans l'éditeur de prompt : adapter le comportement de l'assistant IA.
Ajuster les paramètres du LLM : vous pouvez choisir le LLM qui alimentera les réponses, le message initial, la longueur des réponses, le niveau de créativité et la vitesse de réponse.
Ajuster le retriever : vous pouvez choisir le nombre de références passées au LLM et ajouter des synonymes.
Activer la prise en charge humaine : permet aux utilisateurs de demander l'intervention d'un humain si nécessaire.
Configurer les filtres avancés : permet aux utilisateurs de filtrer les documents utilisés pour répondre aux questions en fonction de métadonnées spécifiques.
- Ouvrir les paramètres de la tâche
- Prompt
- LLM
- Retriever
- Prise en charge humaine
- Filtres avancés
Editeur de prompt
L'éditeur de prompt vous permet de personnaliser entièrement le comportement de votre assistant IA. Vous pouvez définir la personnalité de l'assistant, sa façon de répondre aux requêtes, le style utilisé et bien plus. En utilisant des Variables (Slots) comme {{bot_name}} ou {{bot_answer_length}}, vous pouvez injecter des valeurs dynamiques dans le prompt.
Appuyez sur la touche / pour afficher la liste des variables disponibles. Reportez-vous à la section Variables (Slots) pour plus d'informations sur leur utilisation.
- Prompt
- Édition du prompt
- Liste des variables
Parametres du LLM
Dans les paramètres du LLM, vous pouvez ajuster les caractéristiques du modèle de langage qui alimente votre assistant IA :
- le modèle LLM utilisé
- le message initial
- la fenêtre de contexte (en tokens)
- l’option pour afficher ou masquer la date de dernière mise à jour dans les sources
- la longueur maximale de réponse
- le niveau de créativité (temperature)
- Fenêtre de contexte (tokens) : quantité de texte (conversation + documents) que le modèle peut considérer en même temps. Si cette limite est dépassée, le contenu le plus ancien peut être ignoré.
- Longueur maximale de réponse : limite de tokens produits par le modèle, utile pour éviter des réponses trop longues.
Astuce pratique : Utilisez une température faible pour les tâches factuelles, augmentez la fenêtre de contexte pour inclure de longs documents, et fixez une longueur maximale pour maîtriser la taille et le coût des réponses.
Amélioration du Contexte
Cette fonctionnalité peut être activée via deux niveaux :
- Par utilisateur (gérée par les administrateurs dans la table des utilisateurs)
- Par assistant (depuis le panneau des paramètres)
- Admin Panel
- Search Task
- Chat Settings
Si cette option est cochée dans les paramètres du panneau d’administration, le bouton d’activation sera visible dans les interfaces de recherche et de chat, ainsi que dans la boîte d’entrée du chatbot lorsque l’assistant IA est associé.
Si elle est activée dans les paramètres de la tâche IA de recherche, le bouton sera visible dans l’interface de recherche.
Si elle est activée dans les paramètres de la tâche de chat, le bouton apparaîtra dans l’interface de chat et dans la boîte d’entrée du chatbot lorsque l’assistant est associé.
- La fonctionnalité est désactivée par défaut.
- Si l’interrupteur est activé , l’assistant IA pourra traiter des documents volumineux plus efficacement. Si le document dépasse la taille que le modèle peut lire d’un seul coup, il sera automatiquement découpé en parties, analysé morceau par morceau, puis les résultats seront combinés. Cela permet à l’IA de considérer l’ensemble du document lors de la réponse, même pour des fichiers très longs.
Parametres du Retriever
Les paramètres du récupérateur définissent comment les documents pertinents sont retrouvés pour l’assistant IA, ils incluent :
- le modèle d’embedding utilisé (modifiable uniquement lors de la création de l’assistant)
- le nombre de références transmises au LLM
- les synonymes utilisés pour améliorer la pertinence des résultats
Synonymes
Dans la section dédiée aux synonymes, vous pouvez définir des groupes de synonymes qui seront utilisés pour retrouver des documents plus pertinents.
Cliquez sur + Ajouter un groupe de synonymes pour ajouter un nouveau groupe de synonymes.
Entrez un mot dans le champ de saisie et appuyez sur Entrée ou cliquez sur le bouton + pour l’ajouter à la liste des synonymes.
Vous ne pouvez ajouter un nouveau groupe que s’il n’y a pas de groupes existants, ou si le dernier en a au moins un et que le champ de saisie est vide.
Vous pouvez supprimer un groupe en cliquant sur le bouton
.Vous pouvez téléverser une liste de synonymes en cliquant sur le bouton Bulk Upload. Vous pourrez Télécharger l'exemple CSV pour apprendre le format ou Choisir un fichier pour téléverser votre propre CSV.
- Synonymes
- Saisie remplie
- Liste créée
- Ajouter un groupe
- Téléversement en masse
Découpage des documents
Comment ça marche
Le fractionnement des documents contrôle comment le texte est découpé avant d'être converti en embeddings et indexé. Il impacte la qualité de la recherche et la fenêtre de contexte. Vous disposez de trois paramètres principaux :
Découper par
Choisissez l'unité utilisée pour découper le document :
- Mots – Découpe par un nombre fixe de mots.
- Phrases – Découpe aux limites de phrases.
- Pages – Découpe selon les sauts de page originaux (PDF).
Taille de découpe
Définit la taille de chaque fragment, selon l'unité sélectionnée.
- Si découper par Mots : ceci = nombre de mots par fragment.
- Si découper par Phrases : ceci = nombre de phrases par fragment.
- Si découper par Pages : ceci = nombre de pages par fragment (généralement 1).
Chevauchement de la découpe Définit combien du fragment précédent est repris dans le suivant pour préserver le contexte.
- Exemple : Taille = 100 mots, Chevauchement = 20 → chaque nouveau fragment répète 20 mots du précédent.
Scénarios d'exemple
| Découper par | Taille | Chevauchement | Résultat |
|---|---|---|---|
| Mots | 100 | 0 | Fragments indépendants de 100 mots |
| Mots | 100 | 20 | Chaque fragment partage 20 mots avec le suivant |
| Phrases | 5 | 1 | Chaque fragment contient 5 phrases, la dernière se recoupe |
| Pages | 1 | 0 | Une page complète par fragment, sans chevauchement |
Comment le tester
Étape 1 – Téléversez un document de test simple
Utilisez un petit texte manuel comme :
Ceci est la phrase un.
Ceci est la phrase deux.
Ceci est la phrase trois.
Étape 2 – Configurez les options de découpage
Testez plusieurs configurations :
- Mots (Longueur de découpage = 3, Chevauchement = 1) – Attendez-vous à des fenêtres glissantes de 3 mots.
- Phrases (Longueur de découpage = 1) – Chaque phrase devient un fragment séparé.
- Pages – Téléversez un PDF multi-pages et choisissez découper par Pages.
Étape 3 – Vérifiez les fragments indexés
[Tâche Recherche] Posez une question et vérifiez :
les extraits en haut :
- Récupère-t-il le fragment attendu ?
- Chaque fragment contient-il une phrase ?
ou :
bouton d'information sur le message de l'assistant : vérifiez l'invite, puis contrôlez la partie #Documents de l'invite.
Expansion de requête
L'expansion de requête est utilisée pour reformuler les requêtes des utilisateurs afin qu'elles incluent le contexte nécessaire pour récupérer les documents corrects. Cela est particulièrement important lorsque les utilisateurs posent des questions de suivi ou lorsque les requêtes impliquent des références temporelles.
Exemple
Lorsque un utilisateur pose une question de suivi, le système étend la requête pour inclure le contexte de la question précédente.
- Première requête utilisateur : Quand la société QA a-t-elle été fondée ?
- Requête utilisateur de suivi : Qui est le PDG ?
- Requête étendue : Qui est le PDG de la société QA ?
Cela garantit que le système comprend correctement l'entité à laquelle il est fait référence et récupère les informations pertinentes.
En appliquant ces règles, l'expansion de requête permet au système d'interpréter l'intention de l'utilisateur plus précisément et de fournir des résultats plus pertinents.
Invite d'expansion de requête
Dans la plupart des cas, l'invite par défaut que nous fournissons sera suffisante pour gérer vos cas d'utilisation.
Cependant, il peut y avoir des situations où vous souhaitez l'ajuster pour une meilleure précision.
Par exemple, imaginez un utilisateur demandant :
- “Qu'est-ce que Simone Biles a fait récemment ?”
Si votre corpus contient des documents sur les activités de Simone Biles s'étalant sur plusieurs années, le récupérateur peut avoir du mal à identifier les documents les plus pertinents à partir d'une requête aussi vague.
Une façon pratique de résoudre ce problème est d'adapter l'invite d'expansion de requête afin qu'elle inclue explicitement la référence temporelle (par exemple, la date actuelle ou une période spécifique).
" Donne-moi les dernières nouvelles de [période] [date/plage de dates]. "
Par exemple :
Lorsqu’un utilisateur demande les dernières nouvelles sur un sujet spécifique, étendez la requête pour inclure la date actuelle.
Par exemple :
" Donne-moi les dernières nouvelles d’aujourd’hui " → " Donne-moi les dernières nouvelles d’aujourd’hui 25 juin mercredi 2025 "
" Dernières nouvelles sur le secteur de l’IA " → " Dernières nouvelles sur le secteur de l’IA 25 juin 2025 "
" Actualités les plus récentes sur le changement climatique " → " Actualités les plus récentes sur le changement climatique 25 juin 2025 "
Lorsque l’utilisateur demande les nouvelles en référence à une période (ex. : " Donne-moi les nouvelles d’hier ", " nouvelles de la semaine dernière ", " nouvelles du mois dernier ", " nouvelles de l’année dernière "), étendez la requête pour inclure explicitement la date ou la plage de dates, en utilisant le format suivant :
" Donne-moi les dernières nouvelles de cette semaine " → " Donne-moi les dernières nouvelles de la semaine 25 juin 24 juin 23 juin 22 juin 21 juin 2025 "
" Donne-moi les dernières nouvelles de cette année " → " Donne-moi les dernières nouvelles de l’année 2025 "
" Donne-moi les dernières nouvelles de ce mois-ci " → " Donne-moi les dernières nouvelles du mois de juin 2025 "
" Qui était le maire de New York durant la première partie de l’année 2024 " → " Qui était le maire de New York durant la première partie de l’année 2024 janvier février mars avril mai juin "
" Qui était le maire de New York durant la seconde partie de l’année 2024 " → " Qui était le maire de New York durant la seconde partie de l’année 2024 juillet août septembre octobre novembre décembre "
Pour les requêtes factuelles sensibles au temps (ex. : " Qui est l’actuel Premier ministre de l’Inde "), ajoutez la date actuelle à la requête :
" Qui est l’actuel Premier ministre de l’Inde 25 juin 2025 "
Pour les requêtes qui ne dépendent pas du temps ou qui ne font pas référence à une période spécifique (ex. : " Qui est LeBron James "), ne modifiez pas la requête.
QUESTION ENTRANTE :
{{question}}
Date actuelle :
{{date}}
Répond UNIQUEMENT avec la REQUÊTE remplacée.
QUESTION REMPLACÉE :
Prise en charge par un humain
- Lorsque cette option est activée, un utilisateur de l’assistant IA peut demander à un humain de reprendre la conversation. Cette fonctionnalité ne fonctionne que si l’assistant IA est partagé avec d’autres utilisateurs.
- Un e-mail est envoyé au propriétaire de l’assistant IA pour l’informer de la demande.
- Le propriétaire peut alors accéder à la conversation et reprendre la main si nécessaire.
- Activer l’option
- Lien e-mail
- Exemple de reprise de chat
Pour partager un assistant IA, référez-vous à la section Droits d’accès.
Filtres avancés
Vous pouvez choisir de filtrer les documents utilisés pour répondre à votre question en cliquant sur Filtres avancés.
Métadonnées du chat
Le Chat à facettes (Faceted Chat) vous permet d’affiner les résultats de l’assistant IA à l’aide de filtres. Certains filtres sont toujours disponibles par défaut, tandis que d’autres proviennent des métadonnées que vous avez ajoutées à vos sources de données. Cela permet de cibler les sources les plus pertinentes et de trouver plus rapidement des réponses précises.
Présentation de l’interface
Pour accéder au Chat à facettes :
Allez dans Tâches IA → Chat.
- Dans le panneau de droite, cliquez sur Paramètres du chat → Filtres avancés.
- Activez les filtres que vous souhaitez rendre disponibles pour les utilisateurs.
Types de filtres disponibles :
- Filtres par défaut (toujours inclus) :
- Nom de la source de données
- Type de source de données
- Nom du fichier
- Format du fichier
- Date de téléversement
Filtres spécifiques à l’assistant IA (issus de vos métadonnées) :
- Exemple : Date
- Exemple : Année
- Tout autre champ de métadonnées défini pour vos sources de données
Comment ça marche
Lorsqu’un utilisateur pose une question, il peut affiner les résultats à l’aide des filtres.
Les filtres par défaut sont toujours disponibles et concernent des informations techniques (ex. : nom de la source, format de fichier).
Les filtres spécifiques au chat proviennent des métadonnées ajoutées (ex. : projet, type de document, année).
Lorsque des filtres sont appliqués, seules les sources de données correspondantes sont prises en compte dans la réponse. Ces résultats filtrés sont ensuite utilisés par le LLM pour générer la réponse.
Exemple avec des métadonnées
Supposons que vous disposiez de trois documents avec les métadonnées suivantes :
Document 1- Personnage → Homer Simpson
- Rôle → Père
- Année d’introduction → 1989
- Personnage → Marge Simpson
- Rôle → Mère
- Année d’introduction → 1989
- Personnage → Lisa Simpson
- Rôle → Fille
- Année d’introduction → 1992
Question de l’utilisateur dans le chat :
"Quels membres de la famille Simpson ont été introduits ?"
Filtre appliqué :
Année d’introduction = 1989
Réponse de l’assistant :
Les membres introduits en 1989 sont Homer Simpson et Marge Simpson.
Homer Simpson et Marge Simpson.
Les utilisateurs peuvent combiner plusieurs filtres (par exemple, Type de source de données + Personnage + Année d’introduction) pour un contrôle très précis des résultats du chat.
Si aucun document ne correspond aux filtres sélectionnés, l’assistant ne renverra aucune réponse. Assurez-vous que vos métadonnées sont cohérentes entre les fichiers.
Filtrage automatique des dates
Le filtrage automatique des dates permet à l’assistant IA de détecter les dates dans la question d’un utilisateur et de les appliquer automatiquement comme filtres.
Présentation de l’interface utilisateur
Pour utiliser le filtrage automatique des dates :
- Allez dans Tâches IA et sélectionnez Recherche.
- Posez une question contenant une date, un mois ou une année spécifique.
- Le système appliquera automatiquement la date détectée dans le panneau des Filtres avancés.
Comment ça marche
Lorsqu’une question contient une référence à une date, l’assistant l’interprète et applique le filtre de date correspondant.
Exemple :
- Question : Quels sont tous les épisodes des Simpson diffusés en 2025 ?
- Filtre automatique appliqué : Année = 2025
- Réponse :
The Past and the Furious — 12 février 2025
The Flandshees of Innersimpson — 30 mars 2025
The Last Man Expanding — 6 avril 2025
P.S. I Hate You — 13 avril 2025
Yellow Planet — 22 avril 2025
Abe League of Their Moe — 27 avril 2025
Stew Lies — 4 mai 2025
Full Heart, Empty Pool — 11 mai 2025
Estranger Things — 18 mai 2025
Le filtrage automatique des dates peut être combiné avec d’autres filtres (par exemple, Format de fichier ou Type de source de données) pour des résultats plus précis.
Actualisation des sources de données et dernière mise à jour
Cette fonctionnalité vous permet de maintenir vos sources de données à jour automatiquement. Vous pouvez programmer des actualisations et afficher la date de la dernière mise à jour directement dans les réponses de l’assistant.
Présentation de l’interface utilisateur
Pour activer l'actualisation des sources de données :
- Allez dans Ajouter une source de données et connectez votre source.
- Dans le menu Mettre à jour les sites (Update Websites), choisissez la fréquence d'actualisation : Maintenant, Quotidien, Hebdomadaire, Mensuel ou Jamais.
- Dans Paramètres du Chat, activez Afficher la date de dernière mise à jour dans les sources.
Fonctionnement
- Les sources de données sont actualisées selon la fréquence sélectionnée.
- Lorsque « Afficher la date de dernière mise à jour dans les sources » est activé, l'assistant ajoute la date de coupure à ses réponses.
- Si les données sont actualisées ultérieurement, les réponses peuvent évoluer pour refléter le contenu mis à jour.
Exemple
-
Source de données : Simpsons Wiki — Liste des épisodes
-
Fréquence d'actualisation : Hebdomadaire
-
Question : Quels épisodes sont diffusés la première semaine d'octobre 2025 ?
-
Réponse (avant actualisation):
Keep Chalm and Gary On — 5 October 2025
(Data until 03 Oct 2025)
RAG Mode
Si vous avez fourni un document dont le contenu dépasse la fenêtre de contexte lors d'une conversation, le chatbot utilisera le mode RAG (Retrieval-Augmented Generation) pour mieux comprendre et répondre à votre question.
- Mode RAG
- Texte modal
Pourquoi le mode RAG ?
Votre chatbot utilise actuellement le mode RAG (Retrieval-Augmented Generation) car vos données ne tiennent pas entièrement dans la fenêtre de contexte du LLM.
Qu'est-ce que cela signifie ?
Le LLM ne peut voir qu'une partie de vos données à la fois. En mode RAG, le système récupère les extraits d'information les plus pertinents pour répondre à vos questions, mais le LLM n'a pas visibilité sur l'ensemble des données simultanément.
Comment y remédier :
- Changez de LLM pour un modèle avec une fenêtre de contexte plus grande
- Réduisez la taille de votre jeu de données en supprimant les documents non nécessaires
Le mode RAG n'est pas une limitation — c'est une technique puissante utilisée par la plupart des systèmes IA en production. Cependant, passer à un LLM avec une plus grande fenêtre de contexte peut améliorer les réponses pour les questions nécessitant un contexte plus large.