TL;DR
LightOn vous permet d’optimiser l'onboarding des nouveaux employés au sein de vos équipes. En intégrant Paradigm, notre plateforme de recherche augmentée, vous pouvez indexer et structurer vos documents internes pour des recherches rapides et efficaces. Cela réduit le temps nécessaire pour trouver les informations essentielles, tout en garantissant la sécurité et la personnalisation des flux de travail.
Souvenez-vous de votre premier jour dans votre entreprise. Quelle que soit sa taille ou son secteur, un même schéma se répète : il est difficile de trouver rapidement les bonnes ressources pour accomplir vos tâches, et vous craignez de déranger vos collègues. Ce manque d'accès aux informations freine la productivité et gaspille des ressources. Cela a suscité un intérêt croissant pour les outils d'IA générative comme ChatGPT.
Cependant, ces outils ont des limites, notamment en matière de confidentialité et de sécurité des données, ainsi que dans leur capacité à effectuer des recherches internes efficaces. Chez LightOn, nous résolvons ces problèmes avec la recherche augmentée via des GPT privés et sécurisés, permettant aux organisations de créer de la valeur basée sur l'IA sans compromettre la sécurité.
L'intégration de solutions GenAI dans des projets de recherche augmentée (Retrieval Augmented Generation - RAG) voire d’agents intelligents peut sembler complexe, avec des déploiements fastidieux et une industrialisation difficile. C'est pourquoi LightOn, avec Paradigm, propose une solution clé en main qui facilite l'accès sécurisé aux informations internes via des modèles de langage (LLMs), tout en assurant le contrôle des données sensibles.
Cet article est inspiré par un cas d’usage réalisé pour la Région Ile-de-France (voir cet article et la success story sur le site LightOn), dans lequel les temps nécessaires pour trouver la bonne information ont été réduits par plus de 85%, selon les agents de la région.
Hands-On : de l’intégration d’un document à son utilisation par toute une organisation
Nous allons parcourir Paradigm pas à pas pour comprendre comment, en pratique, il peut vous permettre de faciliter l’onboarding de vos nouveaux employés. La version de Paradigm utilisée ici contient la nouvelle logique basée sur les Agents (en beta à partir d’Illuminated Impala). Cette démo se base sur le LightOn Book, la documentation interne à LightOn contenant la description de nos processus internes, et sur d’autres documents similaires.
Etape 1 : import et indexation efficaces des documents
Le début du travail doit être réalisé par le manager de l’équipe accueillant le nouvel arrivant : l'import de notre documentation interne dans la base de données de Paradigm. Les documents importés sont lus par Paradigm. Il capture les propriétés sémantiques et syntaxiques des données, les stocke dans une base de données vectorielles (Vector DB) permettant ainsi au LLM de mieux comprendre et interagir avec elles. Ce processus a été optimisé par LightOn pour pouvoir se faire de bout en bout en moins de 2 secondes.
Cette étape garantit que les informations sont stockées dans un format structuré et accessible, ce qui permet au LLM d'effectuer des recherches dans de grandes quantités de données en temps réel. En divisant les documents volumineux en morceaux plus petits et plus faciles à gérer, notre système permet une recherche plus rapide et des réponses plus précises.
Les imports des documents se font de façon intuitive, et sécurisée. Via la plateforme Paradigm, il est possible d’indiquer dans quel espace un document sera uploadé :
- Un espace personnel, auquel seul celui qui ajoute le document aura accès.
- Un espace d’entreprise, accessible à tous ses membres.
- Un espace intermédiaire, créé par un admin, auquel ont été rattachés des utilisateurs.
Pour l’instant, on choisira l’une des deux dernières options, pour donner accès au nouvel employé aux documents qui le concernent. Il pourra par la suite importer ses propres documents et les interroger.
Ces workspaces permettent une granularité dans la sécurité accordée aux différents documents, et une collaboration renforcée.
Pro tip : si le nombre de documents à importer est trop grand pour le faire manuellement, l’API Paradigm permet de les uploader par lot (batch), en quelques lignes de code Python seulement.
Une fois les documents uploadés, le nouvel utilisateur pourra voir la liste des documents auxquels il a accès :
Un point important à avoir en tête est la nécessité de maintenir à jour cette base, en modifiant les documents qui doivent l’être, et en supprimant ceux qui ne sont plus à jour : comme on le sait, en data science, garbage in, garbage out.
Résumons : cette étape permet à notre nouvel arrivant de visualiser les documents, et de commencer à poser des questions pour y retrouver les informations importantes. Allons-y !
Etape 2 : Pipeline intelligent de recherche dans les documents (RAG)
Maintenant que la base documentaire est à jour, on peut commencer à l’interroger.
L'une des forces de Paradigm réside dans sa capacité à construire intelligemment un pipeline de recherche et de génération améliorée (RAG). Cela permet au système d'extraire des informations pertinentes à partir des documents en réponse aux demandes des utilisateurs.
Pro tip : En cas d’hésitation, il est possible de comparer plusieurs modèles pour déterminer lequel convient le mieux à une tâche donnée.
Une fois la question de l’utilisateur posée, la recherche RAG se fait en plusieurs étapes :
- La question de l’utilisateur est reformulée, pour prendre en compte le contexte de la conversation, et être optimisée pour retrouver les documents les plus appropriés. Paradigm utilise pour cela un modèle fine-tuné spécialement pour cette tâche par LightOn.
- Une fois la question reformulée, Paradigm recherche, à la fois par proximité sémantique (rapprochement des embeddings) et par une recherche exacte (présence des mots clés de la requête dans les chunks), les 5 passages les plus pertinents des documents pour répondre à la requête.
- Ces passages sont ensuite filtrés à nouveau pour s’assurer de leur pertinence pour répondre à la question. À nouveau, cela utilise un modèle fine-tuné spécialement pour cette tâche, à partir de nombreux exemples de documents en français, ce qui garantit le meilleur niveau de performance sur le marché en langue française.
- Si aucun document ne passe l’étape de filtrage, Paradigm répond à la requête de l’utilisateur en mode Chat simple (sans document).
Si des documents sont sélectionnés, Paradigm répond, avec l’aide des documents. La réponse ainsi que les passages des documents ayant permis de répondre sont affichés à l’utilisateur.
Pour chaque question posée, Paradigm répond en affichant les documents ayant permis de répondre. Au sein de chaque document, les passages utilisés sont signalés à l’aide d’un surlignage.
Mettons que l’utilisateur souhaite demander comment poser ses premiers congés chez LightOnet pose sa question. Voici ce que Paradigm rend :
Cette réponse est accompagnée des documents ayant servi à générer la réponse. L’utilisateur peut visualiser, avec les chunks (passages) ayant permis à générer la réponse surlignés dans le corps du document.
Cela apporte aux utilisateurs de Paradigm de la confiance dans la réponse, puisqu’elle est justifiée par les documents de l’entreprise. Et cela fait gagner un temps précieux à notre nouvel arrivant qui peut être opérationnel plus rapidement.
Enfin, après avoir reçu la réponse du modèle, il peut :
- Donner un feedback, positif ou négatif, sur la réponse du modèle, en cliquant sur un pouce en haut ou en bas. C’est un aspect déterminant, permettant aux équipes admin de comprendre, par des démarches de Business Intelligence, ce qui est bien ou mal compris dans les documents.
- Remonter au support la réponse en question (icone drapeau ci-dessous), pour alerter sur un dysfonctionnement du modèle. L’équipe admin est alors avertie que le use case ne fonctionne pas comme le souhaiterait l’utilisateur, qui peut ajouter un commentaire décrivant son problème.
Etape 3 – bonus : personnalisation du chatbot par des instructions individuelles et collectives
Chaque utilisateur peut écrire des instructions qui lui sont propres. Cela permet à notre nouvel arrivant d’orienter les réponses du modèle selon ses préférences individuelles. Par ailleurs, au sein de chaque entreprise, un admin peut écrire des instructions qui seront propres à cette entreprise.
Ces deux niveaux de personnalisation permettent d’orienter les réponses du modèle vers le comportement attendu de l’utilisateur. C’est en particulier utile pour :
- donner des éléments de contexte sur celui qui pose la question,
- orienter la longueur des réponses,
- définir la terminologie interne à son entreprise, ou ses pratiques commerciales.
Etape 4 : Nouvelles possibilités agentiques
Paradigm offre aujourd’hui la recherche documentaire et la recherche sur Internet.
Dans les mois à venir, Paradigm s’étoffera de plus d’outils, tels la possibilité de résumer du texte, et de faire de l’analyse de données numériques par l’exécution de code Python. La recherche documentaire ne deviendra qu’un outil parmi d’autres.
L’objectif de ces nouveaux outils est de pouvoir créer des agents autonomes, capables de sélectionner les outils pertinents pour une demande, et de donner plus de latitude aux différents métiers pour s’intégrer avec leurs outils, et obtenir rapidement de la valeur par les LLM.
Ces outils pourront ensuite s’articuler en agents via un modèle d’orchestration capable de choisir le bon outil au bon moment pour répondre à la tâche confiée. Prenons à nouveau l’exemple du nouvel employé arrivant chez LightOn. Il expliquera son besoin via un pré-prompt dédié à son cas d’usage, ajoutera les documents appropriés dans la base de connaissance de Paradigm, et aura de nouveaux outils à sa disposition. Cela ouvre de nouvelles perspectives :
- Demander de résumer un long document RH que l’arrivant n’aura pas le temps de lire.
- Voire, résumer les avancées de l’équipe durant l’année précédant son arrivée.
- Développer rapidement des tâches de BI, même s’il n’a pas la maîtrise des outils de l’entreprise.
En introduisant des agents, LightOn fournit aux organisations une solution puissante pour automatiser et personnaliser une grande variété de tâches, tout en s'assurant que les flux de travail restent sécurisés.
Pour en savoir plus, voir une démo ou explorer notre solution d’IA générative dans votre environnement, contactez-nous.