Blog
LightOn annonce le vif succès de son introduction en Bourse en vue de l’admission de ses actions sur le marché Euronext Growth Paris
LightOn teams up with Channel Tools
This partnership will offer access to LightOn product portfolio through the expansive network of Channel Tools, and will be available via TD Synnex.
CTA Title
Lorem Ipsum
Comment les agents intègrent la plateforme Paradigm pour automatiser des tâches complexes
Avec l'essor de l'IA générative, l'automatisation des tâches complexes et répétitives devient de plus en plus accessible. Chez LightOn, nos équipes travaillent sur l'intégration d'agents intelligents afin de répondre à cet objectif. Dans cet article, nous vous présentons nos avancées dans ce domaine.
CTA Title
Lorem Ipsum
Chat with Document : Comment cette Technologie Révolutionne la Productivité en Entreprise
Le 'chat with document' révolutionne la productivité en entreprise en offrant des réponses instantanées basées sur des documents internes. Découvrez comment Paradigm peut vous aider à l'implémenter efficacement.
CTA Title
Lorem Ipsum
RAG (Retrieval-Augmented Generation) : Transformer la Récupération d'Information et l'Interaction avec l'IA
Le RAG (Retrieval-Augmented Generation) transforme nos interactions avec l'IA en combinant recherche et génération pour proposer des réponses plus précises et adaptées au contexte. Découvrez comment le RAG peut transformer votre entreprise.
CTA Title
Lorem Ipsum
LightOn Pulse #2 : Découvrez les Nouvelles Mises à Jour de la Plateforme Paradigm
Version Glorious-Giraffe 20240828 Date de Sortie : 28 août 2024
CTA Title
Lorem Ipsum
PyLate: Flexible Training and Retrieval for ColBERT Models
We release PyLate, a new user-friendly library for training and experimenting with ColBERT models, a family of models that exhibit strong retrieval capabilities on out-of-domain data.
CTA Title
Lorem Ipsum
CTA Title
Lorem Ipsum
Training Mamba Models on AMD MI250/MI250X GPUs with Custom Kernels
In this blogpost we show how we can train a Mamba model interchangeably on both NVIDIA and AMD and we compare both training performance and convergence in both cases. This shows that our training stack is becoming more GPU-agnostic.
CTA Title
Lorem Ipsum