Recherche & développement
Notre vision
Faire Progresser l'IA Générative par l'Innovation
L'équipe de R&D de LightOn joue un rôle essentiel dans l'avancement du domaine de l'IA générative grâce à une innovation et un développement continus. Leur expertise couvre la création et le perfectionnement de grands modèles de langage (LLM) qui constituent la base de la plateforme Paradigm, une solution d'IA complète conçue pour une utilisation en entreprise. Cette plateforme simplifie l'intégration de l'IA générative dans les flux de travail des entreprises, offrant des options sur site et dans le cloud pour garantir flexibilité et évolutivité en fonction des besoins de chaque entreprise.
Pionnier de l'IA avec Alfred-40B-0723
L'un des principaux accomplissements de l'équipe de R&D de LightOn est le développement d'Alfred-40B-0723, un LLM open-source basé sur Falcon-40B. Ce modèle est affiné grâce à l'apprentissage par renforcement à partir de retours humains, améliorant ainsi sa capacité à exécuter des tâches complexes telles que la synthèse de contenu, la réponse aux questions et l'ingénierie de prompts. Les efforts continus de l'équipe garantissent qu'Alfred reste à la pointe de la technologie de l'IA, offrant un support robuste à la plateforme Paradigm et permettant aux entreprises de déployer des solutions d'IA sécurisées, évolutives et adaptées à leurs besoins spécifiques.
Publications récentes
Finally, a Replacement for BERT
This blog post introduces ModernBERT, a family of state-of-the-art encoder-only models representing improvements over older generation encoders across the board.
CTA Title
Lorem Ipsum
MonoQwen-Vision, the first visual document reranker
We introduce MonoQwen2-VL-v0.1, the first visual document reranker to enhance the quality of the retrieved visual documents and take these pipelines to the next level. Reranking a small number of candidates with MonoQwen2-VL-v0.1 achieve top results on the ViDoRe leaderboard.
CTA Title
Lorem Ipsum
PyLate: Flexible Training and Retrieval for ColBERT Models
We release PyLate, a new user-friendly library for training and experimenting with ColBERT models, a family of models that exhibit strong retrieval capabilities on out-of-domain data.
CTA Title
Lorem Ipsum
CTA Title
Lorem Ipsum
Training Mamba Models on AMD MI250/MI250X GPUs with Custom Kernels
In this blogpost we show how we can train a Mamba model interchangeably on both NVIDIA and AMD and we compare both training performance and convergence in both cases. This shows that our training stack is becoming more GPU-agnostic.
CTA Title
Lorem Ipsum
Comment transformer les LLMs en Agents Intelligents ?
Développement des Capacités Agentiques pour les LLMs afin d'automatiser les flux de travail et créer des assistants intelligents
CTA Title
Lorem Ipsum
Passing the Torch: Training a Mamba Model for Smooth Handover
We present our explorations on training language models based on the new Mamba architecture, which deviates from the traditional Transformer architecture.
CTA Title
Lorem Ipsum
CTA Title
Lorem Ipsum