Web Analytics Made Easy - Statcounter

Recherche & développement

Notre vision

Faire Progresser l'IA Générative par l'Innovation

L'équipe de R&D de LightOn joue un rôle essentiel dans l'avancement du domaine de l'IA générative grâce à une innovation et un développement continus. Leur expertise couvre la création et le perfectionnement de grands modèles de langage (LLM) qui constituent la base de la plateforme Paradigm, une solution d'IA complète conçue pour une utilisation en entreprise. Cette plateforme simplifie l'intégration de l'IA générative dans les flux de travail des entreprises, offrant des options sur site et dans le cloud pour garantir flexibilité et évolutivité en fonction des besoins de chaque entreprise​.

Pionnier de l'IA avec Alfred-40B-0723

L'un des principaux accomplissements de l'équipe de R&D de LightOn est le développement d'Alfred-40B-0723, un LLM open-source basé sur Falcon-40B. Ce modèle est affiné grâce à l'apprentissage par renforcement à partir de retours humains, améliorant ainsi sa capacité à exécuter des tâches complexes telles que la synthèse de contenu, la réponse aux questions et l'ingénierie de prompts. Les efforts continus de l'équipe garantissent qu'Alfred reste à la pointe de la technologie de l'IA, offrant un support robuste à la plateforme Paradigm et permettant aux entreprises de déployer des solutions d'IA sécurisées, évolutives et adaptées à leurs besoins spécifiques.

Publications récentes

Lire l'article

PyLate: Flexible Training and Retrieval for ColBERT Models

We release PyLate, a new user-friendly library for training and experimenting with ColBERT models, a family of models that exhibit strong retrieval capabilities on out-of-domain data.

August 29, 2024
R&D

CTA Title

Lorem Ipsum

Lire l'article

ArabicWeb24: Creating a high quality Arabic Web-only pre-training dataset

August 7, 2024
R&D

CTA Title

Lorem Ipsum

Lire l'article

Training Mamba Models on AMD MI250/MI250X GPUs with Custom Kernels

In this blogpost we show how we can train a Mamba model interchangeably on both NVIDIA and AMD and we compare both training performance and convergence in both cases. This shows that our training stack is becoming more GPU-agnostic.

July 19, 2024
R&D

CTA Title

Lorem Ipsum

Lire l'article

Comment transformer les LLMs en Agents Intelligents ?

Développement des Capacités Agentielles pour les LLMs afin d'automatiser les flux de travail et créer des assistants intelligents

June 25, 2024
R&D

CTA Title

Lorem Ipsum

Lire l'article

Passing the Torch: Training a Mamba Model for Smooth Handover

We present our explorations on training language models based on the new Mamba architecture, which deviates from the traditional Transformer architecture.

April 10, 2024
R&D

CTA Title

Lorem Ipsum

Lire l'article

LightOn AI Meetup Creating a Large Dataset for Pretraining LLMs

March 22, 2024
R&D

CTA Title

Lorem Ipsum

Lire l'article

Présentation d'Alfred-40B-1023:

Pionnier de l'avenir des LLM open-source de LightOn

November 17, 2023
R&D

CTA Title

Lorem Ipsum

Lire l'article

Introducing Alfred-40B-0723

The Open-Source Generative AI Copilot by LightOn

July 31, 2023
R&D

CTA Title

Lorem Ipsum

Lire l'article

LightOn's Large Language Model of 40 billion parameters: MINI

LightOn, a prominent provider of advanced AI solutions, has announced the launch of Mini, its latest model in the field of large language models.

March 21, 2023
R&D

CTA Title

Lorem Ipsum