Livres blancs Webinars

Le marché de l’IA générative est encore très récent. Par conséquent, le nombre d’acteurs reste encore assez limité à ce jour. Néanmoins, deux principales catégories se distinguent. Les GAFAMs d’un côté, et les start-ups de l’autre. Pourquoi aussi peu d’acteurs matures dans ce domaine ? Parce que le nerf de la guerre en intelligence artificielle repose sur l’accès à la donnée...

Lire aussi

iA générative : 4 étapes pour la déployer dans votre entreprise

Lire la suite

C’est un point clé de l’IA générative : pour développer et entraîner des modèles de type LLMs (Large language model), le plus important reste le volume et la qualité des données que l’on a à disposition. Or, même des géants comme Apple et Amazon sont confrontés à un relatif manque de données, ne pilotant pas directement un écosystème ouvert en ligne d’envergure mondiale comme Microsoft, Meta ou encore Google. C’est pourquoi un petit nombre d’entreprises se partagent le potentiel du marché à l’heure actuelle.

Il est impossible de pouvoir s’intéresser à tous les acteurs de manière exhaustive. Nous avons donc sélectionné les solutions suivantes qui figurent parmi les plus avancées sur les LLMs et en IA générative.

Pour développer et entraîner des modèles de type LLMs, le plus important reste le volume et la qualité des données que l’on a à disposition.

Les startups et l’IA générative

Certes, les startups ne sont pas les mieux pourvues en données. Toujours en phase d’investigation, leur forte capacité d’innovation et leur agilité native leur permettent d’avancer rapidement sur le sujet. Nous avons donc choisi, dans cet article, de nous focaliser sur quatre startups « prometteuses » :

  • Mistral AI
  • LightOn
  • Aleph Alpha
  • Hugging Face

LIVRE BLANC

IA générative : visa pour un futur numérique plus interactif

Lire la suite

Mistral AI

Cofondée par Arthur Mensch (PDG) et Guillaume Lample (Chief Scientist et ex-Research Scientist chez Facebook sous la direction de Yann Le Cun), Mistral AI est une entreprise française. Son ambition : créer et partager des modèles d’IA de pointe capables de générer un langage naturel de haute qualité à partir de n’importe quelle entrée (texte, images, audio, etc.). En juillet 2023, il est néanmoins à noter que Mistral AI n’a pas encore proposé de solution concrète.

LightOn

Cette autre société française a été cofondée par Laurent Daudet, Igor Carron, Florent Krzakala et Sylvain Gigan. LightOn fournit des modèles de base pour le travail et la créativité augmentés en exploitant le matériel à l’échelle de l’exa et les insights de l’apprentissage profond et des transformers. Leur produit phare, Paradigm, est une solution robuste et fiable pour les organisations qui utilisent des modèles de langage hébergés pour les tâches de traitement du langage naturel (NLP). Ils offrent les avantages des modèles privés, tels que le contrôle des données et la possibilité d’adapter le modèle à des besoins spécifiques. Un des nombreux intérêts de leur solution est d’ouvrir la porte à du transfer learning vers des corpus de données privées et souverains.

LightOn vient d’établir un partenariat avec Aleia, autre startup française, autour d’une offre industrielle, sécurisée et européenne de grands modèles de langages. Disponible à la rentrée 2023, cette offre entend révolutionner l’intelligence artificielle industrielle, en intégrant les grands modèles de langages avec les processus d’IA établis.

Aleph Alpha

En Europe, l’Allemagne travaille elle aussi sur l’IA générative, à travers notamment la startup allemande Aleph Alpha codirigée par Jonas Andrulis et Samuel Weinbach. Avec leur solution Luminous, Aleph Alpha a atteint le premier jalon sur la voie d’une IA performante en termes de contenu, explicable et digne de confiance. Parmi leurs nouvelles fonctionnalités, AtMan et Explain sont les premiers outils de leur genre sur le marché européen pour renforcer la confiance dans l’IA générative et ainsi créer une meilleure compréhension de la façon dont fonctionnent les grands modèles de langage. À noter, qu’en 2023, Aleph Alpha est principalement axé sur le marché allemand et travaille en France en partenariat avec HPE.

Hugging Face

Hugging Face a la particularité d’être une entreprise américaine (son siège est aux États-Unis) mais créée par des Français : Clément Delangue, Julien Chaumond et Thomas Wolf. C’est une communauté et une plateforme de science des données qui fournissent des outils permettant aux utilisateurs de construire, d’entraîner et de déployer des modèles ML basés sur du code et des technologies open source. Ils sont les créateurs de Transformers, une bibliothèque open source permettant la construction de modèles d’IA générative. Il est à noter que certains modèles provenant d’Hugging Face ont d’ores et déjà été intégrés à Microsoft Azure.

Les GAFAMs à la pointe de l’IA générative

Impossible de parler d’IA générative sans mentionner les hyperscalers, à commencer par OpenAI et Microsoft (GPT4), Meta (LLaMA2) ou Google (PaLM 2).

OpenAI et Microsoft

En investissant dix milliards de dollars dans la startup américaine, Microsoft a fait d’OpenAI le leader de l’IA générative. Si ChatGPT est désormais intégrée au moteur de recherche Bing mais également dans Azure, Microsoft a néanmoins ajouté ses propres couches de sécurité supplémentaires par rapport à la solution grand public.

Replay

GPT, l’IA de nouvelle génération au service des entreprises avec Azure OpenAI

Lire la suite

En effet, l’utilisation de ChatGPT suppose implicitement d’accepter que l’information partagée dans le prompt soit reprise et réutilisée ultérieurement dans le cadre d’autres réponses. En ce sens, ChatGPT peut même tout à fait réutiliser des données potentiellement personnelles ou sensibles qui lui ont été partagées pour déduire de futures réponses, allant alors à l’encontre du RGPD.

C’est là où Azure OpenAI fait une grosse différence en intégrant la sécurité de l’information et en apportant la garantie que les informations renseignées ne seront utilisées que par les utilisateurs de l’entreprise. Microsoft garantit ainsi la confidentialité dans le cadre de l’utilisation d’Azure (il s’agit des garanties Azure standard) dans son propre contexte d’entreprise !

💡 Bing, le moteur de recherche de Microsoft, a enregistré une augmentation de 15 % de son trafic après l’intégration de GPT, tandis que l’app mobile Bing a été téléchargée 750 000 fois, avec un pic de 150 000 installations quotidiennes durant la première semaine d’intégration en mai 2023.
Source : Be Geek, juin 2023.

Google Bard AI

Considéré comme le principal concurrent de Microsoft, Google a longtemps occupé la première place des géants du web grâce à la puissance de son moteur de recherche. Mais aujourd’hui, son business model pourrait bien être complètement disrupté par Microsoft.

En réponse à ChatGPT, Google a donc lancé début 2023, Bard, son propre outil d’intelligence générative. Dans un premier temps uniquement disponible aux États-Unis et dans quelques pays, Google Bard est depuis le 13 juillet 2023 accessible en Europe et au Brésil. S’il est possible de tester la solution en Français, la version européenne reste encore expérimentale et n’intègre pas encore toutes les fonctionnalités. Par conséquent, il n’est pas possible de la comparer aux autres solutions du marché. Un des points forts de la solution semble néanmoins reposer sur le fait qu’elle est en permanence connectée au web, soit une vraie différence avec sa principale concurrente, ChatGPT.

Meta

En février 2023, Meta s’est à son tour lancé dans la course à l’IA générative en rendant accessible à la communauté des chercheurs, LLaMA (Large Language Model Meta AI), son propre modèle de langage. Plus récemment LLaMA2 a été diffusé en mode Open Source et utilisable à des fins commerciale.

Basé sur des modèles plus petits mais performants, LLaMA2 pourrait bien rebattre les cartes des LLMs car nombre d’entreprises pourraient être ainsi tentées d’entrainer le modèle avec leur propres corpus de textes de référence. L’avantage étant de mieux maitriser les sources et donner ainsi plus de transparence et de contrôle, notamment pour les applications de chatbots. On risque ainsi de voir fleurir bon nombre de variantes (ou forks) de LLaMA2 dans le mois à venir.

Quelles limites actuelles pour l’IA générative en entreprise ?

Si l’IA générative est aujourd’hui principalement guidée par les très grandes entreprises leaders du web, le principal défi pour les entreprises reste de pouvoir travailler avec des solutions capables de garantir la confidentialité de leurs données et une maîtrise de bout en bout de la chaîne d’information, impliquant la souveraineté de l’éditeur. Or la plupart des solutions aujourd’hui disponibles sur le marché sont soumises au Cloud Act ou affichent une certaine opacité dans leur gestion des données partagées, quand ce n’est pas dans leurs données d’entraînement.

Pour rappel, ce n’est pas seulement la quantité de texte qui fait la connaissance ! Quand on s’intéresse aux données, il faut en effet aussi penser en termes de qualité des données. Un point clé s’appuie notamment sur la complétude. Le corpus d’entraînement doit présenter de multiples dimensions indépendantes pour pouvoir disposer d’une information, voire d’une connaissance, la plus diversifiée possible.

Or on ne crée pas forcément suffisamment de connaissances réellement nouvelles sur le web aujourd’hui, en qualité comme en quantité, pour pouvoir se permettre d’augmenter à l’infini la quantité de paramètres du modèle et ainsi améliorer ses capacités (voire la règle de Vapnik dans un article précédent). Résultat, les entreprises risquent d’être rapidement confrontées aux limites de l’IA générative dans les années à venir, peu importe les capacités de calcul des solutions sur le marché.

Lire aussi

Développement de l’IA générative : quel impact sur les entreprises ?

Lire la suite

Entre les solutions open source de Meta et Hugging Face, les startups qui travaillent sur des solutions très prometteuses, les avancées des GAFAMs et leur capacité à se challenger les unes les autres l’avenir des LLMs semble assuré. Ainsi, en avril 2023, AWS a répliqué et présenté Amazon Bedrock en réponse à Azure OpenAI. Avec un service annoncé comme très accessible financièrement grâce à l’utilisation de puces maison, AWS assure également la sécurité et la confidentialité des données utilisateur. En parallèle, Amazon a lancé un programme d’accélération de dix start-ups travaillant sur l’IA générative.

Même Apple, à son rythme, semble être entrée récemment dans la course à l’IA générative avec AppleGPT. Comme à l’acoutumée, Apple reste plus que discrète à ce sujet, car on comprend bien que face à un SIRI qui a pris un sacré coup de vieux, l’enjeu concurrentiel dans les années à venir sur le sujet de l’IA générative est de taille pour la pomme !

👉 Retrouvez toute notre actu en temps réel en nous suivant sur LinkedIn 👈

Business & Decision

Groupe international de consulting et d’intégration de systèmes (CIS), leader de la Business Intelligence (BI) et du CRM, acteur majeur de l’e-Business. Le Groupe contribue à la réussite des projets à forte valeur ajoutée des entreprises et accompagne ses clients dans des domaines d’innovation tels…

En savoir plus >

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Votre adresse de messagerie est uniquement utilisée par Business & Decision, responsable de traitement, aux fins de traitement de votre demande et d’envoi de toute communication de Business & Decision en relation avec votre demande uniquement. En savoir plus sur la gestion de vos données et vos droits.