En janvier 2023, soit deux mois après son lancement, le site web de ChatGPT recevait en moyenne 13 millions de visiteurs uniques par jour, avec une croissance quotidienne du trafic de 3,4 %. En avril, le site accueillait un milliard de visiteurs chaque mois, dont près de 100 millions d’utilisateurs actifs. Pourquoi l’IA générative et les Large Language Models (LLMs) suscitent-ils un tel engouement ? Quel impact pour les entreprises ? L’IA générative est-elle une simple évolution ou une véritable révolution ? Décryptage.
Pour mieux appréhender la manière dont l’IA générative va transformer les usages en entreprise, il importe de bien comprendre de quoi il s’agit. En effet, le terme « IA générative » suggère que cette IA va générer des contenus. Or ce n’est que partiellement exact car son fonctionnement s’effectue dans les deux sens : certes les LLMs sont capables de générer du contenu mais aussi de « digérer » du contenu. Et ce 2e aspect est capital car il éclaire sur leur fonctionnement et sur les risques qu’ils induisent pour l’entreprise.
En parallèle, il est également nécessaire distinguer différents types d’IA générative. La plus connue, grâce à ChatGPT, reste l’IA générative textuelle qui va générer et analyser du texte. Sur le même modèle, d’autres IA génératives vont exercer dans le domaine visuel, musical ou audio. Nous allons nous concentrer dans cet article à la plus mature de ces IA génératives, à savoir l’IA textuelle, ou LLMs, dont l’impact sur le monde professionnel est le plus important et le plus impressionnant.
ChatGPT et d’autres grands modèles de langage ne sont pas sortis de nulle part. Ils sont le résultat de décennies de contributions de diverses personnes.
Yann Lecun
IA générative : évolution ou révolution ?
Contrairement à ce que l’on pourrait croire, l’IA générative n’est pas si récente. Elle a commencé à émerger avec l’avènement des réseaux de neurones profonds. Dès 2014, les réseaux antagonistes génératifs (GANs) étaient capables de générer des images ressemblant à des photographies réelles. L’IA générative est une évolution directe de dizaines d’années de recherche en intelligence artificielle. Comme le rappelle, Yann LeCun, la tête pensante de l’IA chez Meta, « ChatGPT et d’autres grands modèles de langage ne sont pas sortis de nulle part. Ils sont le résultat de décennies de contributions de diverses personnes. »
Mais l’élément déclencheur, c’est la mise à disposition auprès du grand public de ChatGPT par OpenAI en novembre 2022. Pourquoi ? Parce qu’elle a favorisé la prise de conscience des impacts engendrés par l’utilisation d’un tel outil.
D’une simple innovation technologique…
Résultat, d’un point de vue technologique, les LLMs sont plus une évolution qu’une révolution, si ce n’est qu’ils combinent jusqu’à quatre modes d’apprentissage dans la même intelligence artificielle :
- Le mode non supervisé, ou embedding, qui consiste à affecter à chaque mot un vecteur (une suite de nombres) qui va au mieux définir ce mot dans un espace mathématique qu’on appelle un espace vectoriel ;
- Le mode auto-supervisé qui permet, à partir d’une partie de phrase, de compléter cette phrase avec ce qui lui semble le plus logique d’un point de vue statistique ;
- Le mode supervisé (équivalent à la couche InstructGPT chez OpenAI) qui apprend au modèle à répondre aux questions ;
- Et le mode renforcé pour classer les réponses par ordre de préférence et évaluer la plus appropriée. Cette étape implique une intervention humaine.
- On peut mentionner égalementune couche de sécurité supplémentaire qui sert à identifier notamment les réponses et les questions interdites.
Deux autres évolutions techniques ont elles aussi leur importance. La première repose sur l’utilisation de la technologie des transformers, qui, comble de l’ironie, a été inventée en 2017 par… Google. Dans son article intitulé “Attention is all you need”, Google Research expliquait comment fabriquer un transformer pour entraîner des modèles de deep learning avec de l’apprentissage auto-supervisé. La 3e innovation est étroitement liée à la 2e : c’est la capacité à faire fonctionner des transformers sur une gigantesque infrastructure de calcul avec un gigantesque corpus d’entraînement, le cœur de cette infrastructure reposant sur des GPU (Graphical Processing Unit) de type H100 fabriqués par Nvidia.
… à une révolution des usages
Si les principales innovations de l’IA générative reposent sur le cumul de ces quatre modes d’apprentissage et sur les transformers, la vraie révolution se situe au niveau des usages. Les LLMs marquent le début d’une nouvelle ère de l’intelligence artificielle et du dialogue homme-machine, laissant présager une révolution aussi importante que l’internet. Désormais, chacun pourra interagir avec un ordinateur par le biais du langage naturel. En réponse, la machine sera à même d’interpréter et d’exécuter la demande de l’utilisateur.
L’IA générative est donc capable de créer de nouvelles données à partir d’un corpus de données d’entraînement, d’un prompt et d’un contexte. Par exemple, dans le domaine du texte, GPT-4 peut prodiguer des conseils, élaborer un plan, écrire des articles, des fiches produits et même du code.
Les LLMs sont capables de générer du contenu mais aussi de « digérer » du contenu. Ce 2e aspect est capital car il éclaire sur leur fonctionnement et sur les risques qu’ils induisent pour l’entreprise.
Une puissance de calcul inégalée
Alors si l’IA générative n’est techniquement pas si innovante, pourquoi un tel engouement ? Parce que sa puissance de traitement du langage inégalée offre des perspectives infinies aux utilisateurs et, par conséquent, aux entreprises. L’IA générative repousse les limites de ce que les machines peuvent apprendre et créer : nouveaux designs de produits, contenu marketing personnalisé, argumentaires de vente intégrant une multitude d’informations, aide au diagnostic médical ou à l’analyse judiciaire…
Nvidia, moteur de l’IA générative
L’IA générative n’aurait pas pu être aussi performante sans Nvidia, ou plus exactement ses cartes graphiques de type H100, et précédemment A100, capables d’entraîner des transformers, c’est-à-dire des réseaux de neurones profonds. En effet, la performance d’une intelligence artificielle repose sur la bonne adéquation entre la quantité des données d’apprentissage et la complexité du modèle d’intelligence artificielle. En apportant une puissance de calcul vectoriel jamais atteinte jusque-là, Nvidia a rendu possible l’émergence des LLMs entrainés sur des corpus gigantesques.
Comment l’IA générative va changer la donne
Difficile de prédire l’intégralité des nouveaux usages professionnels favorisés ou améliorés par l’IA générative tant le champ des possibles est ouvert. En revanche, l’IA conversationnelle ne doit rester qu’un outil car la machine est dépourvue d’intention et de réelle compréhension, elle n’est par exemple pas capable de réellement faire la différence entre ce qui est éthique et ce qui ne l’est pas.
c'est le taux d'erreurs
que font encore les meilleurs LLMs dans un usage général.
Il faut aussi considérer le fait que les meilleurs LLMs, dans un usage général, ont des taux d’erreurs qui peut dépasser les 30%, ce taux pouvant être significativement réduit en spécialisant le scope d’entrainement ou le contexte d’utilisation des LLMs. Par conséquent, l’intelligence artificielle ne remplace pas l’humain, elle prend simplement en charge certaines tâches et permet un gain d’efficacité.
Il est toutefois au moins deux domaines que l’IA générative risque de fortement disrupter. Primo, le marketing, en permettant une personnalisation à grande échelle. Deuzio, les moteurs de recherche, en étant capable de fournir une réponse exacte et documentée, poussant ainsi certains acteurs comme Google à devoir repenser leur business model.
L’impact de l’IA générative sur les entreprises
Les entreprises qui adoptent l’IA générative pourraient alors bénéficier d’une meilleure productivité et d’une réduction des coûts, soit deux facteurs de compétitivité majeurs. À la clé : la capacité à générer rapidement de nouveaux contenus en réponse à la concurrence. Une chose est certaine : l’IA générative va transformer la façon dont nous créons et consommons du contenu. En ce sens, elle se positionne comme un facteur différenciant stratégique pour les entreprises.
En revanche, l’IA générative soulève également un certain nombre de questions et de défis. Quid par exemple des droits d’auteur et de la propriété intellectuelle des œuvres utilisées pour son entraînement ? Difficile en effet de savoir précisément sur quelles données certains LLMs ont été entraînés, posant des problèmes éthiques aux entreprises qui les utilisent.
Les limites de développement de l’IA générative
Dès lors, certaines limites apparaissent déjà avec un premier frein d’ordre méthodologique. La raison : les modèles comme GPT 4 ont besoin d’une très grande partie du contenu publié sur internet pour leur entrainement. Augmenter leur puissance et leur complexité nécessiterait de leur donner accès à encore bien plus de contenu (en se basant sur la loi de Vapnik), limitant ainsi leur potentiel de développement. En complément, de nombreuses ressources qui seraient précieuses pour leur entrainement ne sont pas encore publiées sur le web et restent donc inaccessibles à l’IA générative. Par conséquent, les LLMs généraux ne peuvent suffire à eux seuls pour apporter des réponses exhaustives et pertinentes dans la plupart des domaines pointus. C’est un processus qui doit se comprendre sur le long terme qui impliquera de spécialiser l’entrainement de certains LLMs sur des corpus spécialisés et de digitaliser toujours plus de données.
Autre frein : comment créer un contenu toujours actuel avec l’IA générative ? On sait par exemple qu’actuellement ChatGPT n’inclut pas de données postérieures à septembre 2021. Les plugins permettent certes d’aller chercher du contenu sur internet, mais ils intègrent les données collectées soit dans le prompt, soit dans le contexte, mais pas dans le corpus d’entraînement. Par conséquent, la capacité d’analyse de l’outil sur les données les plus récentes s’en trouve elle aussi restreinte. En ce sens, l’actualisation des données d’entraînement représente une limite réelle. Et c’est sans compter les biais et autres fake news incluses dans les données d’entraînement qui pénalisent potentiellement la pertinence des réponses fournies.
Comme pour toute technologie, une utilisation responsable et éthique de l’IA générative est donc essentielle pour optimiser ses avantages tout en minimisant les risques. C’est pourquoi les entreprises doivent privilégier des environnements sécurisés comme Azure OpenAI, conçus pour les professionnels et non un produit grand public comme ChatGPT.
👉 Retrouvez toute notre actu en temps réel en nous suivant sur LinkedIn 👈
Commentaire (1)
Votre adresse de messagerie est uniquement utilisée par Business & Decision, responsable de traitement, aux fins de traitement de votre demande et d’envoi de toute communication de Business & Decision en relation avec votre demande uniquement. En savoir plus sur la gestion de vos données et vos droits.