De plus en plus d’entreprises du secteur optent pour des stratégies data-driven et se lancent dans un marathon de projets Data Science et Intelligence artificielle, espérant ainsi profiter des avantages des nouvelles technologies et de la donnée. Quelle est la meilleure approche pour réussir un projet Data Science ou Intelligence artificielle ? Quels sont les acteurs nécessaires aux changements et comment se déclinent les différentes étapes de conception et de déploiement de projets dans le temps ?
Certaines DSI, chargée du déploiement de ces stratégies, ont longtemps eu des approches très technocratiques sous la pression constante des métiers et des avancées technologiques. Mais les Head of data sont de plus en plus nombreux à faire le pari d’une démarche de rupture avec l’existant pour instaurer une culture de partage de l’actif de données : ils conçoivent, déploient et imposent leurs projets de réforme qui, sur le papier, semblent irréprochables.
Désormais, on assiste de plus en plus à l’émergence d’approches collectives où l’utilisateur final est impliqué au même titre que les acteurs de la DSI dans la conception de la stratégie data et de sa réalisation. Néanmoins, plusieurs projets Data Science et Intelligence Artificielle rencontrent des problèmes de mise en place et se retrouvent voués à l’échec parfois dès leur démarrage. Les impacts sont souvent drastiques lourds de conséquences et le changement brutal peut faire fuir le bénéficiaire du service.
Trois classes de projets Data Science et Intelligence Artificielle
Les usages de la Data Science et de l’Intelligence Artificielle (IA) sont innombrables. Trois objectifs concrets peuvent toutefois être mis en place efficacement pour dégager un ROI rapide : l’automatisation des processus, l’analyse des insights (soit pour comprendre l’existant, détecter des patterns ou prédire des événements) et l’amélioration du niveau de service et l’engagement vis-à-vis de l’utilisateur final. Passons-les en revue avec quelques exemples de cas d’usage concrets.
1. Robotic Process Automation (RPA)
La forme la plus basique et commune de l’Intelligence Artificielle (IA) est l’utilisation de la machine dans l’automatisation des tâches manuelles. C’est la technique d’automatisation des processus la plus avancée, et qui permet, à titre d’exemple :
- Le transfert de données et des emails collectés dans divers systèmes d’information pour mettre à jour les bases de données clients ou les opportunités détectées ;
- Le rapprochement et contrôle des factures et commandes afin de rendre plus robuste les processus comptables ;
- La lecture et analyse des contrats et documents légaux pour extraire des contraintes ou anomalies possibles.
Le Robotic Process Automation (RPA) est la forme de l’IA la plus facile et la moins coûteuse à mettre en place. En général, elle porte ses fruits à court terme et son ROI est remarquable. Toutefois, malgré la facilité de sa mise en place et ses bénéfices considérables, de nombreuses entreprises ont encore du chemin à faire dans ce domaine.
2. Analyse de données
La deuxième forme la plus commune et connue de l’IA et de la Data Science est l’analyse de l’information et l’extraction de la valeur depuis un vaste volume de données (Big Data) pour des fins descriptives ou prédictives. Par exemple :
- Faire de la maintenance prédictive sur les chaines d’industrie
- Identifier les fraudes possibles dans les systèmes bancaires ou d’assurance ou les systèmes de santé
- Automatiser le ciblage clientèle lors des campagnes marketing
- Fournir aux assureurs des modèles plus précis sur les potentiels clients
Les techniques les plus développées de Machine Learning, dites de Deep Learning, permettent de réaliser des fonctions comme la reconnaissance vocale ou d’image ou encore du Natural Language Processing (NLP).
3. Engagement et prise de décision
La troisième forme consiste à engager l’utilisateur final (employé ou client) dans un processus d’interaction avec la machine afin de récolter de l’information ou de fournir un service. Par exemple :
- Les agents conversationnels (chatbots) intelligents qui sont sollicités 24/7 et qui couvrent une panoplie de services dépendant du niveau d’apprentissage du robot.
- Les moteurs de recommandation qui orientent l’utilisateur dans ses choix de services ou produits
La richesse des fonctions que peuvent s’offrir les organisations est très attractive. Toutefois, la mise en place de projets d’Intelligence Artificielle est confrontée à plusieurs obstacles de natures différentes : organisationnelle, financière, technologique ou stratégique.
Comment intégrer les nouvelles technologies Data Science et IA à son projet ?
Je présenterai ci-dessous un framework d’intégration des nouvelles technologies Data Science et Intelligence artificielle, applicable et réglable quelle que soit l’ampleur des projets.
1. Comprendre les technologies en cours
Matinale Data & IA
Avant de se lancer dans un projet Data Science, l’évaluation de la maturité d’une solution technologique, sa pertinence et sa finalité sont un passage obligatoire. A titre d’exemple, le RPA est généralement basé sur un ensemble de règles transparentes, ce qui permet une interprétation aisée des résultats.
A l’inverse, le Deep Learning excelle dans l’apprentissage machine sur de grosses volumétries de données, mais les résultats restent difficiles à interpréter. Cela rend la prise de décision comparable à une boite noire. Cet aspect est problématique dans des domaines hautement réglementés tels que les services financiers où l’action entreprise doit être déchiffrée et argumentée.
Malheureusement, plusieurs organisations abordent des problématiques intéressantes avec des technologies inappropriées. Cela s’explique par plusieurs raisons : résistance de changement, méconnaissance des nouvelles technologies ou encore manque des compétences nécessaires. La connaissance des nouvelles solutions technologiques émergentes sur le marché nécessite des efforts de veille, des équipes dédiées pour tester et valider le bon fonctionnement et la comptabilité avec les plateformes courantes. Naturellement, et en l’absence d’une structure dédiée à cette activité, les entreprises peuvent faire à appel à des sociétés de conseil reconnues, où le big data et la Data Science constituent leur cœur de métier.
Quoi qu’il en soit, il est essentiel de disposer des meilleures compétences, soit en interne, soit en externe. Compte tenu de la rareté des talents et de la vitesse à laquelle évolue la technologie, plusieurs groupes ont opté pour la création de centres d’expertises rattachés aux départements informatique, stratégie ou même métier. Ces centres réunissent des talents et proposent une expertise au service des clients internes pour travailler sur les sujets prioritaires, complexes et innovants.
2. Création d’un portefeuille projet
La deuxième étape dans le processus de lancement d’un projet Data Science ou IA consiste à évaluer les capacités à réaliser des projets puis à fixer le cap et développer une feuille de route selon le besoin et le niveau de priorité.
De mon point de vue, quel que soit le secteur d’application, l’approche est toujours la même et passe par les évaluations suivantes :
a. Identifier le cas d’usage Data Science ou IA
La première évaluation détermine quelle entité ou équipe est capable de mieux tirer profit de la donnée ou d’une intelligence artificielle. Ayant déjà travaillé dans des centres d’expertises, certaines entités, sous l’effet du buzz #BigData et #IA, et de peur de rater le virage de la science de la donnée, essayent de tordre le cou aux technologies et déploient des projets décorrélés de tout fondement technique. Il est donc important de bien identifier le bon cas d’usage qui constitue l’opportunité « à ne pas rater ».
b. Evaluer le cas d’usage Data Science ou IA
Ensuite, il s’agit d’évaluer les cas d’usage qui peuvent tirer bénéfice des technologies Big Data et services cognitifs. C’est une étape aussi importante que la précédente car elle permet de donner du poids au projet selon son importance ou sa criticité. A mon avis, il n’y a pas de démarche spécifique à imposer à ce stade de réflexion « avant-projet ». Il est cependant judicieux de se poser ce type de questions :
- Est-ce que le cas d’usage défini est en adéquation avec la stratégie de l’entreprise ?
- Quelle est l’importance/criticité du cas d’usage Data Science ou Intelligence Artificielle ?
- Quels sont les impacts positifs et négatifs en cas de réussite/d’échec de l’application du cas d’usage ?
- Quels sont les obstacles et les freins possibles lors de déploiement de ce cas d’usage Data Science ou Intelligence Artificielle ?
c. Identifier les risques de l’idée
Il est ensuite primordial d’identifier les obstacles à la réalisation des projets data à forte valeur ajoutée. Par exemple :
- Goulots d’étranglement : dans certains cas, le manque de données est dû au mauvais process de partage de cet actif. La connaissance existe bel et bien au sein de l’entreprise mais pour des raisons souvent organisationnelles ou conflictuelles, la donnée ou encore l’opportunité n’est pas mise en avant.
- Valorisation de la donnée : dans d’autres cas, la donnée brute existe et est accessible. Seulement, le passage d’une donnée brute à une information exploitable engage des processus lourds avec une intervention de plusieurs personnes et des règles de gestion compliquées. Il est certainement plus judicieux de travailler sur la simplification de ces processus et de déléguer les tâches routinières à la machine.
- Manque de stratégie de gouvernance : l’ouverture du système pour le partage de la donnée est primordiale. Toutefois, même si la donnée est accessible et intelligible, son fractionnement peut la rendre inexploitable.
d. Etudier la faisabilité : définir le périmètre et sécuriser les ressources
Après avoir identifiée et évaluée l’opportunité, puis étudiés les risques inhérents, on se penche tout naturellement sur le processus de chiffrage de la solution, sur l’aspect financier et humain. La majorité des projets Data Science portent désormais la marque « Agile » et suivent les rites habituels de cette méthode.
Les membres de l’équipe travaillant sur un tel type de projets se trouvent souvent face à plusieurs demandes et idées provenant de commanditaires différents. Si l’équipe est mal dimensionnée ou mal organisée, essayer de trouver l’équilibre nécessaire pour satisfaire un besoin client en termes de coût et de délais est inimaginable dans un environnement instable où les priorités changent tous les jours. Il est donc judicieux de bien définir le périmètre du projet et d’y attribuer les ressources nécessaires.
e. Sélectionner la technologie
Après un long moment de persévérance et de patience pour qualifier les opportunités remontées, le flambeau passe aux équipes « techniques » pour le choix de la/les meilleure(s) solution(s) probable(s) aux questions soulevées. Si le débat est moins ouvert sur les technologies de Data Science à utiliser, et ceci malgré la maturité du marché, les technologies d’intelligence artificielle sont encore peu démocratisées. Le déploiement des services cognitifs allant des chabots jusqu’à la reconnaissance faciale ou vocale reste une exclusivité des entreprises pionnières dans le domaine de l’Intelligence artificielle.
La définition d’une roadmap technologique est primordiale. Elle permet de prendre en considération la volatilité de l’offre technique grâce à l’innovation. Ainsi, le choix d’une technologie doit constamment être remis en cause, en se posant les « bonnes » questions : compatibilité de solution avec la plateforme technologique déjà en place, facilité de son utilisation, coût d’installation et de maintenance…
3. Lancement de prototypes
L’écart entre les ambitions de l’entreprise et ses capacités à déployer des projets Data Science ou Intelligence artificielle peut être important (manque de ressource, d’organisation, de technologie…) et comprend dès lors un risque pour le bon déroulement du projet et de sa réussite.
Le mode « prototypage » est à mon sens la meilleure approche qui permet d’expérimenter et de montrer l’intérêt et la valeur ajoutée des idées innovantes. Si l’entreprise a plusieurs projets dans le pipeline, il est judicieux de se baser sur une structure de sélection et de priorisation. Une fois le GO donné aux projets validés, je suggère d’opter pour une politique de petits pas et de fixer des objectifs atteignables rapidement. Cela permet de gagner la confiance « fragile » des demandeurs de services. A ce stade, il est souhaitable de résister aux tentations de gloire et grands discours visant à faire rêver les utilisateurs, au risque de les décevoir si les objectifs annoncés ne sont pas atteints.
Contrairement aux projets décisionnels dits « classiques », où les solutions techniques sont matures, les attentes sont claires et les résultats très souvent au rendez-vous, les projets Data Science et IA présentent la particularité d’avoir des objectifs plutôt « exploratoires » au démarrage (s’assurer de la disposition d’assez de données pour apprendre, évaluer la qualité de données, vérifier la convergence des modèles…).
Cette particularité est un excellent argument pour promouvoir une démarche PoCs suivi d’un prototype (ou un pilote) et approuver le service dans un périmètre réduit. Ce dernier, une fois expérimenté et validé, peut être soumis à un élargissement et parfois un re-design de fond. Mais la confiance de l’utilisateur est déjà gagnée et le chemin est fait à moitié !
4. Scalabilité des projets
De nombreuses entreprises ont lancé avec succès des projets Data Science qui restent dans la phase pilote. Le déploiement sur une grande échelle des projets (de la phase pilote à la phase industrialisation) n’est pas une tâche facile.
D’une part, la scalabilité et la mise en production des prototypes nécessitent parfois le changement de briques technologiques. Le niveau de fiabilité et de qualité doit satisfaire les contraintes opérationnelles de l’entreprise. Le déploiement sur une grande échelle, l’ouverture du service à une population plus large ou l’intégration de plus de données en temps réel nécessitent l’adoption d’une roadmap technologique post-industrialisation. Par exemple, le passage ou l’enrichissement d’un socle on premise avec les technologies du cloud permet d’avoir plus de souplesse et d’autonomie d’usage ainsi qu’une maîtrise des coûts à l’usage.
D’autre part, la mise en production des projets Data Science et IA demande généralement une intégration avec les systèmes de production existants et donc une organisation et des responsabilités à définir et une communication à anticiper.
Projets Data Science ou IA : optez pour une démarche incrémentale
Ainsi, nous avons vu que la meilleure approche de mise en place de projets Data Science ou IA est la démarche incrémentale. Celle-ci porte dans son fond la voix de l’utilisateur final, et est soutenue par la DSI qui joue un rôle décisif dans le choix des outils technologiques et leur vulgarisation auprès des bénéficiaires de services.
L’identification de l’opportunité, son évaluation et son affirmation restent des phases lourdes et coûteuses mais nécessaires pour garantir un meilleur contrôle des projets. La phase de prototypage qui précède l’industrialisation est impérative dans ce contexte, car la data, aussi maitrisée soit-elle, nous réserve toujours pleins de surprises !
Le framework proposé n’a rien de révolutionnaire et sa mise en place n’est plus un secret entre les mains des grandes firmes de l’IT. Je pense cependant que les efforts constants faits par certaines sociétés pour monter en compétences et installer une culture data finiront par payer.
Votre adresse de messagerie est uniquement utilisée par Business & Decision, responsable de traitement, aux fins de traitement de votre demande et d’envoi de toute communication de Business & Decision en relation avec votre demande uniquement. En savoir plus sur la gestion de vos données et vos droits.