La qualité des données garantit la valeur des projets d’IA générative

Point de succès pour l’IA générative sans une utilisation responsable de données de qualité. L’équation est simple : pour qu’ils adoptent l’IA générative, les utilisateurs doivent être certains que leurs données seront correctement traitées. Toute stratégie doit donc impliquer des pratiques éthiques et responsables. Non seulement pour répondre aux normes de conformité, mais aussi pour favoriser une adoption durable de cette technologie. 

Aucune entreprise ne crée de valeur avec des projets d’IA générative reposant sur des données de mauvaise qualité. Et selon un rapport de Gartner, cette piètre qualité des données coûte cher, très cher, aux organisations. 15 millions de dollars chaque année en moyenne. Un chiffre voué à augmenter avec la dépendance croissante aux solutions d’IA pilotées par les données. 

Imaginez les conséquences d’une IA alimentée par des données erronées : une efficacité proche de zéro pour les collaborateurs, du stress et des craintes pour leurs données personnelles. Nous sommes bien loin de la promesse d’une expérience collaborateur optimisée grâce à l’IA. 

Gouvernance des données : un cadre non négociable

Des recherches scientifiques récentes (INRIA, 2024) ont montré qu’une IA responsable, dans laquelle la gestion des données est un élément central, constitue un facteur de confiance et d’équité indispensable pour garantir l’acceptation de la technologie. 

Cette responsabilité intègre les politiques, les normes et les technologies nécessaires pour gérer, protéger et utiliser les données de manière cohérente à l’échelle des entreprises. Grâce à elle, le niveau élevé de qualité, de sécurité, de disponibilité et de conformité des données garantit la fiabilité et l’absence de biais des ensembles de données qui alimentent les modèles d’IA. 

Orange a placé la protection des données au cœur de ses préoccupations lors du déploiement de Live Intelligence, son outil interne d’IA. Un sujet qui comptait autant pour nous que pour nos équipes. Lorsque nos collaborateurs ont découvert ce nouvel outil, les mêmes questions récurrentes : “où vont mes données ?” ou “quelles données puis-je utiliser ?”. 

Pour apporter la transparence nécessaire à nos collaborateurs, Orange a mis en place deux mesures clés.

Notre première mesure a été de créer un cadre technique et juridique rigoureux destiné à garantir que toute donnée soumise à un grand modèle de langage (LLM) ne soit jamais stockée ni réutilisée. Elle est ainsi traitée dans le but unique de générer une réponse à la requête de l’utilisateur. Cette norme stricte a été systématiquement appliquée à chaque éditeur LLM intégré à Live Intelligence. 

Autre engagement ferme et non négociable : toutes nos données sont hébergées en Europe. Ensuite, lorsque nous avons ajouté la fonctionnalité de recherche sur le web à Live Intelligence, nous avons soigneusement sélectionné un moteur de recherche respectant pleinement ces protocoles de protection des données.

Notre seconde mesure fut ensuite de rédiger une Charte de l’IA responsable qui définit clairement les principes directeurs de l’IA au sein d’Orange. Cette Charte ne se contente pas de préciser les risques et les opportunités liés à la technologie de l’IA. Elle détaille également les mécanismes de gouvernance, les mesures solides mises en place pour protéger les données personnelles ainsi que les modalités d’utilisation responsable. Par exemple, nous nous sommes engagés à ne jamais utiliser d’images générées par l’IA dans nos supports promotionnels destinés au public. Preuve de notre attachement à la transparence et au respect de normes éthiques dans tous les aspects du déploiement de l’IA.

L’avis d’Hélène Blanquet (Facilitatrice, Développement Managérial, Ressources Humaines - Orange France)

« Je suis très fière du rôle précurseur d’Orange Business dans l’IA. L’entreprise a su mettre à la disposition de tous ses collaborateurs un outil d’IA générative de pointe qui fait le lien entre vie professionnelle et vie personnelle. Rassurés par ce cadre sécurisé pour l’utilisation de l’IA générative, nos collaborateurs sont davantage incités à tester cette technologie, sans craindre de commettre des erreurs ou de compromettre des données sensibles de l’entreprise ».

Les agents IA : un fort potentiel de transformation… mais pas sans supervision

La gouvernance des données est tout sauf figée ! Elle s’adapte aux évolutions de l’utilisation de l’IA générative par les entreprises. Par exemple, Orange Business étudie les possibilités offertes par l’IA agentique. Une enquête récente révèle que 51 % des entreprises ont déployé des agents d’IA et 35 % des entreprises prévoient de le faire au cours des deux prochaines années. 

Nous sommes convaincus d’une chose : l’IA agentique transformera notre façon d’appréhender les tâches routinières notamment dans la gestion des infrastructures, le support client et la bureautique. En automatisant ces processus, les collaborateurs se concentreront sur les tâches à plus forte valeur ajoutée. Mais ça n’est pas tout. De simples exécutants « in the loop » ils deviendront des superviseurs « on the loop », chargés de contrôler et de valider le travail effectué par des agents intelligents.

Pour autant, les collaborateurs n’ont pas toujours la possibilité, ou la capacité, de vérifier chaque réponse générée par l’IA ou d’intervenir en temps réel. Dans des situations à fort enjeu, par exemple pour un dépannage immédiat, il faut absolument avoir pleinement confiance dans la précision de l’IA générative. Orange Business planche régulièrement sur des solutions innovantes pour offrir ce filet de sécurité. Par exemple, certains systèmes d’IA sont capables de vérifier mutuellement leurs résultats. Les petits modèles de langage constituent également une piste intéressante pour assurer la fiabilité et veiller à ce que chaque interaction inspire confiance.

Biais, équité et transparence : quels garde-fous ?

L’efficacité de l’IA générative ne se mesure pas uniquement à sa performance technique, mais également à sa capacité à produire des résultats équitables et transparents. La mise en œuvre réussie de l’IA générative exige donc une surveillance continue et une réduction des biais (George et al., 2025). En effet, des modèles entraînés sur des données partielles ou biaisées peuvent renforcer des stéréotypes sociaux liés à la race, au genre ou à la culture. Le risque est d’obtenir des recommandations ou des décisions injustes nuisant au bien-être, d’être source de discriminations dans des contextes sensibles comme le recrutement. Avec, de surcroît, les conséquences juridiques que cela peut impliquer.

Il est essentiel de garantir la transparence des décisions des modèles d’IA, tout en proposant des mécanismes de supervision humaine qui maintiennent la confiance et évitent certaines dérives éthiques. Chez Orange, nous examinons systématiquement de manière proactive les biais et procédons aussi à des audits réguliers sur l’équité. Notre structure de gouvernance, dirigée par le Conseil d’éthique des données et de l’IA (et soutenue par des équipes dédiées et transversales), assure que chaque déploiement d’IA respecte scrupuleusement les exigences légales, les principes éthiques et les valeurs fondamentales de la société. Ces mesures ne sont pas seulement une question de procédure, elles sont fondamentales pour garantir que nos systèmes d’IA fournissent en permanence des résultats justes et équitables à chaque utilisateur.

Sécurité des données, confidentialité et conformité : l’autre défi

Le domaine de la sécurité et de la confidentialité des données constitue un enjeu de taille. Le déploiement de l’IA générative représente une source de risques spécifiques pour la confidentialité et la sécurité. Pour une raison évidente : cette technologie est avant tout centrée sur les données. Les systèmes doivent souvent accéder à de vastes ensembles de données sensibles, telles que les dossiers RH ou des communications internes.

Et si des collaborateurs ou des utilisateurs introduisaient par inadvertance des données sensibles dans des outils d’IA générative publics ? Ils deviendraient des cibles de choix pour des cyberattaques. Tout en exposant les entreprises à d’importantes conséquences juridiques et en termes de réputation. Pour prévenir cette menace, Orange a mis au point et exploite sa propre infrastructure hautement sécurisée. Elle s’appuie sur des GPU propriétaires dans un cloud sécurisé. Toutes ces ressources sont mises à la disposition de nos clients.

La situation est d’autant plus délicate que les entreprises ont souvent entraîné leurs modèles à partir de données collectées sur Internet sans le consentement explicite de leurs créateurs. De quoi soulever des problèmes juridiques sur l’utilisation non autorisée des données, en particulier au regard de certaines législations, comme celles des États-Unis. Le CLOUD Act (Clarifying Lawful Overseas Use of Data) a donné aux autorités le pouvoir de demander des données aux entreprises technologiques, quel que soit l’endroit où elles sont stockées. Toutes ces obligations de conformité constituent un véritable casse-tête, en particulier pour les multinationales, qui composent avec un ensemble disparate de réglementations sur la localisation des données et la protection de la vie privée.

Dans ce contexte, la protection des données des collaborateurs n’est pas seulement une obligation légale : elle est essentielle pour que les solutions pilotées par l’IA inspirent confiance. Toute violation ou utilisation abusive de ces données peut rapidement éroder la confiance, freiner l’adoption et causer des dommages durables. 

La qualité du résultat dépend de… celle des données d’entrée !

Les promesses de l’IA générative reposent en grande partie sur la qualité des données utilisées pour entraîner et faire fonctionner ces systèmes. Des solutions d’IA générative telles que Microsoft Copilot et Live Intelligence promettent de transformer les processus métier. Mais le moindre grain de sable dans une base de données peut générer des conséquences en cascade. Imaginez des données de mauvaise qualité, qui entraînent des inexactitudes, des lacunes ou des incohérences et produisent des résultats peu fiables, biaisés, voire préjudiciables. Quand l’adage bien connu dans l’IT « Garbage in, garbage out » devient réalité. Un modèle d’IA générative entraîné sur des données de mauvaise qualité risque de produire des analyses et des recommandations aux répercussions coûteuses. Voire de nuire à la confiance des utilisateurs et à l’efficacité opérationnelle.

De nombreuses entreprises font face à ce problème spécifique. Elles travaillent à partir de données héritées, non structurées ou mal étiquetées. Intégrer ces sources disparates dans un ensemble de données cohérent et prêt pour l’IA revient à bâtir une maison sur des fondations instables. Si ses données ne sont pas rigoureusement intégrées et étiquetées, une entreprise risque d’alimenter ses modèles d’IA générative avec des informations incohérentes ou non pertinentes. Comment être performant dans ces conditions ?

Les solutions d’IA générative vont à une vitesse telle que les cadres traditionnels de gouvernance des données s’avèrent souvent insuffisants. Il devient difficile d’utiliser efficacement ces technologies sans pouvoir compter sur une couche de données unifiée. Et quid de l’équilibre entre vitesse et contrôle ? L’IA générative permet des expérimentations rapides devenues inadaptées aux processus de gouvernance traditionnels, plus lents.

Les silos de données, le pire ennemi de l’innovation IA

Les « silos » de données sont un problème bien connu dans l’IT. Si ces domaines de données isolés continuent d’exister, c’est qu’ils offrent encore de la valeur. Les systèmes existants constituent une base éprouvée, fiable et rentable pour les fonctions essentielles de l’entreprise. Prenons l’exemple du CRM : il centralise les données clients. Hautement stratégique ! Les technologies opérationnelles, elles, contribuent à automatiser et optimiser les processus physiques. Mais ces domaines se transforment en silos dès lors qu’il est nécessaire qu’ils échangent des données entre eux, mais que cela s’avère… impossible.

Le problème n’est pas nouveau. Mais l’émergence de l’IA générative lui donne un tout autre relief. L’un des principaux cas d’usage de l’IA générative est de faciliter l’accès à l’information. Que se passe-t-il si les silos de données limitent cet accès ? Le but de l’IA générative ne peut tout bonnement pas être atteint ! Mais casser ces silos n’est pas une mince affaire. Chaque domaine utilise ses propres protocoles, ses normes et son écosystème de fournisseurs. 

Orange Business se distingue par sa compréhension approfondie de ce sujet identifié comme un frein à l’innovation de nombreuses entreprises. 

Nous sommes ainsi probablement parmi les seuls à pouvoir consolider toutes les données de ces systèmes disparates pour éliminer les fameux silos qui empêchent l’IA générative d’exprimer son plein potentiel. Nous aidons nos clients à préparer, sécuriser et gouverner leurs données, en veillant à ce qu’elles soient fiables, conformes et prêtes pour l’innovation associée à l’IA générative. Avec cet accompagnement spécifiquement tourné vers la donnée, les entreprises répondent sereinement aux exigences réglementaires tout en prenant un temps d’avance concurrentiel.

Enfin, Orange Business propose une infrastructure numérique robuste, évolutive et flexible, complémentaire de ses services experts de gestion des données. Nos solutions cloud (disponibles en mode souverain si nécessaire) offrent la puissance de calcul haute performance indispensable pour les charges de travail en IA. Par ailleurs, notre approche qui ne s’appuie sur aucun fournisseur exclusif garantit une intégration fluide entre différentes technologies.

On ne réussit pas un projet IA sans s’attaquer au sujet de la donnée

L’IA générative au service de l’expérience collaborateur implique des défis colossaux liés aux données. Son efficacité dépend de la qualité des données, de la sécurité et d’une intégration transparente. Sans oublier les sujets d’éthique et de confidentialité. Investir dans une gouvernance des données robuste, c’est créer les conditions d’une adoption responsable et efficace de l’IA générative. Les données ne constituent pas seulement un actif, mais un puissant levier d’innovation. Les dirigeants d’entreprise qui l’ont compris ont tous un point commun. Ils tirent pleinement parti des performances de l’IA générative et créent des environnements de travail plus engageants, équitables et efficaces. Et cela fait toute la différence pour l’expérience collaborateur.

Auteur

Didier Gaultier

Didier Gaultier

Directeur IA - Digital Services France