L’utilisation sécurisée de l’IA passe par des outils fiables
Que les équipes utilisent une solution approuvée par l’entreprise ou qu’elles aient pris (la mauvaise) habitude d’une pratique en « shadow IA », le constat est là. Les outils d’IA générative sont plébiscités par les collaborateurs. Pour preuve, une étude de McKinsey montre que l’IA est bien ancrée dans les pratiques. Les collaborateurs utilisent l’IA pour au moins 1/3 de leurs tâches quotidiennes. Certains usages sont même inconnus des entreprises puisque les collaborateurs seraient trois fois plus nombreux à avoir recours à l’IA que ne le pensent leurs employeurs ! Selon le Boston Consulting Group, 54 % des collaborateurs se disent ainsi prêts à se tourner vers des outils d’IA non autorisés par leur entreprise.
Pour contrer ces usages délétères pour l’entreprise, fournir des outils fiables et puissants aux collaborateurs n’est plus une option. Puisque les collaborateurs reconnaissent la valeur apportée par ces outils, leur mettre à disposition des solutions officielles, c’est garder la maîtrise. Avec un effet vertueux à la clé : pouvoir augmenter et mesurer cette valeur. Nous le savons bien : les collaborateurs peuvent utiliser d’autres outils, beaucoup moins officiels ceux-là. Et voilà comment certaines solutions d’IA passées sous les radars deviennent de véritables chevaux de Troie qui drainent leur lot de risques cyber et de fuites de données.
Le paradoxe de l’absence de résultats dans les entreprises
Pourtant, malgré l’engouement des utilisateurs pour l’IA, les organisations vivent un paradoxe (pour ne pas dire une grande frustration !). L’immense majorité des entreprises qui ont investi dans cette technologie n’en perçoivent… aucun bénéfice tangible. Les chiffres d’une étude du MIT (Media Lab de Cambridge) sont sans appel. Malgré des investissements de 30 à 40 milliards de dollars, 95 % des entreprises n’enregistrent aucun impact mesurable sur leur CA. L’explication la plus plausible est pourtant d’une simplicité déconcertante ! Si les résultats ne sont pas au rendez-vous, c’est tout simplement parce que les utilisateurs n’utilisent pas les outils fournis par l’entreprise.
De son côté, Deloitte dresse un constat étonnant dans son rapport sur l’état de l’IA générative :
- Seulement 11 % des entreprises ayant introduit des outils d’IA considèrent que ces technologies sont réellement intégrées dans les workflows quotidiens (c’est-à-dire utilisées tous les jours par plus de 60 % des employés).
- Dans près de la moitié des entreprises dont le taux d’utilisation quotidien des collaborateurs est inférieur à 20 %, les projets d’IA générative n’apportent pas les résultats attendus.
- Les entreprises qui parviennent à une adoption généralisée en récoltent, elles, les bénéfices : 86 % déclarent avoir atteint ou dépassé leurs objectifs de ROI.
La méfiance envers les outils : le principal blocage
La Harvard Business Review s’est posé une question simple : “Pourquoi les collaborateurs de certaines entreprises se détournent-ils de l’IA générative ?”. La réponse est tout aussi aisée : “par manque de confiance”. Une conclusion qu’Orange Business partage totalement.
Une étude McKinsey a récemment enfoncé le clou en indiquant que “la confiance… est la base de l’adoption des produits et services alimentés par l’IA. C’est logique : si les clients ou les collaborateurs n’ont pas confiance dans les résultats obtenus avec les systèmes d’IA, ils ne les utiliseront pas”.
Lorsque la méfiance est de mise du côté des collaborateurs, les taux d’utilisation s’effondrent. Et le ROI devient un lointain mirage.
Mais qu’est-ce qui bloque vraiment du côté des utilisateurs ? Très clairement des interrogations sur la fiabilité de la solution, sur la confidentialité des données et une forme de résistance liée à la crainte pour son emploi.
À l’inverse, dans les entreprises où la stratégie en matière d’IA intègre des principes de renforcement de la confiance, l’engagement est plus élevé, l’adoption plus rapide et la valeur économique plus grande. CQFD.
La confiance dans l’IA : de quoi parle-t-on ?
Dans le terme de confiance dans l’IA, que faut-il vraiment comprendre ?
L’Union européenne a été une des premières à tenter d’apporter une réponse, en nommant un groupe indépendant d’experts de haut niveau (GEHN) en 2019 qui a planché sur le sujet. Le GEHN IA a ainsi défini plusieurs principes éthiques non contraignants pour l’IA visant à garantir sa fiabilité et un cadre éthique :
- l’intervention humaine et la surveillance
- la robustesse technique et la sécurité
- la protection de la vie privée
- la gouvernance des données
- la transparence
- la diversité
- la non-discrimination et l’équité
- le bien-être sociétal, environnemental et la responsabilité.
Ces principes sont désormais intégrés dans l’AI Act de l’Union européenne, une loi ambitieuse qui tient compte des risques et de vulnérabilités allant bien au-delà de la seule protection traditionnelle des données. Si l’UE se positionne à l’avant-garde avec une législation complète sur l’IA, elle n’est pourtant pas la seule à poser un cadre. Au moins 69 pays, dont la Chine et les États-Unis, ont déjà proposé plus de 1 000 initiatives politiques et cadres juridiques visant à répondre aux préoccupations du public en matière de sécurité et de gouvernance de l’IA.
La confiance by design et à toutes les étapes du déploiement
L’adoption responsable de l’IA pose de nombreux défis aux entreprises. Face à des risques tels que les biais, les menaces pour la sécurité et la perte potentielle de contrôle des utilisateurs, elles doivent mettre l’accent sur la transparence, la responsabilité et la gouvernance éthique. Mais point de confiance sans une approche globale mêlant conformité réglementaire, dispositifs robustes de protection des données et engagement fort en faveur de pratiques éthiques.
Qu’entendons-nous alors par “confiance by design” ? Il s’agit d’intégrer la conformité et la fiabilité à chaque étape du développement et du déploiement de l’IA générative, non pas comme une réflexion a posteriori, mais comme un principe fondamental très en amont.
L’IA doit reposer sur des bases fiables et notamment sur des données d’entraînement de haute qualité. Condition impérative pour garantir la transparence, la fiabilité et les principes éthiques des outils d’IA utilisés par les collaborateurs. Lorsqu’ils ont confiance dans les systèmes avec lesquels ils travaillent, l’engagement est démultiplié. À partir de là, l’entreprise peut pleinement exploiter le potentiel de l’IA générative.
L’avis d’Hélène Blanquet (Facilitatrice, Développement Managérial, Ressources Humaines - Orange France)
« J’adresse un message clair à mes collègues : ne considérez pas l’IA comme une ennemie, mais comme une alliée ! Chacun de nous, quel que soit son âge ou son poste, doit se familiariser avec cette technologie, parce qu’elle améliore les perspectives de carrière. De leur côté, les entreprises doivent apporter l’accompagnement nécessaire pour démystifier l’IA générative, pour en clarifier les objectifs. Leur rôle est également de fournir aux collaborateurs une assistance technique pour l’utiliser correctement ».
La confiance dans l’IA se renforce aussi dans la formation
Pour accorder sa confiance à l’IA, encore faut-il mieux la connaître ! Et cela passe nécessairement par la case formation des collaborateurs. Objectif : expliquer aux équipes les principes fondamentaux, les éléments clés d’une IA de confiance.
D’autant plus indispensable dans les contextes réglementaires et culturels spécifiques à l’Europe.
L’outil d’enquête sur la confiance proposé par la Harvard Business Review s’appuie sur une série d’affirmations clés, structurées autour de quatre caractéristiques fondamentales : l’humanité (répondre aux besoins individuels et aider chacun à donner le meilleur de lui-même), la transparence, la compétence et la fiabilité.
“ L’outil communique-t-il avec vous de manière claire et dans un langage simple ?”, “avez-vous le sentiment que ses résultats sont exacts et impartiaux ?” sont quelques-unes des questions posées pour évaluer le niveau de confiance des collaborateurs. Et si l’évaluation de leur outil d’IA est défavorable ? L’entreprise dispose alors d’indicateurs précieux pour s’attaquer de front aux causes de la défiance.
Démocratiser, former, évaluer : voilà le triptyque incontournable pour infuser une utilisation efficace et responsable de l’IA.
Avec Orange Business : la confiance by design et de bout en bout
Chez Orange Business, « la confiance by design » est bien plus qu’un concept. Il s’agit d’un cadre qui intègre la sécurité, la conformité, l’éthique et la transparence. Et ce, de bout en bout et à chaque étape du développement des solutions d’IA générative.
Notre approche cible les risques spécifiques associés à l’IA générative, tels que les fuites de données et les hallucinations, pour renforcer la confiance des clients comme celle des utilisateurs. Notre Charte d’éthique des données et de l’IA, ainsi que notre cadre de gouvernance By Design, proposent une approche solide et complète pour une gestion responsable des données et de l’IA. En complément, notre Autorité de conception de l’IA responsable permet une évaluation rigoureuse des risques, qui garantit des solutions d’IA à la fois éthiques et sûres pour une utilisation professionnelle.
Notre cadre pour la “confiance by design” fixe des exigences élevées pour une IA digne de confiance. Il est centré sur la solidité de la gouvernance des données, la transparence des opérations et les pratiques éthiques. Grâce à des solutions telles que « GPU as a service » et Live Intelligence, les données des clients sont sécurisées, conformes et contrôlées par les utilisateurs.
Les mesures de protection contre les fuites de données ainsi que le strict respect de l’AI Act de l’UE illustrent notre solide engagement en faveur de la sécurité des informations sensibles. Les entreprises ont ainsi accès à des outils d’IA non seulement performants mais surtout sûrs.
La transparence occupe également une place centrale dans notre approche. Nos clients ont ainsi la possibilité de choisir parmi plusieurs modèles de langage pour éviter l’enfermement propriétaire, c’est-à-dire la dépendance technologique d'une entreprise envers un fournisseur unique. Un vrai gage de flexibilité.
Cette approche illustre parfaitement la mission que nous nous sommes fixée : garantir des services numériques bien conçus, accessibles et prêts à être utilisés de manière inclusive et durable. Les clients qui déploient Live Intelligence savent que ces principes éthiques sont respectés. De quoi rassurer les collaborateurs.
Nous proposons également des solutions d’IA générative souveraines, qui combinent un hébergement sécurisé des données, des infrastructures de confiance et des partenariats stratégiques, le tout coordonné à partir de notre plateforme « Live Intelligence ».
En plaçant la confiance au cœur de chaque projet bien en amont dès la conception, Orange Business garantit que les notions d’intégrité et de responsabilité sont respectées. Vraiment.
Quand confiance rime avec valeur
Vous l’aurez compris, la rentabilité de tout investissement dans l’IA générative dépend de son adoption qui, elle-même repose sur la confiance. Et sans adoption, point de valeur !
Cette confiance doit être intégrée dès le départ, nous en sommes convaincus.
En misant sur la connaissance et l’apprentissage continu, les entreprises peuvent véritablement susciter la confiance à chaque étape de leur projet pour infuser l’IA générative dans la culture et les pratiques. Et c’est bien le seul chemin vers le ROI.
Auteur
Mathieu Ducrot
Mathieu Ducrot est Directeur des Produits IA chez Orange Business. Basé à Paris, il travaille à la fois chez Orange Business et Orange. Mathieu a suivi le programme de leadership IMM 2017–2018 et est spécialiste de la gestion de projets et de programmes, ainsi que de la gestion d’équipe. Il est également titulaire de l’accréditation PMP.