Pour une Intelligence Artificielle de confiance : opportunités, concertations et recommandations

L’intelligence artificielle est prévue de se développer à grande échelle au cours des prochaines années avec un taux de croissance annuel moyen de 28,5% selon IDC. Elle laisse entrevoir de nombreuses opportunités d’innovations et de développement pour la société, notamment dans les domaines de la santé ou la gestion des villes.
Elle soulève néanmoins de nombreuses incertitudes concernant son usage et les risques associés. Dans cette perspective, et afin de garantir une intelligence artificielle de confiance, de multiples acteurs sont aujourd’hui en train d’en déterminer des cadres éthiques

Opportunités d’innovations et de développement pour la société

Yann Le Cun, chercheur en intelligence artificielle et co-inventeur de l'apprentissage profond définit l'intelligence artificielle comme « l’ensemble des techniques permettant à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains et à certains animaux ». Les systèmes reposant sur l’intelligence artificielle agissent dans le monde physique ou digital en interprétant des données, raisonnant sur des connaissances acquises et décidant de la meilleure action à réaliser pour un objectif donné.

Parmi les opportunités d’innovations et de développement pour la société permises par l’intelligence artificielle, je vous propose ici quelques exemples.

Dans le secteur de la santé :

  • Un développement plus rapide de médicaments. L’intelligence artificielle a ainsi servi dans la lutte contre la Covid-19 et le développement de vaccins
  • Une plus grande fiabilité de diagnostic grâce à la reconnaissance d’image. Une application notable est la reconnaissance de mélanomes
  • Une plus grande personnalisation de traitement pour les patients
  • Une meilleure prévention des maladies

Dans la gestion des villes et des bâtiments :

  • Une régulation en temps réel de la consommation énergétique. Ainsi, un pilote mené en Allemagne par les entreprises Vinci et Dabbel, au sein de 2 établissements scolaires, a permis de réduire les coûts énergétiques de 20% à 30% tout en améliorant le confort utilisateurs

Néanmoins, l’intelligence artificielle soulève de nombreuses incertitudes concernant son usage et les risques associés. En voici deux illustrations :

  • L’intégration des stéréotypes et préjugés humains au sein des algorithmes du fait de leur conception basée sur des données historiques. Ainsi un algorithme décisionnel pourrait reproduire les erreurs humaines passées
  • L’usage à des fins malveillantes comme l’usurpation d’identité par la modification de photos ou vidéos (deepfake)

Dans cette perspective, et afin de garantir une intelligence artificielle de confiance, de nombreuses organisations et acteurs sont aujourd’hui en train d’en déterminer des cadres éthiques.

Acteurs impliqués pour une régulation positive de l’intelligence artificielle

De multiples acteurs sont aujourd’hui impliqués au niveau mondial pour une régulation positive de l’intelligence artificielle : universités, institutions, entreprises, société civile.

  • La CNIL a mené en 2017 un débat public impliquant environ 60 partenaires sur les algorithmes et l’intelligence artificielle ayant abouti à l’identification et la formulation de plusieurs recommandations.
  • La Commission Européenne a constitué un groupe de 52 experts, membres d’entreprises comme Orange, Axa ou Google et d’universités comme Sorbonne Université ou l’université d’Oxford, en tant que conseil dans la définition de la stratégie européenne d’intelligence artificielle. Elle a publié en février 2020 un livre blanc sur l’intelligence artificielle : « Une approche européenne axée sur l'excellence et la confiance ».
  • L’UNESCO a publié en novembre 2021 un ensemble de recommandations sur l'éthique de l'Intelligence Artificielle, élaborées par un groupe expert de 24 personnes et adoptées par l’ensemble de ses États membres. Ce projet a également inclus une consultation mondiale en ligne afin de permettre à l’ensemble de la population de participer à cette réflexion.

Principes clés pour une intelligence artificielle de confiance

Un certain nombre de principes clés pour une Intelligence Artificielle de confiance a émergé au cours des différents travaux engagés. Le groupe d’experts sollicité par la Commission Européenne, dont Orange fait partie, en a identifié les suivants :

  • Facteur humain et contrôle humain
  • Robustesse technique et sécurité
  • Respect de la vie privée et gouvernance des données
  • Transparence
  • Diversité, non-discrimination et équité
  • Bien-être sociétal et environnemental
  • Responsabilisation

Ainsi, c’est par le dialogue et la prise en compte des droits et des valeurs de la société que seront déterminés les cadres d’une intelligence artificielle de confiance pour tous, source de développement social et économique à long terme.

 

Pour aller plus loin

Laurent Vinot
Laurent Vinot

Consultant et expert dans l’analyse et l’usage des données, je permets aux organisations d’améliorer leurs performances dans les domaines du marketing, de l’expérience digitale et des ressources humaines