Une ques­tion de con­fiance

Rapport annuel

Les nouvelles technologies transforment notre société La recherche en intelligence artificielle montre qu’il ne s’agit pas uniquement de répondre aux problématiques d’ordre technique. Acceptabilité et interaction avec les êtres humains sont des facteurs importants qui contribuent à déterminer s’il est possible que cela débouche sur un modèle économique.

Article tiré du magazine annuel View

« Hmm – euh », lorsque Google a présenté son assistant virtuel Duplex le 18 mai 2018, celui-ci a convaincu parce qu’il réussissait à prendre tout seul un rendez-vous chez le coiffeur ou à réserver une table dans un restaurant chinois. Le résultat était particulièrement bluffant, car le logiciel hésitait, gérait les temps de pause, répondait du tact au tact, tout comme un humain. 

« La reconnaissance vocale constitue de nos jours un champ d’application typique de l’intelligence artificielle », affirme Theresa Schachner, chercheuse au sein du Department of Management, Technology, and Economics (MTEC) de l’EPF de Zurich. Tant que ces systèmes sont uniquement censés imiter certaines aptitudes des êtres humains, il existe déjà de très bonnes applications comme la reconnaissance d’images. Ce n’est pas l’être humain dans son ensemble qui est imité, uniquement certaines de ses facultés. « C’est une sorte de vision en silo. Nous nous concentrons sur certaines facultés cognitives qui sont ensuite automatisées et numérisées », explique Schachner. Celles-ci permettent alors de définir des modèles économiques, y compris pour les assureurs.

De nos jours, la recherche distingue deux domaines différents. D'un côté, l’étude et la programmation d’applications concrètes. De l’autre, l’analyse de leurs répercussions en termes de management, de stratégie et d’organisation. Les recherches de Theresa Schachner portent sur le second domaine. « Il est tout à fait passionnant de décortiquer l’impact que cela peut avoir sur l’économie. Comme chercheuse, je m’intéresse aux avantages, mais aussi aux obstacles, aux pierres d’achoppement. » Elle a identifié principalement trois raisons qui s’opposent à la diffusion des applications reposant sur l’intelligence artificielle.

  • Boîte noire : L’utilisation de l’intelligence artificielle est plus facile pour certaines branches que pour d’autres. Un algorithme d’intelligence artificielle est opaque jusqu’à un certain point. L’intelligence artificielle exécute certaines étapes du traitement de manière « autonome ». Lorsque la question de la responsabilité est centrale, cet élément « boîte noire » peut empêcher l’utilisation d’un tel algorithme, car la traçabilité de sa décision n’est pas totale.
  • Manque de confiance : Même si un algorithme prend de bonnes décisions dans 99 pour cent des cas, cela signifie aussi qu’il peut en prendre de mauvaises. Qu'un tel algorithme nous recommande une série sans intérêt à la télévision, cela est acceptable. Mais, en matière de diagnostic médical, il sera un peu plus difficile de rester confiant.
  • Partialité : A première vue, on pourrait penser qu'un algorithme est juste et équitable. Or, c’est occulter le fait que son fonctionnement dépend des données sur la base desquelles il a été entraîné.

Pour autant, Theresa Schachner considère qu'un potentiel existe pour les industriels, en particulier pour les assureurs : « Pour les assureurs, son application à la souscription est particulièrement intéressante. Et, en ce qui concerne la gestion des sinistres surtout, le volume de données disponibles est déjà très appréciable. » Elle estime que certains produits peuvent être pratiquement automatisés grâce à l’intelligence artificielle. Une assurance aviation par exemple pourrait tout à fait être gérée par un algorithme, sauf en cas d’indemnisation à la suite d'un sinistre. Schachner insiste toutefois sur le fait que cela est possible uniquement avec des produits simples et standardisés. Dans le cas des produits complexes, comme une assurance-maladie, cela va prendre encore un peu de temps. Sachant que même pour des produits standardisés, l’être humain est toujours impliqué à un moment ou à un autre.

Rares sont actuellement les études consacrées à ce qu'il adviendra dans les entreprises lorsque ces algorithmes seront utilisés. « Nous ne savons pas encore ce qu’il se passe lorsque toutes les analyses sont par exemple effectuées par l’intelligence artificielle », souligne Schachner. Il y a le cas de cette société qui a remplacé un membre de sa direction par un algorithme. Il s’est alors avéré que, dans ses prises de décision, l’algorithme donnait la préférence à des entreprises qui utilisaient également des algorithmes. « Par contre, aucune raison convaincante n’a pu être avancée pour expliquer un tel comportement », précise Schachner. Toutefois, il est manifeste que ces questions vont bien au delà de la seule recherche de gains en efficacité et de baisse des coûts. Il s’agit-là de questions au niveau interpersonnel. Comment cela modifie-t-il la structure de l’organisation ? Comment les collaborateurs modifient-ils leur comportement, leurs décisions ? Theresa Schachner : « Nous ne savons pas ce qu’il se passe lorsque nous cédons chacune de nos décisions à un algorithme. Le résultat obtenu peut aller bien plus loin que l’effet escompté au départ. Or, pour le moment, nous avons encore la chance de pouvoir maîtriser ce phénomène. »
 
 

L’AI : qui, quoi ?

Le mathématicien britannique Alan Turing a développé un test en 1950 pour l'intelligence artificielle. Sa thèse : dans un jeu de question-réponse, lorsqu’une personne n’est plus capable de distinguer si elle répond à une autre personne ou à une machine, alors cela signifie qu’on a réussi à créer de l’intelligence artificielle. Les questions et les réponses étaient alors formulées par écrit. Ce que Turing cherchait à atteindre s’appelle aujourd’hui de l’intelligence artificielle faible : il s’agit de l'imitation d’une seule faculté cognitive bien délimitée. L’intelligence artificielle forte, en revanche, consiste en l’imitation de chacune des facultés humaines. Cela devrait prendre encore quelques années avant qu’un être humain puisse être entièrement remplacé par une machine. Quant à la question de savoir si une approche entièrement nouvelle est nécessaire pour l’intelligence artificielle forte ou s'il s’agit d’un prolongement de l’intelligence artificielle faible, elle est controversée dans le monde de la recherche.

L'intelligence artificielle faible est un terme générique désignant une classe d’algorithmes informatiques où le traitement des informations n’obéit pas au principe clair de cause à effet. En réalité, l’algorithme évalue des informations à différents niveaux du processus de traitement. En procédant au traitement de grandes quantités de données, l’algorithme « apprend » à adapter lui-même les pondérations.