LES BLOGS
11/09/2018 16h:52 CET | Actualisé 11/09/2018 16h:52 CET

L’Intelligence Artificielle peut-elle être discriminante?

On connaît ce qui y entre et on considère comme juste ce qui en sort, alors qu’on est incapable d’expliquer ce qui se passe dedans.

metamorworks via Getty Images

Devez-vous vous inquiéter mesdames des biais de l’intelligence artificielle

Hier lors de la signature d’un contrat d’assurance ou pour l’obtention d’un prêt votre interlocuteur analysait les éléments que vous lui aviez apportés, et la décision dépendait en partie de votre présentation du dossier. Mais, demain avec l’intelligence artificielle, l’algorithme donnera une réponse basée sur des millions de données corrélées et personne ne sera en mesure d’analyser ou de contester cette décision.

Des milliards de données mémorisées et corrélées

Si l’algorithme a mémorisé un fort taux d’impayés dans le quartier ou vous habitez, s’il a déduit de vos achats que vous étiez en surpoids, ou que vous fumiez, si par votre nom ou prénom il vous a identifié comme étant d’une origine ayant un fort taux d’infractions au code de la route, alors même que vous êtes, vous irréprochable, la réponse à votre demande de prêt ou d’assurance sera refusée, et vous n’aurez alors aucune explication.

Imaginez Mesdames, qu’il y ai une offre d’emploi de conducteur de grue, de direction d’orchestre symphonique ou de conducteur de travaux (12% de femmes) il y a de très fortes chances que l’Intelligence Artificielle n’ai pas encore fait son “Eve-olution” et que votre candidature soit elle aussi rejetée.

Explicabilité de la décision de l’Intelligence artificielle

L’explicabilité n’est pas prévue par ce réseau de neurones dit artificiel ou profond qu’on appelle le Deep Learning. Outil fustigé jusqu’aux années 80 mais de plus en plus présent dans l’Intelligence artificielle aujourd’hui. Il faut savoir, que si on est capable de décoder un programme informatique standard, on est incapable de savoir ce qui se passe dans la « black box » du deep Learning. On connaît ce qui y entre et on considère comme juste ce qui en sort, alors qu’on est incapable d’expliquer ce qui se passe dedans.

Les américains ont eux pris conscience du problème, et, c’est pourquoi ils ont lancé un programme militaire dont la seule ambition est d’expliquer l’Intelligence artificielle: https://www.darpa.mil/program/explainable-artificial-intelligence

Prolifération de biais indirects et habiles

De quels biais parle-t-on? Du sexe, de la zone d’origine du candidat, de l’historique de sa famille, de son lieu d’habitation, de son comportement, conduite, consommation et éventuellement vie privée et secrète. L’algorithme ne fera lui en fait, que reproduire et amplifier les discriminations déjà existantes. Si aucune femme n’a occupé tel poste, ou n’a jamais réussi dans tel secteur d’activité, il en déduira que les femmes sont moins performantes dans ce secteur ,et rejettera la demande, et cela ne fera qu’amplifier les discriminations, et les certitudes mathématiques du Deep Learning.

Autre biais, les Geeks féminins étant peu présents dans l’IA dont le Deep Learning (moins de 15%) l’algorithme est donc le plus souvent construit par des hommes qui sont pour beaucoup passés directement des jeux en ligne aux algorithmes. On peut donc imaginer que cela amplifiera la discrimination dont les femmes sont victimes.

L’intelligence artificielle a-t-elle pris le pas sur les humains

Si on s’intéresse un peu aux mathématiques, l’intelligence artificielle basée sur les probabilités, mais truffées de biais, voire de doublons, ne laissera plus aucune chance à l’ascenseur social, qu’on pourrait appeler en simplifiant l’espérance mathématique.

En théorie des probabilités, l’espérance mathématique d’une variable aléatoire réelle est, intuitivement, la valeur que l’on s’attend à trouver, en moyenne, si l’on répète un grand nombre de fois la même expérience aléatoire. Pour simplifier si vous êtes une personne originaire de telle partie du monde, si vous résidez dans un quartier dit difficile, avant l’IA si vous répétiez inlassablement vos candidatures, vous aviez des chances de réussir, c’est ce que l’on appelle « l’espérance mathématique ». Cette espérance mathématique disparaitra vraisemblablement avec l’Intelligence artificielle.

Un exemple parmi d’autres, de la perte de contrôle par les humains de l’IA qui a incité l’université Carnegie Mellon aux USA a créé un centre de recherche sur l’éthique de l’intelligence artificielle, le K&L . L’université a remarqué lors d’une de ses études qu’une Intelligence artificielle offrait systématiquement des postes moins bien rémunérés aux femmes qu’aux hommes. Les chercheurs n’ont alors ni pu identifier le biais ou l’origine de ce fait, d’où l’idée de création de ce centre d’études.

A quoi s’attendre alors qu’il est impossible d’auditer une décision algorithmique de Deep Learning?

On lit beaucoup de textes enthousiastes sur les perspectives de développement, on lit moins de textes sur l’éthique, les biais cognitifs algorithmiques ou sur les doublons (grand sujet) lors de la construction de l’Algo.

Bien sûr, il n’est pas question que la France devienne le donneur de leçons d’éthique en intelligence artificielle alors que les États-Unis et la Chine eux font du business.

Néanmoins, la non-neutralité des machines et des calculs construits par des humains doit nous mettre en garde contre une confiance aveugle et une vision naïve des données produites par les algorithmes. On rappellera les déboires de Facebook lors des présidentielles US, ou encore récemment cette recherche douteuse sur la reconnaissance faciale concernant l’identification des homosexuels.

La réalité “gênante”, c’est que les algorithmes qui sont mis en service contiennent nombre de biais voir des erreurs de doublons, et que personne ne peut auditer ce qui se passe dans cette « black box » du Deep Learning. Pour faire un parallèle la black box c’est un peu comme un médicament on ne sait pas ce qu’il fait, on ne peut juger que ses résultats et les effets secondaires.

En conclusion, les technos et autres super Geeks devraient cesser de se considérer comme de purs scientifiques, car en fait ils construisent les outils de notre vie de demain, mais cela c’est une autre histoire.

Retrouvez d’autres articles sur le même sujet publiés par l’auteur sur son site: https://bernard-jomard.com 

Retrouvez les articles du HuffPost Tunisie sur notre page Facebook.

Retrouvez les articles du HuffPost Tunisie sur notre page Twitter.

Retrouvez le HuffPost Tunisie sur notre page Instagram.