ALGÉRIE
29/11/2018 15h:15 CET

Recherche scientifique et éthique face à la militarisation de l’intelligence artificielle

Des employés de grandes sociétés du secteur du numérique réclament plus d’informations sur la manière dont leurs entreprises utilisent les solutions technologiques qu’ils ont développées.

La Tribune

Des employés de grandes sociétés du secteur du numérique réclament plus d’informations sur la manière dont leurs entreprises utilisent les solutions technologiques qu’ils ont développées.

Chez Google, Microsoft, Amazon, et Salesforce, ainsi que dans les start-ups technologiques, des ingénieurs et des développeurs de technologies veulent savoir si les produits sur lesquels ils travaillent sont utilisés pour la surveillance électronique des populations dans des pays comme la Chine ou pour des projets militaires aux États-Unis ou ailleurs.

Cette prise de conscience a provoqué un changement par rapport aux anciennes pratiques, lorsque les travailleurs de la Silicon Valley mettaient généralement au point des produits sans trop se demander sur leurs coûts sociaux et politiques. Il s’agit également d’un signe de reconversion de certaines entreprises du secteur des technologies dans l’activité gouvernementale.

Jack Poulson, un ancien professeur assistant au département de mathématiques de l’Université de Stanford, devenu chercheur chez Google, a récemment été mis à mal par les informations selon lesquelles la société était sur le point de revenir en Chine avec une version censurée de son moteur de recherche baptisé “Dragonfly”.

Alors que M. Poulson menait des travaux de R&D sur les technologies de demain, il ignorait l’existence d’un produit technologique nommé “Dragonfly”.

C’est en s’adressant à Jeff Dean, responsable de l’intelligence artificielle (IA) chez Google qu’il a appris que la compagnie travaillait sur des projets qui visent à instaurer une censure des contenus classés comme sensibles par le gouvernement chinois, comme les informations sur les dissidents politiques, la liberté d’expression, la démocratie, les droits de l’Homme et les manifestations pacifiques. Arrivé à un point où il ne pouvait plus travailler pour Google sans renier ses convictions, Jack Poulson démissionne.

Laura Nolan, ingénieur en génie-logiciel qui travaillait chez Google sur un projet d’intelligence artificielle intitulé “Maven” en est un autre exemple. Mme Nolan a démissionné en juin dernier après les révélations de la presse américaine sur l’utilisation par l’armée US de ce projet pour appliquer l’intelligence artificielle développée par Google sur une flotte de drones autonomes munis de caméras.

L’expression de ces objections de conscience a conduit à des tensions croissantes entre les ingénieurs et chercheurs avec les dirigeants de ces entreprises technologiques.

En effet, au cours des derniers mois, les employés de Google, Microsoft et Amazon ont protesté auprès des cadres supérieurs, via la signature de plusieurs pétitions, pour dénoncer l’usage des résultats de leurs travaux de recherche dans le domaine de l’intelligence artificielle afin d’aider des gouvernements à moderniser la surveillance militaire ou à créer de nouveau concepts de gouvernance antinomiques avec les processus démocratiques.

Le rêve “d’être une force positive”

Les ingénieurs de Google ou de toute autre entreprise du secteur technologique rencontrent des difficultés à s’assurer que leur travail ne contribue en aucune manière à faciliter l’utilisation militaire de l’apprentissage automatique (Machine Learning).

Ce manque d’informations sur les tâches à accomplir par les cadres techniques a récemment été mis en évidence chez Clarifai, une startup spécialisée dans l’intelligence artificielle basée à New York. Lors de réunions menées en collaboration avec les dirigeants de Clarifai, autour d’un projet gouvernemental lié à “l’analyse” ou à la “surveillance” et qui “sauverait des vies”, les ingénieurs en IA ont réclamé plus de détails sur la façon dont la startup compte utiliser les algorithmes, les bases de données et les solutions hardwares demandés dans le cahier des charges.

Mais les réponses de la direction n’ont pas été convaincantes. Ce n’est qu’une fois qu’ils ont eu accès aux documents enregistrés dans les systèmes internes de leur entreprise qu’il est devenu clair que la startup a remporté un contrat avec le Pentagone dans le cadre du projet Maven. Deux ingénieurs ont immédiatement quitté la compagnie.

Autre exemple. En juin dernier, plus d’une centaine d’étudiants de la prestigieuse Université de Standford et d’autres grandes écoles d’ingénieurs ont signé un engagement employeur très fort : ils boycotteraient les entretiens d’embauche avec Google, refusant toute forme de militarisation, par des sociétés telles que Google et Microsoft, des technologies du numériques acquises pendant leurs cursus de formation. “Notre rêve est d’être une force positive dans le monde. Nous refusons d’être complices de cet abus de pouvoir flagrant”, ont-ils affirmé dans leur document d’engagement.

Des doctorants en informatique de l’université Northeastern de Boston ont engagé des discussions à l’intérieur de leur campus sur l’épineuse question de travailler ou pas pour des entreprises qui développent des solutions technologiques contraire à l’éthique.

La quasi-totalité des étudiants de cette université ont récemment dénoncé le contrat de recherche de plusieurs millions de dollars conclu entre leur établissement et l’agence de police douanière et de contrôle des frontières du département de la Sécurité intérieure des États-Unis ICE (United States Immigration and Customs Enforcement), jugé contraire à l’éthique.