Recherche scientifique et éthique face à la militarisation de l’intelligence artificielle

30 Nov , 2018 à 0:43  

Par Farid Farah
Des employés de grandes sociétés du secteur du numérique réclament plus d’informations sur la manière dont leurs entreprises utilisent les solutions technologiques qu’ils ont développées.
Chez Google, Microsoft, Amazon, et Salesforce, ainsi que dans les start-up technologiques, des ingénieurs et des développeurs de technologies veulent savoir si les produits sur lesquels ils travaillent sont utilisés pour la surveillance électronique des populations dans des pays comme la Chine ou pour des projets militaires aux Etats-Unis ou ailleurs. Cette prise de conscience a provoqué un changement par rapport aux anciennes pratiques, lorsque les travailleurs de la Silicon Valley mettaient généralement au point des produits sans trop se demander sur leurs coûts sociaux et politiques. Il s’agit également d’un signe de reconversion de certaines entreprises du secteur des technologies dans l’activité gouvernementale. Jack Poulson, un ancien professeur assistant au département de mathématiques de l’Université de Stanford, devenu chercheur chez Google, a récemment été mis à mal par les informations selon lesquelles la société était sur le point de revenir en Chine avec une version censurée de son moteur de recherche baptisé Dragonfly. Alors que M. Poulson menait des travaux de R&D sur les technologies de demain, il ignorait l’existence d’un produit technologique nommé Dragonfly. C’est en s’adressant à Jeff Dean, responsable de l’intelligence artificielle (IA) chez Google qu’il a appris que la compagnie travaillait sur des projets qui visent à instaurer une censure des contenus classés comme sensibles par le gouvernement chinois, comme les informations sur les dissidents politiques, la liberté d’expression, la démocratie, les droits de l’Homme et les manifestations pacifiques. Arrivé à un point où il ne pouvait plus travailler pour Google sans renier ses convictions, Jack Poulson démissionne. Laura Nolan, ingénieur en génie logiciel qui travaillait chez Google sur un projet d’intelligence artificielle intitulé Maven en est un autre exemple. Mme Nolan a démissionné en juin dernier après les révélations de la presse américaine sur l’utilisation par l’armée US de ce projet pour appliquer l’intelligence artificielle développée par Google sur une flotte de drones autonomes munis de caméras. L’expression de ces objections de conscience a conduit à des tensions croissantes entre les ingénieurs et chercheurs avec les dirigeants de ces entreprises technologiques. En effet, au cours des derniers mois, les employés de Google, Microsoft et Amazon ont protesté auprès des cadres supérieurs, via la signature de plusieurs pétitions, pour dénoncer l’usage des résultats de leurs travaux de recherche dans le domaine de l’intelligence artificielle afin d’aider des gouvernements à moderniser la surveillance militaire ou à créer de nouveaux concepts de gouvernance antinomiques avec les processus démocratiques.
Le rêve «d’être une force positive»

Les ingénieurs de Google ou de toute autre entreprise du secteur technologique rencontrent des difficultés à s’assurer que leur travail ne contribue en aucune manière à faciliter l’utilisation militaire de l’apprentissage automatique (Machine Learning). Ce manque d’informations sur les tâches à accomplir par les cadres techniques a récemment été mis en évidence chez Clarifai, une start-up spécialisée dans l’intelligence artificielle basée à New York. Lors de réunions menées en collaboration avec les dirigeants de Clarifai, autour d’un projet gouvernemental lié à «l’analyse» ou à la «surveillance» et qui «sauverait des vies», les ingénieurs en IA ont réclamé plus de détails sur la façon dont la start-up compte utiliser les algorithmes, les bases de données et les solutions hardwares demandés dans le cahier des charges. Mais les réponses de la direction n’ont pas été convaincantes. Ce n’est qu’une fois qu’ils ont eu accès aux documents enregistrés dans les systèmes internes de leur entreprise qu’il est devenu clair que la start-up a remporté un contrat avec le Pentagone dans le cadre du projet Maven. Deux ingénieurs ont immédiatement quitté la compagnie. Autre exemple. En juin dernier, plus d’une centaine d’étudiants de la prestigieuse Université de Standford et d’autres grandes écoles d’ingénieurs ont signé un engagement employeur très fort : ils boycotteraient les entretiens d’embauche avec Google, refusant toute forme de militarisation, par des sociétés telles que Google et Microsoft, des technologies du numérique acquises pendant leurs cursus de formation. «Notre rêve est d’être une force positive dans le monde. Nous refusons d’être complices de cet abus de pouvoir flagrant», ont-ils affirmé dans leur document d’engagement. Des doctorants en informatique de l’Université Northeastern de Boston ont engagé des discussions à l’intérieur de leur campus sur l’épineuse question de travailler ou pas pour des entreprises qui développent des solutions technologiques contraires à l’éthique. La quasi-totalité des étudiants de cette université ont récemment dénoncé le contrat de recherche de plusieurs millions de dollars conclu entre leur établissement et l’agence de police douanière et de contrôle des frontières du département de la Sécurité intérieure des Etats-Unis ICE (United States Immigration and Customs Enforcement), jugé contraire à l’éthique.
F. F.

The post Recherche scientifique et éthique face à la militarisation de l’intelligence artificielle appeared first on .

Source d'origine de l'article : lire.


Recherche scientifique et éthique face à la militarisation de l’intelligence artificielle

30 Nov , 2018 à 0:43  

Par Farid Farah
Des employés de grandes sociétés du secteur du numérique réclament plus d’informations sur la manière dont leurs entreprises utilisent les solutions technologiques qu’ils ont développées.
Chez Google, Microsoft, Amazon, et Salesforce, ainsi que dans les start-up technologiques, des ingénieurs et des développeurs de technologies veulent savoir si les produits sur lesquels ils travaillent sont utilisés pour la surveillance électronique des populations dans des pays comme la Chine ou pour des projets militaires aux Etats-Unis ou ailleurs. Cette prise de conscience a provoqué un changement par rapport aux anciennes pratiques, lorsque les travailleurs de la Silicon Valley mettaient généralement au point des produits sans trop se demander sur leurs coûts sociaux et politiques. Il s’agit également d’un signe de reconversion de certaines entreprises du secteur des technologies dans l’activité gouvernementale. Jack Poulson, un ancien professeur assistant au département de mathématiques de l’Université de Stanford, devenu chercheur chez Google, a récemment été mis à mal par les informations selon lesquelles la société était sur le point de revenir en Chine avec une version censurée de son moteur de recherche baptisé Dragonfly. Alors que M. Poulson menait des travaux de R&D sur les technologies de demain, il ignorait l’existence d’un produit technologique nommé Dragonfly. C’est en s’adressant à Jeff Dean, responsable de l’intelligence artificielle (IA) chez Google qu’il a appris que la compagnie travaillait sur des projets qui visent à instaurer une censure des contenus classés comme sensibles par le gouvernement chinois, comme les informations sur les dissidents politiques, la liberté d’expression, la démocratie, les droits de l’Homme et les manifestations pacifiques. Arrivé à un point où il ne pouvait plus travailler pour Google sans renier ses convictions, Jack Poulson démissionne. Laura Nolan, ingénieur en génie logiciel qui travaillait chez Google sur un projet d’intelligence artificielle intitulé Maven en est un autre exemple. Mme Nolan a démissionné en juin dernier après les révélations de la presse américaine sur l’utilisation par l’armée US de ce projet pour appliquer l’intelligence artificielle développée par Google sur une flotte de drones autonomes munis de caméras. L’expression de ces objections de conscience a conduit à des tensions croissantes entre les ingénieurs et chercheurs avec les dirigeants de ces entreprises technologiques. En effet, au cours des derniers mois, les employés de Google, Microsoft et Amazon ont protesté auprès des cadres supérieurs, via la signature de plusieurs pétitions, pour dénoncer l’usage des résultats de leurs travaux de recherche dans le domaine de l’intelligence artificielle afin d’aider des gouvernements à moderniser la surveillance militaire ou à créer de nouveaux concepts de gouvernance antinomiques avec les processus démocratiques.
Le rêve «d’être une force positive»

Les ingénieurs de Google ou de toute autre entreprise du secteur technologique rencontrent des difficultés à s’assurer que leur travail ne contribue en aucune manière à faciliter l’utilisation militaire de l’apprentissage automatique (Machine Learning). Ce manque d’informations sur les tâches à accomplir par les cadres techniques a récemment été mis en évidence chez Clarifai, une start-up spécialisée dans l’intelligence artificielle basée à New York. Lors de réunions menées en collaboration avec les dirigeants de Clarifai, autour d’un projet gouvernemental lié à «l’analyse» ou à la «surveillance» et qui «sauverait des vies», les ingénieurs en IA ont réclamé plus de détails sur la façon dont la start-up compte utiliser les algorithmes, les bases de données et les solutions hardwares demandés dans le cahier des charges. Mais les réponses de la direction n’ont pas été convaincantes. Ce n’est qu’une fois qu’ils ont eu accès aux documents enregistrés dans les systèmes internes de leur entreprise qu’il est devenu clair que la start-up a remporté un contrat avec le Pentagone dans le cadre du projet Maven. Deux ingénieurs ont immédiatement quitté la compagnie. Autre exemple. En juin dernier, plus d’une centaine d’étudiants de la prestigieuse Université de Standford et d’autres grandes écoles d’ingénieurs ont signé un engagement employeur très fort : ils boycotteraient les entretiens d’embauche avec Google, refusant toute forme de militarisation, par des sociétés telles que Google et Microsoft, des technologies du numérique acquises pendant leurs cursus de formation. «Notre rêve est d’être une force positive dans le monde. Nous refusons d’être complices de cet abus de pouvoir flagrant», ont-ils affirmé dans leur document d’engagement. Des doctorants en informatique de l’Université Northeastern de Boston ont engagé des discussions à l’intérieur de leur campus sur l’épineuse question de travailler ou pas pour des entreprises qui développent des solutions technologiques contraires à l’éthique. La quasi-totalité des étudiants de cette université ont récemment dénoncé le contrat de recherche de plusieurs millions de dollars conclu entre leur établissement et l’agence de police douanière et de contrôle des frontières du département de la Sécurité intérieure des Etats-Unis ICE (United States Immigration and Customs Enforcement), jugé contraire à l’éthique.
F. F.

The post Recherche scientifique et éthique face à la militarisation de l’intelligence artificielle appeared first on .

Source d'origine de l'article : lire.