Quelques jours après qu’IBM ait pris la mesure sans précédent d’ arrêter tout développement, recherche et vente de sa technologie de reconnaissance faciale en raison des craintes qu’elle cible injustement les personnes de couleur, Amazon a déclaré qu’elle imposerait également un moratoire d’un an sur Rekognition, son propre logiciel de reconnaissance faciale largement mis en œuvre.
Amazon cessera de vendre le logiciel aux services de police, bien qu’il ne soit pas clair si cela aura un impact sur les services qui utilisent déjà l’outil.
Une technologie fortement critiquée
Pendant des années, les critiques de la technologie d’Amazon ont souligné son biais algorithmique problématique, quelque chose qui afflige la technologie de reconnaissance faciale dans son ensemble. Un test a été réalisé par l’American Civil Liberties Union (ACLU) en juillet 2018. Ils ont ainsi remarqué qu’il correspondait à tort à 28 membres du Congrès comme d’autres personnes arrêtées pour un crime. L’ACLU a déclaré avoir utilisé l’outil accessible au public pour effectuer ces tests pour seulement 12,33 dollars.
Voici une vidéo relatant cette nouvelle en anglais :
Cette étude révèle l’importance du fait de rejoindre l’ACLU afin de demander une interdiction complète de cette technologie de surveillance par les autorités.
Des données impertinentes
Dans un rapport cinglant de mai 2019 du Centre de Georgetown Law sur la confidentialité et la technologie (CPT), intitulé « Garbage In, Garbage Out », les auteurs expliquent en détail comment les services de police du pays fournissent des données erronées aux logiciels de reconnaissance faciale. Lors de la recherche d’un suspect, la police montrera un algorithme des photos de célébrités qui, selon eux, partagent des caractéristiques physiques avec le suspect ou des croquis composites.
Puis, en janvier 2019, l’informaticienne ghanéenne et américaine Joy Buolamwini a publié une étude qui a révélé que l’outil de rekognition d’Amazon classait les femmes comme des hommes dans 19 % des cas, et le logiciel identifiait par erreur les femmes à la peau foncée 31% du temps.