13.7 C
Londres
jeudi, juin 30, 2022

Emplois, erreurs judiciaires… Les effets pervers à la pelle de l’Intelligence artificielle

C’est la face obscure de l’intelligence artificielle, celle dans laquelle les algorithmes se trompent, influençant la vie des citoyens de la pire des manières. Devant la montée du phénomène, l’Organisation des Nations Unies (ONU) tire la sonnette d’alarme. Par la voix de Michelle Bachelet, Haute commissaire des droits de l’homme, elle demande qu’un moratoire freine l’adoption de l’IA dans certains secteurs, le temps d’évaluer les risques et de mettre au point les bonnes réglementations. 

Qu’est ce qui inquiète à ce point l’ONU ? L’adoption par les Etats ou les sociétés privées d’outils capables d’influencer notre revenu, notre carrière ou même notre casier judiciaire. Les dysfonctionnements de l’IA ont empêché certains citoyens de toucher des aides sociales ou de trouver un emploi, estime le rapport. Tout aussi problématique, des systèmes de reconnaissance faciale mal entraînés ont conduit à des arrestations de personnes innocentes. Le document ne donne pas d’exemple précis. Mais l’actualité de ces derniers mois confirme les craintes de l’organisation : la liste des victimes d’algorithmes grandit. 

Le groupe Vice Média relatait récemment l’histoire de livreurs incités à prendre des risques afin de respecter les consignes du logiciel de guidage conçu par Amazon. Selon les témoignages recueillis, l’algorithme réduirait au maximum le nombre d’arrêts et ne prendrait pas en considération le fait que les salariés doivent parfois traverser la route à plusieurs reprises pour livrer des colis à des adresses proches. Ce n’est pas la première fois que le géant de la Tech crée des remous avec ses algorithmes. Amazon avait visiblement développé un programme d’évaluation automatique d’une partie de ses employés. Celui-ci pouvait même se charger d’envoyer des e-mails de licenciement.  

Offre limitée. 2 mois pour 1€ sans engagement

On imagine les dérives possibles d’un tel système s’il se généralisait. Mais n’est-il pas déjà trop tard ? De plus en plus de salariés sont choisis par des algorithmes lorsqu’il s’agit de répondre à des offres d’emploi. Les biais possibles sont nombreux : le site AlgorithmWatch en cite un parmi d’autres : certaines personnes seraient systématiquement exclues du processus de recrutement en raison de leur pays de résidence. De la même manière, des millions de CV n’arrivent sans doute jamais sous les yeux des recruteurs, écartés en raison de considérations analytiques.  

Encadrer plutôt qu’interdire

Mais il y a pire : l’erreur judiciaire. Aux États-Unis, le cas de Michael William fait couler beaucoup d’encre. Accusé de meurtre, son incarcération doit beaucoup à un algorithme dont le but est de déterminer la position précise d’un coup de feu grâce à des capteurs disséminés dans la ville. Problème : la fiabilité de ce système est contestée par une enquête journalistique.  

« Globalement, on est assez loin des films de science-fiction, même pour les systèmes d’IA les plus avancés », reconnaît Nicolas Méric, CEO de la fintech française DreamQuark et coauteur d’un livre blanc intitulé État de l’IA éthique en 2020 : Les défis posés par l’éthique aux entreprises qui développent l’IA. Néanmoins, l’entrepreneur n’est pas favorable à un moratoire : « Celui-ci pénaliserait aussi les acteurs ayant des pratiques vertueuses. Car même dans le recrutement, il est possible de créer des externalités positives grâce à des algorithmes visant justement à corriger des situations inégalitaires. Mieux vaut donc encadrer là où il y a le plus de risques et donner des moyens aux autorités de contrôle ».  

La bonne nouvelle, c’est que l’Europe a pris le taureau par les cornes. Au printemps dernier, elle a présenté un cadre législatif visant à lutter contre les biais algorithmiques dans des domaines clés comme les voitures autonomes ou les prêts bancaires. En cas de dérives, les acteurs ayant mis en place des systèmes générant des effets néfastes risquent une amende pouvant aller jusqu’à 6% du chiffre d’affaires. 

L’application L’Express

Pour suivre l’analyse et le décryptage où que vous soyez

Télécharger l’app

Mais il faudra du temps avant que ces règles n’entrent en vigueur. « Certaines ne peuvent pas être appliquées en l’état, explique Nicolas Méric. Par exemple, l’Europe voudrait que les jeux de données servant à entraîner les IA ne comportent aucune erreur. Or ce n’est pas possible ». Les négociations sur le texte sont donc loin d’être terminées d’autant que les lobbies, très nombreux à Bruxelles, vont aussi entrer dans la danse. S’il n’y a pas de contretemps, le Vieux Continent devrait appliquer son nouveau cadre légal en 2023. Mais d’ici là, l’IA aura sans doute fait de nouvelles victimes.  

Opinions

Chronique

Par David Baverez

Chronique

Par Christian Gollier, économiste à la Toulouse School of Economics.

Chronique

Par Christophe Donner

Chronique

Par Sylvain Fort

Les dernières nouvelles
Nouvelles connexes

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici