Vers des algorithmes responsables ?

L’Institut Montaigne a contribué à la consultation publique de la Commission européenne sur le Digital Services Act, le texte européen visant à responsabiliser les intermédiaires numériques. Que ce soit dans les secteurs des médias, du transport, du recrutement ou du e-commerce, on reproche aux plateformes le manque de transparence des technologies qu’ils utilisent pour faire fonctionner leurs services. Ces plateformes s'appuient sur des algorithmes pour prendre des décisions à l'échelle ou recommander des contenus. Si ces algorithmes sont souvent mal compris par les acteurs publics, ils peuvent causer des problèmes importants, en prenant des décisions discriminantes, en favorisant des contenus problématiques, en incitant certaines actions…

© Fotolia.com

Cet article se concentre sur la question difficile des algorithmes et propose des solutions pour résoudre le problème du contrôle de leurs biais potentiels. Il s’appuie sur le rapport Algorithmes : contrôle des biais S.V.P, publié par l'Institut Montaigne en mars 2020.

Depuis la mort de George Floyd en mai dernier à Minneapolis, les protestations s’enchaînent aux États-Unis pour réclamer une réforme radicale des pratiques de la police. Les protestations ont gagné quasiment chaque continent, de Rio à Madrid, en passant par la France. De nombreux chefs d’entreprises ont apporté leur soutien au mouvement. Les algorithmes et l’intelligence artificielle sont parmi les pratiques pointées du doigt. PredPol, qui vend un logiciel de police prédictive - prédire où et quand se produiront les prochains crimes -, a été fortement critiqué pour les biais des ses systèmes. L’entreprise a rappelé que son logiciel avait été conçu avec l’espoir d’améliorer les pratiques de la police, c’est à dire en "diminuant les biais, augmentant la transparence, et en renforçant la responsabilisation de chacun".

Face aux biais des policiers humains, PredPol, mais aussi IBM, Microsoft ou Palantir, promeuvent la mise en place d’algorithmes qui viendraient corriger ces biais. Leurs détracteurs sont pourtant nombreux, qui voient au contraire dans ces algorithmes un risque de renforcer les biais plutôt que de les corriger. Cet été, 1 400 mathématiciens ont ainsi signé une lettre appelant au boycott des logiciels de police prédictive. La police de Los Angeles a décidé d’abandonner PredPol, considérant que les données historiques sur lesquelles est entraîné l’algorithme reflètent trop d’anciennes pratiques de discrimination envers les afro-américains pour donner des prédictions satisfaisantes.

Lire la suite (Institut Montaigne)