Des algorithmes filtrent, classifient, et priorisent chacun de nos comportements numériques. Produits d’une réflexion humaine, ils sont le reflet des biais de leurs concepteurs comme le montre l’enquête ProPublica, publiée en mai 2016 : le modèle de « maintien de l’ordre préventif » utilisé par beaucoup de départements de police américains avait deux fois plus de chances de prédire, à tort, qu’un individu noir était un « élément à risque » et qu’un individu blanc était un « élément à faible risque ». Leur place croissante dans notre quotidien oblige les journalistes à s’y intéresser mais face à ces black box, ils sont souvent obligés de tâtonner pour comprendre à quelles logiques ils obéissent. Ce travail d’enquête n’est pas aisé comme l’explique Nicholas Diakopoulos, chercheur en sciences de l’information et en informatique à l’université du Maryland, parce que la méthode « d’ingénierie inversée » comporte également des biais, faussant possiblement l’enquête. Pour enquêter avec la moins de marge d’erreur possible, il faudrait instaurer une transparence totale des algorithmes. La loi votée en 2016 « pour une République numérique », qui prévoit la publication des algorithmes publics, est un premier pas pour permettre l’information des citoyens.
A lire sur le blog J’ai du bon data.