Your browser does not support JavaScript!

Les biais algorithmiques : un défi majeur dans nos sociétés numérisées

Notre quotidien est gouverné par des algorithmes. Ils s’immiscent dans notre vie, quels que soient notre place et notre âge dans la société. L’algorithme omnipotent nous semble paradoxalement invisible. Les résultats du sondage mené par l’IFOP pour la CNIL en janvier 2017 sont éloquents : « si 83 % des Français ont déjà entendu parler des algorithmes, ils sont plus de la moitié à ne pas savoir précisément de quoi il s’agit (52 %). Leur présence est déjà appréhendée comme massive dans la vie de tous les jours par 80 % des Français qui considèrent, à 65 %, que cette dynamique va encore s’accentuer dans les années qui viennent. »[1]

Épisode 1 : L’algorithme, la nouvelle main puissante et invisible

Les gestes du « clic » sur la toile, de recherches d’emploi, d’achats sur le web, de téléchargement d’applications, de réservation d’une chambre d’hôtel, d’accès aux services publics numériques s’habillent d’une apparente neutralité. Parce qu’un algorithme est le produit de technologie et de superposition de strates informationnelles complexes, il échapperait à la maîtrise et à la régulation, y compris de ses concepteurs. Or, l’algorithme est le résultat d’interventions humaines successives qui brouillent le principe de responsabilité dans nos sociétés numérisées.

L’algorithme existe depuis des décennies, notamment dans le secteur bancaire, comme le rappelle le rapport intitulé « Algorithmes : prévenir l’automatisation des discriminations » publié en 2020 par le Défenseur des droits. En effet, afin d’évaluer le risque financier par les banques, des algorithmes ont été mis en place visant à combiner différents critères tirés des renseignements fournis par les demandeurs de prêts. Un algorithme est donc un ensemble de règles et d’instructions écrites en vue d’obtenir un résultat.

L’utilisation intensive des algorithmes permise par la « puissance de calcul des ordinateurs et à l’exploitation massive de données » a entraîné une révolution dans les usages impliquant aussi bien le secteur privé que les administrations publiques, tous secteurs confondus : justice, police, collectivités locales, santé, loisirs, culture, emploi, éducation… Les algorithmes, couplés à l’intelligence artificielle, ont donné naissance au « machine learning », technologie de l’apprentissage automatique. Ces avancées technologiques engendrent des progrès incontestables. Dans le rapport parlementaire du député et mathématicien Cédric Villani, intitulé « Donner un sens à l’intelligence artificielle », sont mis en exergue quelques performances en matière de santé : « l’outil DeepMind de Google s’appuie sur une technologie de lecture labiale automatique pour permettre aux personnes malentendantes de mieux comprendre et de restituer une discussion. Salesforce a lancé un algorithme de résumé et de production automatique de texte pour les personnes souffrant de troubles de l’attention. »

Certes, les algorithmes créent les conditions nécessaires à des évolutions spectaculaires, de la voiture autonome au développement des villes intelligentes, plus communément appelées « smart cities ». Ils démontrent ainsi une efficacité dans le traitement répétitif à grande échelle, dans le tri de millions de résultats et de proposer la solution la plus optimale possible.

Mais cet agrégat d’informations draine de nombreuses inquiétudes. L’étude «  Algorithmes : biais, discriminations et équité » publiée en 2019 par Telecom Paris Tech, en collaboration avec la fondation Aebona, indique que les algorithmes d’apprentissage statistique ont besoin d’une massification de données pour produire des résultats, et la qualité des données détermine la qualité des résultats. Les chercheurs posent ainsi la question : « que se passe-t-il si les données sont erronées ou faussées ? » Par ailleurs, la quantité de data exploitées ne spécifie pas les conditions de collecte de ces données. Aussi, il semble compliqué d’apporter un regard homogène sur l’exploitation des résultats.

La main de l’homme, créateur du biais algorithmique

Les résultats des algorithmes dépendent de la manière dont les programmeurs les ont écrits. « Un algorithme n’est en réalité qu’une opinion intégrée aux programmes », selon l’expression de la mathématicienne Cathy O’Neil. Le concept de neutralité technologique n’est pas pertinent pour les chercheurs qui lui préfèrent celui de loyauté, « impliquant que les résultats produits soient conformes aux attentes des utilisateurs et des consommateurs. »

Le Défenseur des droits pointe que l’abondance des data n’empêche pas le manque de représentativité des données mobilisées. Le rapport fait appel à une étude réalisée en 2018 expliquant en quoi les systèmes de reconnaissance faciale attestent de grandes difficultés « pour identifier les femmes, les personnes non blanches et davantage encore les femmes de couleur, en produisant un taux d’erreur significatif pour ces populations : le stock de données sur lesquelles le modèle s’appuyait était marqué par une très forte prédominance des visages masculins et blancs. » Les algorithmes sont une traduction mathématique d’un logiciel qui est daté, entraînant des discriminations systémiques.

[1] Sondage extrait du rapport de la CNIL, « Comment permettre à l’homme de garder la main : les enjeux éthiques des algorithmes et de l’intelligence artificielle », 2017

Dossier spécial : les biais algorithmiques

Par Anna Mélin