Tech & internet

Concevoir, expliquer, contrôler les algorithmes qui nous gouvernent

Daniel Le Métayer, mis à jour le 19.03.2017 à 23 h 52

Les outils numériques constituent un atout précieux pour améliorer la transparence de l’action publique et la confiance des citoyens. Mais il faut garantir aussi la transparence et l’intelligibilité de ces outils eux-mêmes, notamment des «algorithmes qui nous gouvernent».

©WeDoData

©WeDoData

Nous vivons dans une «société de défiance»[1]. Les conséquences de cette défiance sont profondes et ses coûts considérables, aussi bien sur le plan économique qu’en terme de cohésion sociale. Nous vivons aussi dans une «société numérique». Les nouvelles technologies offrent une multitude de services et de produits qui constituent un puissant moteur d’innovation. Selon la manière dont on conçoit, on utilise et on encadre ces techniques, elles peuvent soit contribuer à aggraver la défiance, soit fournir de précieux moyens pour la dépasser. Il s’agit de choix fondamentaux, non seulement pour le développement de l’économie numérique elle-même mais aussi, de manière plus large, pour l’avenir de la démocratie. Une première condition de la confiance est la transparence.

Or, les collectes et les traitements de données personnelles sur lesquels reposent une bonne partie de l’économie numérique manquent singulièrement de transparence. Les modes de fonctionnement des algorithmes qui se déploient désormais dans tous les secteurs d’activité ne sont généralement pas connus. Cette opacité est préoccupante quand elle concerne le classement des informations ou des offres commerciales qui nous sont proposées. Elle est inacceptable quand il s’agit de décisions concernant un recrutement, une affectation dans une université, un prêt bancaire, une prime d’assurance ou encore une sanction pénale. Des recherches ont montré que certains algorithmes sont susceptibles de conduire à des discriminations ou des traitements déloyaux. Quelle confiance un citoyen peut-il placer dans ces traitements dès lors que leur logique reste secrète et comment imaginer que leur généralisation ne conduira pas à un renforcement de la défiance?

Le principal obstacle à la transparence est le manque de coopération de la part des responsables (publics ou privés) de ces traitements. Pour le surmonter, il est nécessaire d’imposer une forme de contrôle de ces algorithmes par une autorité indépendante. Celle-ci devrait intégrer une représentation de la société civile de nature à renforcer la confiance des citoyens. La loi pour une République numérique fait un petit pas dans cette direction en soumettant les opérateurs de plateformes à une obligation de transparence et de loyauté mais cette disposition mériterait d’être généralisée. Il faudrait aussi assurer que l’autorité en charge d’un tel contrôle offre toutes les garanties d’indépendance et dispose de moyens financiers et techniques suffisants pour remplir sa mission. Faute de quoi, pareille disposition restera lettre morte. En parallèle, il est urgent de lancer une réflexion sur la légitimité des traitements automatiques et des critères utilisés. Le problème se pose déjà de manière aiguë dans certains secteurs comme ceux des assurances, de la justice ou de la police et fait surgir des questions éthiques et politiques qui doivent faire l’objet d’un débat public.

Le second obstacle à la transparence est de nature technique. Certains algorithmes, notamment ceux qui reposent sur l’apprentissage automatique, peuvent produire des résultats (par exemple des prédictions) précis sans pour autant être «explicables». Il est urgent de renforcer la recherche sur la transparence des algorithmes, notamment pour concilier les objectifs de précision et de compréhensibilité des systèmes.

Bien utilisés, les outils numériques peuvent en retour permettre d’améliorer la transparence de l’action publique. Cette transparence est une condition de la redevabilité[2], principe selon lequel ceux à qui les citoyens délèguent un pouvoir doivent rendre compte de leurs actions. Cette obligation morale est devenue une obligation pratique aujourd’hui car, les sources et les moyens d’information étant de plus en plus nombreux, la probabilité est de plus en plus grande que ce qu’on souhaite dissimuler soit révélé un jour, avec un effet désastreux en matière de confiance.

Pour sortir de la société de défiance, le pouvoir doit prendre les devants, organiser la redevabilité, s’appuyer sur les outils du numérique pour rendre l’action publique non seulement transparente mais aussi «lisible». Au-delà de l’ouverture des données publiques, il s’agit de permettre une «démocratie d’appropriation», selon les termes de Pierre Rosanvallon[3] : «Un mode opaque est un monde étranger, dans lequel on se sent facilement dominé, sur lequel on a le sentiment de n’avoir aucune prise. Un pouvoir dont les ressorts sont plus lisibles apparaît à l’inverse moins extérieur, plus appropriable […] Quand ils se sentent impliqués dans cette circulation d’information et de connaissance, les citoyens établissent donc de fait un nouveau rapport aux gouvernants.»

[1] La société de défiance. Comment le modèle social français s’autodétruit. Yann Algan et Pierre Cahuc, Editions Rue d’Ulm / Presses de l’Ecole normale supérieure, Collection du CEPREMAP.

[2] L’accountability anglo-saxone.

[3] La légitimité démocratique. Impartialité, réflexivité, proximité. Pierre Rosanvallon, Editions du Seuil, 2008.

Daniel Le Métayer
Daniel Le Métayer (1 article)
En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de cookies pour réaliser des statistiques de visites, vous proposer des publicités adaptées à vos centres d’intérêt et nous suivre sur les réseaux sociaux.
> Paramétrer > J'accepte