QN2019 - RESET - Quel numérique voulons-nous ?

QN2019 - RESET - Quel numérique voulons-nous ?

L’édition 2018-2019 du cycle de prospective de la Fing « Questions numériques ».


Défi : Rendre concrètement les algorithmes responsables et équitables

Citations : 

« Un bon codeur est celui qui est capable de penser de façon critique les conséquences fortuites engendrées par son code», danah boyd (source : Failles, biais, erreurs… faut-il croire tout ce que nous disent les algorithmes ?)

L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle. Nous devons collectivement faire en sorte que ces nouveaux outils soient à la main humaine, à son service, dans un rapport de transparence et de responsabilité”, Isabelle Falque-Pierrotin, présidente de la CNIL (source : la CNIL)

 

Pourquoi nous avons besoin d’un “reset” (ce qui se passe mal, ce qui ne peut plus durer)

Les algorithmes sont conçus pour améliorer la prise de décision humaine et résoudre des problèmes, or les biais algorithmiques sont nombreux (biais sexistes, racistes, sociales), et les algorithmes loin d’être neutres et objectifs, ils “sont des opinions formalisées dans du code”, comme le souligne la data scientist Cathy O’Neil. Ils sont souvent opaques, impénétrables et renforcent donc les injustices existantes. Dans une société où des décisions aux enjeux critiques sont laissées aux mains des algorithmes et des systèmes (pilotage d’une voiture autonome ; affectation dans l’enseignement supérieur des élèves de terminales ; gestion de l’assistance sociale dans certains états des États-Unis), il est nécessaire de rendre les algorithmes et systèmes responsables, équitables et compréhensibles.

 

Des visions alternatives existent déjà

De nombreuses institutions appellent à rendre le code des algorithmes publics ouverts, transparents et responsables (président français, gouvernement britannique), à établir un cadre éthique des données (Nesta), des principes pour améliorer la prise de décision algorithmique (Data Practices) ou encore un serment d’Hippocrate pour Data Scientist (Data for good). Des initiatives comme Cozy ou Snips essaient de rendre les algorithmes plus éthiques en les rendant plus transparents pour l’utilisateur.

Le projet NosSystèmes à la Fing a également esquissé 5 leviers pour améliorer la responsabilité sociale des systèmes (responsabilité par la médiation, explicabilité, jouabilité, symétrie et justiciabilité). Mais comment rendre ses initiatives concrètes pour que les algorithmes et les systèmes soient vraiment responsables, transparents et sans biais ? L’idée proposée par Algorithm Data Ethics Label (ADEL) est par exemple de labelliser le traitement des données.

 

Acteurs qui y travaillent déjà

Data for good, Nesta, CNIL, CNNum, ADEL, Institut IA Now, Milad Doueihi, Dominique Cardon, la Fing avec son projet NosSystèmes

 

Dossier de veille : https://docs.google.com/document/d/1Zsn_qyJGs64N9zJLz3gv9Q6kF7A2pU4n4gNPsEimKKQ/edit


Vous devez vous identifier pour ajouter un commentaire.
Veuillez vous identifier, ou créer un compte.

Conception & réalisation : Facyla ~ Items International

Plateforme construite avec le framework opensource Elgg 1.8

Feedback

Vous avez une remarque à faire, de nouvelles idées à proposer ou un bug à signaler ? Nous serions ravis d'avoir votre retour.
Humeur :  

A propos de :  

 

» Afficher les précédents feedbacks