Pour une médiation expérimentale de l'IA

Les promesses d’utilisation de l’Intelligence Artificielle (IA) dans de nombreux domaines d’application rend nécessaire d’informer la population des ambiguïtés éthiques que son usage soulève de manière à ce qu’elle soit capable de comprendre et d’agir en tant que citoyen.

Les promesses d’utilisation de l’Intelligence Artificielle (IA) dans de nombreux domaines d’application rend nécessaire d’informer la population des ambiguïtés éthiques que son usage soulève de manière à ce qu’elle soit capable de comprendre et d’agir en tant que citoyen. Les algorithmes qui régissent nos vies sont actuellement développés en dehors de tout contrôle démocratique, excepté lors de publications ou de conférences.

Pour faire face à ce défi, le projet Civicia proposé par Colportic pose la question de comment construire un dispositif expérimental de médiation de l’IA à but pédagogique et citoyen qui soulève des questions d’éthique.

Cette expérience devra permettre de faire découvrir les étapes de conception et d'évolution d'un système IA, de façon à mettre en évidence la part d’expertise acquise par le système vis-à-vis de la contribution humaine à la conception des algorithmes et au choix des corpus de données

De manière à évaluer les potentialités de cette approche, Colportic a confié à la Master Class 2021 de Grenoble IAE, une mission de consulting intitulée Projet Civicia.

Le projet

Le projet Civicia a pour objectif de faire découvrir au Grand Public au moyen d’un dispositif expérimental à définir lors du lors du prochain Festival TRANSFO 2021 certains aspects du développement de l’IA qui soulèvent des questions d’éthique pour lesquelles il n’est pas souhaitable de laisser les choix technologiques uniquement entre les mains des ingénieurs, des chercheurs et des industriels en charge de leur diffusion.

Pour mener à bien cette tâche, le projet Civicia souhaite mobiliser les énergies dans le milieu académique et industriel pour constituer une petite équipe pluridisciplinaire passionnée par la médiation expérimentale des sciences et des techniques.

La tâche de cette équipe consistera d’abord à identifier les thèmes qui soulèvent des questions d’éthique méritant d’être médiatisées pour le Grand public. Ce groupe de réflexion devra ensuite décrire des scénarios d’expériences numériques basées sur des algorithmes de l’IA accessibles à tous sur un serveur Web, en utilisant des corpus de données Open Source.

Les retours d’expérience sous toutes les formes possibles, en particulier par la collecte des données de l’activité des publics (avec leurs consentements), des enquêtes et des compte-rendu nourriront des publications scientifiques permettant d’orienter les choix technologiques à venir et les correctifs à apporter aux diverses technologies mobilisées par l’IA

Démarche de la Master Class Grenoble IAE pour le projet Civicia

La Master Class de l’Institut d’Administration des Entreprises de Grenoble (IAE) qui a travaillé sur ce projet, est un groupe pluridisciplinaire de 10 étudiants mettant au service de Colportic conseil leur expertise sous forme d’une prestation de conseil pour faire émerger le projet Civicia.

Le projet Civicia a l’ambition de construire un dispositif de médiation par l'expérience qui permettrait à tout un chacun de comprendre la construction et le déploiement d’une IA. En facilitant et vulgarisant cette création, du choix de la data aux conséquences réelles que cela pourrait avoir sur la société, Civicia veut avoir le feedback des citoyens pour mieux comprendre comment créer un algorithme de façon éthique.

  • La question à laquelle nous voulons répondre relève de l’éthique de l’Intelligence Artificielle. Comment la médiation peut-elle mener à l’émancipation des citoyens dans le cas de l’intelligence artificielle ?

Notre rôle en tant qu’équipe de consultants mêlant spécialistes des ressources humaines, de l’entrepreneuriat et de l’innovation, est de former un groupe de réflexion et de propositions de professionnels pour faire avancer ce projet le collaboratif Civicia. Pour cela, il nous faut dans un premier temps identifier les compétences nécessaires pour réaliser le projet et définir les profils types qui en découlent, afin de former une équipe pluridisciplinaire efficace et investie. Une fois cette étape réalisée, il faudra mettre en place une stratégie de communication afin de recruter des personnes correspondant à ces profils.

A terme, c’est la participation au festival Transfo 2020 autour du numérique, qui permettra au Grand Public de découvrir une autre approche de l’IA et le lancement d’un projet ambitieux ayant pour but une finalité citoyenne.

Cette équipe aura donc pour mission de faire découvrir au public les étapes de conception et d'évolution d'un système d'intelligence artificielle, afin d’avancer vers l'objectif du projet qui est une médiation autour de l'IA. Ils devront être compétents sur la technologie et sur les sujets d'éthique autour de l'IA mais également, ils devront être en mesure de vulgariser leurs connaissances et le propos général pour valoriser la compréhension d’un sujet, dense, évolutif et technique, et faciliter la transmission auprès du grand public. L’équipe devra être disponible pour le festival Transfo. Des profils issus de la région Auvergne Rhône-Alpes sont privilégiés.

Intérêt porté à la médiation

Ce paragraphe traite de la nécessité de travailler sur une médiation expérimentale de l’IA.

A ce jour, il n’y a pas de dispositifs d’expérimentations sur le marché traitant la médiation qui adressent spécifiquement les enjeux éthiques de l’IA. Travailler de ce sujet est une première et une approche différenciée de ce domaine spécifique. C’est la volonté du projet Civicia.

C’est tout d’abord créer une approche expérimentale, pour divers publics, diverses cibles, divers segments de la population. Vulgariser le propos autour de l’IA pour rendre accessible ce domaine, en comprendre les enjeux, les limites, les évolutions possibles. Informer les publics par une médiation vulgarisée pour ensuite leur permettre de se comporter en citoyens informés des enjeux éthiques que soulève l’IA.

Le projet vise à construire un dispositif permettant aux publics d'expérimenter par eux-mêmes l’intelligence artificielle de manière abordable pour un néophyte. De la sélection des données nourrissant l’IA à son déploiement, l’utilisateur devra avoir expérimenté lui-même la construction d’une expertise du système. Il devra être confronté aux possibles conséquences morales de ses choix, comme si le système devait être mis en exploitation.

Le dispositif vise, à travers cette expérience, à mettre en valeur les ambiguïtés éthiques liées à l’utilisation de l’IA pour récolter les feedbacks des utilisateurs.

C’est en ceci que Civicia veut construire une médiation expérimentale et citoyenne de l’IA, loin des décisions unilatérales des industriels et des développeurs du secteur qui construisent les IA en y insérant leurs propres biais hors de la portée des citoyens lambda. Civicia souhaite que le retour des utilisateurs soit valorisé et écouté par les professionnels des domaines applicatifs concernés désireux de construire des IA éthiques et citoyennes.

Cette nouvelle approche diffère des formations et des cours de présentation de l’IA qui ont été faits jusque-là.

Les seules formations expérimentales à l’IA ont été conçues, soit en ligne comme par exemple « Teachable Machine » de Google, ou soit dispensés dans des écoles dans le cadre d’expériences pilotes. Mais aucune de ces approches expérimentales ne questionne les aspects éthiques et citoyens.

C’est pour cela que Civicia a l’ambition de se différencier par son ambition de toucher le public le plus large possible tout en l’exposant aux problématiques difficiles posées par l’IA.

Références documentaires

Pour reprendre l’expression de Philippe Vion-dury, dans son livre, “La nouvelle servitude volontaire”, la société numérique, portée par des réussites commerciales conséquentes s’accompagne de son lot de difficultés éthiques.

Les algorithmes présents dans tous les aspects de la vie, de la personnalisation en ligne à la justice, en passant par les assurances et les Nudges, les algorithmes sont partout et témoignent d’une vision idéologique opposant des visions du monde contraires.

L’anticipation, le probabilisme, la régulation algorithmique que représentent ces nouveaux outils témoignent d’une vision presque politique, entre la boîte de Skinner et la société de contrôle théorisée par Foucault, et méritent d’être compris par les citoyens.

La prédiction de récidivisme assisté par IA est un exemple souvent repris. Pour prendre une décision, le juge repose sur un algorithme se basant sur toutes les décisions de justice précédentes. Ainsi si un groupement de personnes est persécuté historiquement en un lieu précis, l’algorithme reproduira cette injustice. Ici l’exemple des Afro-Américains aux USA est souvent cité. On parle alors de discrimination algorithmique.

Pour comprendre comment un algorithme peut être discriminatoire il est nécessaire de définir discrimination. La définition la plus classique de discrimination se concentre sur ce qui en fait quelque chose de « mal ». Ainsi l’intention de nuire à un groupe, ou un type de personne est l’élément clef d’une discrimination « négative », ce type de définition est défendue par des philosophes tels que Richard Arneson et Thomas Scanlon.

En suivant cette approche, un algorithme ne pourrait donc pas être discriminatoire, car il ne possède pas d’intention propre qui ne lui soit pas insufflée par un ou plusieurs ingénieurs.

Ainsi l’algorithme ne serait pas discriminatoire, les ingénieurs l’ayant créé seraient à blâmer dans le cas où ils l’auraient créée ainsi intentionnellement.

Pour agrandir le spectre de la discrimination, certains considèrent que celle-ci peut émaner d’une négligence résultant en un algorithme biaisé.

Le débat actuel met l’emphase sur l’inaptitude des algorithmes à traiter les personnes en tant qu’individus, cette discrimination présumée des algorithmes se traduit par des suppositions erronées qui pourraient heurter les utilisateurs.

Voici un exemple fourni par Google, la déclaration d’une personne pour illustrer la tension : « Ce n’est pas le genre « Voudriez-vous acheter une maison ? « Voudriez-vous acheter un bateau ? » … Non, ils m’ont déjà mis l’étiquette de personne à bas revenu. »

Le problème étant que les algorithmes utilisés pour la publicité et les recommandations ont une approche souvent probabiliste, la généralisation est leur nature puisqu’ils recherchent la similitude, les clusters de comportements, la régularité dans l’apparition d’un événement. Ainsi ce qui est pointé du doigt est la discrimination statistique, définit par Phelps en tant que « L’usage d’une généralisation statistique de l’attribut d’un groupe pour prédire le comportement futur des membres de ce groupe ». Cependant le débat ainsi que l’opinion populaire a réduit la définition d’une « discrimination négative » à quelques critères tels que le genre, l’ethnie, la religion. Critères plus sensibles que des critères tels que « sportif/ non sportif » par exemple (Binns, 2018).

Des éléments de la justice déontique sont aussi représentés par Google, la volonté de compenser pour des biais sociétaux résultant d’une réalité sociale et historique précise. On peut aussi observer une sorte de volonté de représentation résultant d’une vue égalitarienne. De plus, des considérations spécifiques sont encouragées lorsqu’il s’agit de traiter des attributs sur eux-mêmes que les individus n’ont pas choisis, tels que l’ethnie ou le lieu de naissance, perspective héritant du « Luck égalitarianism » (Binns, 2018).

On peut voir que la popularité des termes de recherches n’est pas reflétée dans la fonction « Google autocomplete » contrairement à ce qu’ils laissent entendre dans la page décrivant le fonctionnement de la feature. C’est ce que Google nomme « La justice algorithmique » ou « Algorithm fairness »,;pour compenser les biais sociétaux (définis par Google) présents dans la data servant à entraîner les algorithmes. Google joue donc un rôle éditorial dans ce qui est montré aux utilisateurs qui ne reflète pas tout à fait la réalité statistique de la data (considérée biaisée). Google se permet donc de modifier l’algorithme pour le forcer à donner des résultats en adéquation avec cette philosophie.

Cette démarche tout à fait louable ne correspond cependant pas à un consensus scientifique, Google a en effet une stance idéologique relevant d’une morale précise alors que l’entreprise se pose en tant qu’entité neutre et non biaisée. Ainsi, si les stances et actions « éditoriales » de Google ne sont pas communiquées clairement aux utilisateurs, ceux-ci peuvent se retrouver négativement impactés par leur ignorance du positionnement de l'entreprise. Comme mentionné précédemment, aucune stratégie de justice algorithmique ne fait l’objet de consensus, il est impossible de formaliser la justice algorithmiquement, ce qui force une prise en main humaine qui s’accompagne de sa subjectivité (Corbett-Davies, Goel, 2018).

Pour remédier à cela plusieurs approches ont été explorées :

  • L’anti-classification, cette logique requiert de ne pas prendre en considération les caractéristiques protégées telles que l’ethnie, le genre, etc.
  • La parité de classification, cette technique nécessite qu’une certaine mesure de performance prédictive soit égale à travers les groupes définis par la caractéristique protégée. => ce qui déplace le problème vers une nouvelle question : comment quantifier cette performance ?
  • La calibration, celle-ci consiste à faire en sorte que la réponse de l’algorithme soit indépendante des attributs protégés après avoir évalué les risques. => ce que semble faire les sociétés qui vendent des prestations « humanistes » en plus de l’activité de Data Scientist. Et cela renvoie bien à cette idée que l’IA est tout, sauf une « intelligence artificielle », car elle est a besoin d’une grosse dose d’intelligence humaine.

Ces trois approches sont très limitées, en effet les intelligences artificielles construites en utilisant ces pratiques peuvent, contre intuitivement, causer préjudice aux groupes qu’elles sont censées protéger (Corbett-Davies, Goel, 2018). Par exemple si un algorithme ne considérant pas le genre doit prédire la probabilité de récidive d’une femme ayant commis un crime, celui-ci pourrait lui porter préjudice, car la probabilité de récidive des hommes est bien plus haute que celle des femmes.

Face à l’échec de ce genre de tentative de transcrire la justice algorithmiquement, les géants du web prennent des décisions éditoriales en tentant de corriger les biais de la data avec un parti pris idéologique dans lequel les citoyens n’ont pas leur mot à dire.

Initiatives interpelant la société sur l’IA

L’objectif de ce tour d’horizon des initiatives évoquant les dimensions sociétale et éthique de l’IA montre qu’à de très exceptions près, il n’est jamais évoqué la nécessité d’introduire une dimension expérimentale de la médiation éthique de l’IA conçue pour un large public.

Ces citations permettent d’apprécier « en creux » la pertinence de l’ambition du projet Civicia.

AI4EU (Artificial Intelligence for European Union)

La Commission européenne a lancé le projet AI4EU le 10 janvier 2020 à Barcelone. L’ambition du projet est de réunir et d’animer la communauté européenne de l’IA au sein d’une entité unique. Mais le projet AI4EU a aussi pour ambition de promouvoir des valeurs chères à l’Europe, comme l’éthique, la transparence, et l’explicabilité des algorithmes.

Avec un Comité scientifique, un Comité industriel, et un Comité d’éthique, les caractéristiques du projet sont :

  • Un écosystème de plus de 20 pays ouvert à la recherche et à l’industrie
  • La création d’une plateforme d’IA de services à la demande pour partager des ressources et des projets
  • La mise en place de pilote industriels
  • Activités de recherches sur les domaines de l’explicabilité, les innovations technologiques, l’IA collaborative et intégrée.
  • Le soutient à l’essaimage et à la création de startups
  • La création d’un observatoire de l’éthique

La Finlande met à disposition de l’Europe un cours en ligne vulgarisé sur l’IA

La Finlande qui a déjà formé 270 000 personnes à l'intelligence artificielle, a annoncé le 10 décembre 2019, en marge de la réunion des ministres de l'emploi de l'UE, mettre à disposition de tous les citoyens de l'Union européenne son cours en ligne « Welcome to the Elements of AI free online course ! ». Ce cours sera progressivement traduit dans toutes les langues de l’UE. 

Ce cours en ligne à été développé par l'Université d'Helsinki et l'agence finlandaise Reaktor (les créateurs du progiciel sur tablette de commande des robots en LEGO), et a couté plus d’un 1,5 millions d’euros.

Le lancement de l’initiative « #MissionIA »

L’Ex Premier Ministre Édouard Philippe a lancé officiellement la stratégie nationale sur l’intelligence artificielle (IA) en septembre 2017 en détaillant les enjeux et les atouts de la France pour ce projet. Outre les enjeux économiques, et les enjeux de souveraineté et de sécurité, évoqués dans cette initiative, il est à noter les points suivants dans la déclaration du Premier Ministre :

  • Les enjeux sociaux :

« Ils concernent les conséquences de l’intelligence artificielle sur le marché du travail et sont susceptibles d’avoir des impacts très vite. Probablement en ont-ils déjà d’ailleurs : disparition de certains métiers, en tout cas disparition de certains métiers exercés par les hommes, modification de l’organisation du travail, du contenu des métiers, apparition de nouveaux besoins de formation, d’accompagnement... On voit bien là qu’il y a quelque chose de profondément déstabilisant qu’il faut prendre en compte. »

  • Les enjeux éthiques :

« A partir de quand une intelligence artificielle cesse-t-elle d’être artificielle pour devenir autonome ? (…) A partir de quand cette intelligence autonome devient-elle vivante et quelles questions cela pose-t-il à notre société humaine ? A partir de quand nos sociétés d’hommes et de machines deviendront des sociétés d’homme-machine ou de machine-homme ? »

Mission parlementaire « Donner un sens à l’IA »

Ce rapport a été confié à Cédric Villani par l’Ex Premier Ministre Edouard Phillipe dans le cadre de la Mission parlementaire conclue le 8 mars 2019. Dans son chapitre 5 page 139, ce rapport est allé beaucoup plus loin que les précédents les aspects de éthiques de l’IA. Ci-dessous des analyses et des suggestions qui pourront nourrir notre réflexion. Voir en note les sources qu’il évoque.

Constatant que la législation actuelle, qui est centrée sur la protection de l’individu, n’est plus suffisante à l’échelle planétaire des enjeux, le rapport propose :

Pour combler ce décalage, il est nécessaire d’agir en créant des droits collectifs sur les données. - page 140

Au regard du développement de l’intelligence artificielle, on peut même se demander si la notion de données à caractère personnel peut tout simple- ment conserver un sens. Les travaux pionniers d’Helen Nissenbaum nous enseignent par exemple que les données sont des objets contextuels, qui peuvent renseigner simultanément sur plusieurs individus ou questions. Cela d’autant plus que, dans le cadre du deep learning, les données sont exploitées à grande échelle pour produire des corrélations qui peuvent concerner des groupes d’individus. – page 148 

Le rapport propose également que le RGPD 2018 évolue pour responsabiliser les sociétés qui déploient l’IA et les organismes qui les utilisent.

Le rapport propose de s’inspirer de l’initiative l’Agence américaine responsable des projets en recherche pour la Défense (DARPA), 2016 :

Le projet DARPA soutient trois axes de recherche : la production de modèles plus explicables, la production d’interfaces utilisateurs plus intelligibles et la compréhension des mécanismes cognitifs à l’œuvre pour produire une explication satisfaisante. – page 145

Concernant l’opacité de fonctionnement de l’Apprentissage Profond (Deep Learning), le rapport pointe la nécessité de poursuivre bien sûr sur ce sujet pour tenter d’en modéliser le fonctionnement, ce qui est partagé par la communauté scientifique :

De fait tous ces algorithmes ne font que reproduire les discriminations déjà̀ présentes dans les données qu’on leur fournit. Mais ces constatations suscitent des craintes légitimes, et si nous tardons à agir, on risque d’observer une défiance généralisée de l’opinion publique à l’égard de l’IA, qui à terme est susceptible de freiner son développement, y compris dans ce qu’il pourrait avoir de bénéfique. – page 142

Mais le rapport propose également que des jeux de données spécifiques soient créés pour déceler les biais lors de l’apprentissage. La même méthode pourrait être appliquée lors de l’inférence de l’IA dans un contexte de fonctionnement face au public. Ces jeux de données pourraient être certifiés par une autorité publique neutre et assermentée :

La constitution d’un corps d’experts dotés des compétences requises semble nécessaire pour procéder à des audits d’algorithmes et de bases de données sur pièce, et procéder à des tests par tout moyen requis. À l’instar du changement de paradigme de régulation ayant eu lieu en concurrence puis en matière de protection des données, cette recommandation se place dans une logique d’action a posteriori. De telles obligations seront le cas échéant formulées par les instances de régulation sectorielles ou pour des domaines spécifiques. – page 143

Pas aussi simple de valider les compétences d’un tel « corps d’experts » capable d’auditer l’IA, et sur quels critères ? Mais plus pragmatiquement, concevoir de tels jeux de données biaisés me semble être un travail de recherche en sociologie pour lequel la plateforme expérimentale de la MACI est particulièrement bien adaptée, en collaboration avec le musée des Confluences et l’appui de l’ingénierie de l’Institut MIAI.

Le rapport suggère la création d’un comité d’éthique à l’image de celui qui existe pour les sciences de la vie et de la santé :

La place de l’éthique dans le débat sur l’IA a pris aujourd’hui une importance telle qu’il parait nécessaire d’instaurer, dans un cadre institutionnel, un Comité́ consultatif national d’éthique pour les technologies numériques et l’intelligence artificielle. Une telle instance pourrait être créée sur le modèle du Comité consultatif national d’éthique (CCNE) – page 155.

Le projet pourrait contribuer à l’élaboration d’une charte éclairant les missions et les moyens avant la création d’un tel organisme.

Le rapport, dans le chapitre « Penser l’éthique dès la conception », soulève la question de la formation des ingénieurs et chercheurs en IA :

Dès lors, les chercheurs, ingénieurs et entrepreneurs qui contribuent à la conception, au développement et à la commercialisation de systèmes d’IA sont amenés à jouer un rôle décisif dans la société́ numérique de demain. Il est essentiel qu’ils agissent de manière responsable, en prenant en considération les impacts socio-économiques de leurs activités. Pour s’en assurer, il est nécessaire de les sensibiliser, dès le début de leur formation, aux enjeux éthiques liés au développement des technologies numériques. Aujourd’hui cet enseignement est quasiment absent des cursus des écoles d’ingénieurs ou des parcours informatiques des universités, alors même que le volume et la complexité́ des problématiques éthiques auxquels ces futurs diplômes seront confrontés ne cessent de croître, au rythme des avancées très rapides de l’IA. – page  146

Concernant la médiation de l’IA :

Dès lors, il s’agit à minima de rendre les courroies de transmission plus fluides entre les autorités, la recherche, et la société́ civile, en pérennisant des fonctions de médiation dédiées à l’accompagnement de projets qui visent à mobiliser l’IA pour la compréhension des discriminations. – page 144

Renaissance numérique – rapport sur l’éthique dans l’emploi

Suite à l’initiative de la CNIL, le groupe de réflexion Renaissance Numérique (think tank Renaissance Numérique) , et le groupe Randstad ont rédigé un rapport sur les questions d’éthique soulevées par l’usage l’IA dans l’emploi (recrutement, nouveaux métiers, transformation numérique des entreprises, etc…). 

Le rapport pose la question de l’éthique collective pour le « consentement individuel » dans un contexte de collecte et de traitement de données à l’échelle mondiale :

Il ne s’agit donc pas dans cette réflexion d’intégrer des dilemmes éthiques dans les technologies et de leur attribuer une personnalité juridique, au risque d’affecter le droit de la responsabilité civile. Il convient également de distinguer l’éthique individuelle de l’éthique collective. Par exemple, concernant le droit au consentement, l’IA « contribue à déplacer le consentement du niveau individuel de l'usage de ses données personnelles, à un niveau collectif du consentement à ce que des systèmes informatiques puissent servir à orienter la société à partir d'observations globales de cette société ». Par ailleurs, si l’éthique n’est pas universelle, mais dépendante du contexte social et culturel dans lequel elle s’inscrit, les technologies d’intelligence artificielle ne connaissent, elles, pas de frontières. Aussi, il s’agit de s’interroger sous le prisme de nos valeurs, sur ce que devrait être une éthique de l’IA portée par l’Europe au niveau international. – page 4

A défaut de pouvoir modéliser le fonctionnement des systèmes d’IA, le rapport propose de créer des « jeux de données extrêmes » pour mettre à l’épreuve le comportement du système et détecter les biais introduits par un jeu de données partisan :

Une démarche éthique devrait ainsi permettre d’expérimenter ces technologies afin d’évaluer a posteriori leur efficacité et les risques potentiels. Des benchmarks peuvent être établis par le concepteur pour permettre d’anticiper ce que produira l’algorithme. Il s’agirait ainsi d’examiner les données en entrée et en sortie du système et mettre les technologies dans des situations extrêmes, afin de construire les frontières de réponses du système. – page 6

L’IA peut même être considérée comme un outil pour corriger les biais humain et sociétaux.

En permettant de corriger les biais inhérents à la société, l’utilisation de l’IA participe à renforcer l’éthique dans le champ des RH. La distanciation permise par cette technologie permet en effet d’éliminer les biais de discrimination dont tous les humains sont porteurs, préjugés que l’on mobilise souvent de manière inconsciente et qui font que l’on discrimine et que l’on recrute à peu près à son image la plupart du temps. – page 18

Concernant les nouveaux rapports au travail, le rapport pointe l’importance d’une politique de formation spécifique pluridisciplinaire :

Adapter la politique de formation à la transformation induite par les technologies d’intelligence artificielle et le numérique dans son ensemble. …/…  Mettre en place des living labs par secteur ou entreprise, afin de tester et anticiper les conséquences de la mise en application de ces technologies sur le terrain, en fonction des spécificités des filières et des acteurs. – page 22

CERNA Allistene - La souveraineté à l'ère du numérique

La CERNA, Commission de réflexion sur l’Éthique de la Recherche en sciences et technologies du numérique d’Allistène (Alliance des Sciences et technologies du numérique) vient de rédiger en octobre 2018 un rapport interrogeant le concept de « souveraineté » à l’ère de la mondialisation numérique. Ce document très complet, allant au-delà des strictes préoccupations scientifiques, formule des pistes de réflexion et des propositions très approfondies. Pourtant, comme toutes les autres études sur le sujet, il ne cite jamais les musées comme outil de formation et d’émancipation des citoyens sur la vaste question du numérique.

On peut mesurer l’urgence de développer une démarche de médiation concernant l’IA à l’importance prise par la collecte des données par les GAFAM, mais aussi à l’empressement de l’état à se saisir de la question. Extrait de la Loi du 7 octobre 2016 « Pour une République numérique » qui envisage la création d’un Commissariat à la souveraineté numérique :

  • Art. 29: Le Gouvernement remet au Parlement, dans un délai de trois mois à compter de la promulgation de la présente loi, un rapport sur la possibilité de créer un Commissariat à la souveraineté numérique rattaché aux services du Premier ministre, dont les missions concourent à l'exercice, dans le cyberespace, de la souveraineté nationale et des droits et libertés individuels et collectifs que la République protège..- Chapitre Introduction

Le rapport souligne les multiples aspects de la souveraineté numérique, dont l’aspect stratégique des données, les réseaux informatiques, le chiffrage des communications.

Il cite également les tentatives de démocratie directe avec des sociétés commerciales qui surfent sur des préoccupations sociales avec des lanceurs d’alerte comme change.org – Chapitre 3.2

Dans le chapitre 4, le rapport suggère de nouvelles souverainetés et de nouveaux acteurs :

Comme nous l’avons montré ci-dessus, la notion historique de souveraineté est aujourd’hui contestée tant par des personnes morales que physiques s’exprimant au nom d’idées et d’intérêts singuliers ou collectifs. On trouve clairement exprimées, nous l’avons vu, les notions de souveraineté collective (nationale, numérique, européenne63, bien-être et santé, scientifique) mais aussi plus restreinte (à l’échelle d’une entreprise) voire individuelle. Ce renversement de la vision classique de la souveraineté conçue jusqu’à présent uniquement à l’échelle d’une collectivité humaine constitue sans doute un changement de paradigme. Il s’agit d’une conséquence directe du processus de « ré-ontologisation » des notions induit par le numérique.

Dans la synthèse des quatrièmes Assises de la Souveraineté Numérique : « Souveraineté numérique et cyber-sécurité » sont présentés trois ensembles de souveraineté :

« (...) Quels sens faut-il donner   la souveraineté ? La donnée est au cœur de l’espace numérique. Il faut la protéger. Les espaces de souveraineté sont différents :

  • 1. Souveraineté individuelle : qu’est-ce que l’on accepte de donner ? à l’État ? aux acteurs commerciaux ? Qu'est-ce qu’on n’a pas envie de donner : protection de nos vies privées, de nos mouvements, etc… Il faut réinventer la souveraineté.
  • 2. Souveraineté de l’entreprise : la donnée est tout ce qui fait sa richesse. L’échange des données à travers le monde fait la richesse du commerce.
  • 3. Souveraineté de l’État, la nôtre. Il faut absolument la protéger. »

On pourrait multiplier les déclinaisons de souveraineté, comme par exemple la souveraineté de la culture pour le patrimoine numérique des musées ? Mais est-ce que ce n’est pas enlever de la lisibilité à cette ontologie ?

Le numérique et l’explicitation du rôle premier du concept d’information au même titre que la matière ou l’énergie ont révélé le nouveau « continent numérique » bien souvent appelé aussi « océan numérique » du fait de l’analogie avec son caractère omniprésent et de la similitude des aspects légaux relatifs aux mers et océans avec ceux sous-jacents au numérique.

Le rapport conclut en évoquant des d’enjeux éthiques et formule des propositions au chapitre 5 :

Il conviendrait donc de donner un sens nouveau au principe selon lequel « toute personne a droit à la liberté de pensée » énoncé dans l’article 18 de la déclaration universelle des droits de l'Homme du 10 décembre 1948 …/… Les rédacteurs de ces textes ne pouvaient imaginer que la technologie serait un jour capable de connaître le mode de pensée, la sensibilité, les plus intimes convictions non seulement d’un individu singulier, mais cela à l’échelle de dizaines ou de centaines de millions de personnes, voire de populations entières

Dans le chapitre 5.2, il est fait mention du rapport d’experts sur la désinformation dans l’Internet remis à la Commissaire européenne à l'Économie et à la Société numériques en mars 2018, dans lequel il est conseillé :

Ce rapport invite les États membres de l’Union européenne à inclure dans leurs programmes éducatifs nationaux la connaissance de l’environnement médiatique et informationnel. …/… Dès l’école primaire, puis dans le secondaire, concevoir un enseignement qui sensibilisera aux enjeux de cybersécurité et de la maitrise des outils permettant de préserver la vie privée et d’alerter sur diverses formes de manipulation ou d’endoctrinement facilitées par les médias numériques.

Au-delà de la formation des plus jeunes, cette sensibilisation devrait également trouver des moyens de toucher l’ensemble de la population (ce qui relève en particulier du rôle des médias mais aussi de la nécessaire implication de la communauté scientifique). À côté des initiatives de la société civile et les médias, il y a là aussi une mission régalienne d’un nouveau type qui renforcerait la résilience de nos concitoyens face aux « fausses nouvelles » ou « fake news » et autres actions de manipulation utilisant les médias numériques.

Le rapport suggère en particulier :

Dès l’école primaire, puis dans le secondaire, concevoir un enseignement qui sensibilisera aux enjeux de cyber sécurité et de la maitrise des outils permettant de préserver la vie privée et d’alerter sur diverses formes de manipulation ou d’endoctrinement facilitées par les médias numériques ;

En s’appuyant sur les médias et l’implication de la communauté scientifique, permettre de sensibiliser l’ensemble de la population pour renforcer la résilience de nos concitoyens face aux fausses nouvelles et aux actions de manipulation utilisant les médias numériques.

N’est-ce pas aussi la mission des musées de se mobiliser sur ce sujet, en raison de leur capacité à toucher un grand nombre de personnes de la société civile, bien au-delà en nombre de ce peut faire l’école. De plus les musées disposent d’un capital de confiance qui est bien supérieur à celui du politique ou de la presse. De plus, ils touchent un public scolaire par l’intermédiaire des professeurs qui demandent des visites culturelles (en moyenne 30% de la fréquentation), ce qui représente un bon vecteur de médiation en direction des enseignants et des parents d’élèves.

Voir l’ouvrage de Stéphane Bortzmeyer

A titre de comparaison avec la face cachée de l’IA, il est intéressant de lire dans l’ouvrage de Stéphane Bortzmeyer Cyberstructure, comment des domaines qui pourraient apparaître comme purement techniques sont en réalité le reflet de choix humains hautement concurrentiels comme le chiffrement, le service de nom racine (DNS), le protocoles TCP/IP, etc…

L’IA n’est pas qu’une collection d’algorithmes appliqués sur des « données naturelles » collectées…(NDLR)

Création d’un comité pilote d’Éthique du Numérique

Création d’un comité pilote d’Éthique du Numérique sous l’égide du CCNE. – site web Allistene le 3 décembre 2019 :

A la demande du premier ministre, le CCNE (Comité Consultatif National d’Éthique pour les sciences de la vie et de la santé) vient de constituer un comité pilote spécifiquement dédié à l’Éthique du Numérique. Rassemblant une trentaine de membres issus du CCNE et de la CERNA et dirigé par Claude Kirchner (Directeur de recherche émérite INRIA), ce comité aura pour objectif : « à la fois de remettre des premières contributions sur l’éthique du numérique et de l’intelligence artificielle et de déterminer les équilibres pertinents pour l’organisation du débat sur l’éthique des sciences et technologies du numérique et de l’intelligence artificielle ».

En fonction des sujets à instruire, le comité pourra faire appel aux compétences d’autres personnalités. Il abordera, en premier lieu, trois saisines sur les thématiques suivantes : les agents conversationnels, le véhicule autonome, le diagnostic médical et l’intelligence artificielle

La Commission Nationale Informatique et Libertés (CNIL)

La CNIL publie sur son site web un rapport sur l’IA intitulé « Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle »   Il est le résultat d’un débat public entre janvier et octobre 2017, dont le rapport identifie plusieurs problématiques éthiques :

  • Le prestige et la facilité de l’informatique ne va-t-il pas créer des comportements d’abandon de responsabilité ?
  • Comment corriger biais des algorithmes qui se développent à l’insu des usagers ?
  • Le profilage de plus en plus fin des individus est susceptible « d’affecter des logiques collectives essentielles à la vie de nos sociétés, le pluralisme démocratique et culturel, la mutualisation du risque »
  • La collecte massive de données du contexte de vie des usagers va à l’encontre des recommandations de la CNIL qui est de « ne collecter que les données nécessaires à l’objectif fixé »
  • L’autonomie croissante des systèmes informatiques et leur hybridation avec l’opérateur (« cobots », robots collaboratif) questionnent l’idée d’une « spécificité humaine irréductible », et peut-on parler « d’éthique des algorithmes » ?

Ce rapport fournit ensuite des réponses formulées lors du débat public, en les classant en deux catégories :

  • Le « principe de loyauté », formulé par le Conseil d’État au sujet des plateformes doit inclure une dimension collective, pour que l’outil algorithmique ne puisse pas trahir sa communauté d’appartenance.
  • Le « principe de vigilance/réflexivité » exprime la nécessité de surveiller en permanence le comportement des algorithmes d’apprentissage, des biais qu’ils sont capables d’introduire. Le rapport préconise :

Il s’agit d’organiser, par des procédures et mesures concrètes, une forme de questionnement régulier, méthodique, délibératif et fécond à l’égard de ces objets techniques de la part de tous les acteurs de la chaine algorithmique, depuis le concepteur, jusqu’à l’utilisateur final, en passant par ceux qui entraînent les algorithmes.

MIAI - Université Grenoble Alpes – Chapitre IA & Société

L’institut MIAI (Multidisciplinary Institute in Artificial Intelligence ) de l’Université Grenoble Alpes, dans chapitre « Diffuser les connaissances, sensibiliser aux risques » propose une démarche une démarche de médiation :

MIAI Grenoble Alpe est associé avec des acteurs bien établis de la communication scientifique et technique pour soutenir la diffusion et la sensibilisation à l'IA au sein du grand public. MIAI développera un « programme d'alphabétisation à l'IA », destiné aux citoyens et aux jeunes, dans le but de les informer sur ce que l'IA peut offrir aux êtres humains et de sensibiliser davantage aux risques qu'elle comporte. Les séances se dérouleront dans les écoles primaires. Nous organiserons également deux sessions d'intelligence artificielle chaque année dans le cadre des conférences ISN organisées par Inria et destinées à un public de professeurs de lycée. Nous participerons également à des manifestations publiques nationales telles que la Fête de la Science. Au niveau national, nous plaiderons pour la création de modules d’IA au sein de l’option informatique déjà proposée dans les lycées (nous essayerons d’engager les autres instituts français d’IA dans cette action).

Enfin, chaque année, nous organisons le Challenge robotique Univ. Grenoble Alpes qui accueille des centaines de collégiens, lycéens et étudiants et du grand public. C'est également l'occasion de sensibiliser concrètement et de façon ludique ces publics à l'intelligence artificielle pour la robotique

Références bibliographiques

  • Philippe, V.-D. (2016). La nouvelle servitude volontaire- Enquête sur le projet politique de la Silicon Valley. (FYP éditions).
  • Binns, R. (2017). Fairness in Machine Learning : Lessons from Political Philosophy. Proceedings of Machine Learning Research, 81, 1-11.
  • Corbett-Davies, S., & Goel, S. (2018). The Measure and Mismeasure of Fairness : A Critical Review of Fair Machine Learning. ArXiv:1808.00023 [Cs].

Références numériques