Journées « Éthique & IA » le 5 Juillet 2017

Le COMETS et l’AFIA en association avec la CNIL organisent une Journée ÉTHIQUE et INTELLIGENCE ARTIFICIELLE avec pour vocation de croiser les questionnements et les approches, et de créer une communauté de réflexion sur ces sujets.

Avec la métamorphose numérique de notre société, l'éthique des STIC et en particulier de l’Intelligence Artificielle est devenue une question cruciale. Il est évident que toutes ces techniques pénètrent profondément dans notre vie quotidienne, induisant de nombreuses et importantes modifications dans les rapports humains, le travail, les modes de communications et l'économie.

De nouvelles questions sont soulevées. Par exemple, les réflexions relatives à la protection de la vie privée doivent être repensées face à la généralisation de la collecte, de l'exploitation de masses de données individuelles s'appuyant sur des techniques issues de l'Intelligence Artificielle. Dans le même ordre d'idée se posent tout un ensemble de questions liées à la conservation de ces données et le droit à l'oubli.

Face aux progrès des capacités d'autonomie, de décision et d'action des agents logiciels ou robotiques, les questions liées à la responsabilité des sujets humains (informaticiens, développeurs, vendeurs, etc.) et des dispositifs informatiques sont reformulés en des termes nouveaux et délicats.

L'autonomie est devenue une caractéristique essentielle de nombreuses applications d'intelligence artificielle qui participent à la numérisation de notre société (commerce électronique, jeux interactifs, intelligence ambiante, assistance aux personnes, robotique sociale ou collective, robotique civile, etc.).

Dans un tel contexte, la question d'une régulation ou d'un contrôle éthique des agents logiciels ou robotiques ainsi que des systèmes constitués d’humains et d’agents autonomes se pose avec de plus en plus de force. Ces questions sont par nature transverses à de multiples disciplines.


PROGRAMME

Le programme est constitué de présentations invitées et de présentations courtes décrivant des travaux, des réflexions et des défis en lien avec cette problématique de l’éthique et de l’intelligence artificielle. Chaque présentation fera l'objet de discussions.

La journée aura lieu le mercredi 5 Juillet

10:30 Début de la journée Ethique et IA

  • 10:30-10:45 Présentations de l'Association Française pour l'Intelligence Artificielle, par Yves Demazeau (Président de l'AFIA) et du Comité d'Ethique du CNRS par Jean-Gabriel Ganascia (Président du Comité d'Ethique).
  • 10:45-10:55 Olivier Boissier, Jean Paul Delahaye Introduction
  • 10:55-11:40 Alexei Grinbaum (LARSIM CEA-Saclay) Contre la transparence. De la valeur du hasard pour un système apprenant
  • 11:40-12:05 Emiliano Lorini (Université Paul Sabatier IRIT, LILaC team) : Une théorie formelle des agents moraux
  • 12:05-12:30 Gauvain Bourgne (CNRS & Sorbonnes Universités, UPMC Université Paris 6, LIP6) : Approches logiques de la modélisation du raisonnement éthique

12:30-14:00 Repas

15:30-16:00 Pause

  • 16:00-16:45 Nathalie Nevejans (Université d’Artois) Les problèmes juridiques posés par la robotique et l'IA
  • 16:45-18:00 Table ronde IEEE Standard Ethics (participants : L. Devillers, A. Grinbaum, N. Nevejans, C. Tessier) L'IEEE a lancé une initiative sur les considérations éthiques en lien avec l'Intelligence Artificielle et les systèmes autonomes. Cette initiative se place dans une action plus large de la prise en compte de l'éthique dans les technologies (IEEE TechEthics). Après la publication d'une première version d'un ensemble de recommandations et de sujets à considérer, une seconde version est en cours de discussion. Il s'agit ici de présenter un état des lieux de cette initiative, des recommandations et sujets identifiés, d'en discuter. Pour plus d'information, se reporter au The IEEE Global Initiative for Ethical Considerations in Artificial Intelligence and Autonomous Systems .

Résumés des présentations invitées

Alexei Grinbaum “Contre la transparence. De la valeur du hasard pour un système apprenant”

Du point de vue interne d'un système informatique, les notions humaines du bien et du mal ne sont guère plus que les mots “bien” et “mal”. Une éthique de la machine est-elle ainsi concevable ? Peut-on parler de ses valeurs ? Ontologiquement, la situation de la machine apprenante qui interagit avec l'utilisateur ne fait qu'un avec la fonction délatrice. Sur le plan éthique, comme nous le montrons à l'aide d'une analogie théologique, il s'agit d'éviter que l'intelligence artificielle soit immédiatement classée du côté du mal. Pour ce faire, elle doit se servir du hasard. En particulier, contrairement à l'exigence habituelle de transparence, la solution d'un dilemme moral par une machine doit rester opaque et faire intervenir un tirage au sort.

Alexei Grinbaum est chercheur au laboratoire de philosophie des sciences (LARSIM) du CEA-Saclay. Il est spécialiste de l'information quantique. Depuis 2003, il s'intéresse aux questions éthiques liées aux nouvelles technologies, notamment aux technologies de l’information, à la biologie de synthèse et aux nanotechnologies. Il est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique de l’alliance Allistene (CERNA) et membre fondateur du Paris Centre for Quantum Computing (PCQC). Son dernier livre est “Mécanique des étreintes. Intrication quantique” (Encre Marine, 2014).

Laurence Devillers “Robots conversationnels empathiques : enjeux technologiques et éthiques”

Les robots conversationnels empathiques portent encore beaucoup de défis technologiques (apprentissage en continu, adaptation à chacun, compréhension du sens commun, évaluation) mais également de défis éthiques (isolement, addiction). Etablir une relation affective avec les machines est une thématique émergente pour de nombreuses équipes de recherche. Au LIMSI, dans l’équipe « Dimensions affectives et sociales dans les interactions parlées », nous travaillons sur la détection des émotions dans les interactions parlées avec des robots à partir d’indices paralinguistiques, sur la création d’un profil émotionnel et social et sur les stratégies d’humour, d’empathie dans les chatbots mais nous réfléchissons aussi à la dimension éthique de ces prochains robots bavards, aux peurs engendrées par les machines autonomes intelligentes dans la société et à la co-évolution humain-machine.

Laurence Devillers est Professeur à Paris-Sorbonne 4, elle dirige l’équipe « Dimensions affectives et sociales dans les interactions parlées » au LIMSI-CNRS, Paris-Saclay. Elle est aussi membre de la CERNA d’Allistène. Elle est impliquée dans l’initiative sur l’éthique des machines autonomes dans IEEE. Elle est également l’auteur d’un livre chez Plon paru en Mars 2017 : Des robots et des hommes : mythes, fantasmes et réalité.

Nathalie Nevejans “Les problèmes juridiques posés par la robotique et l'IA”

Jamais depuis l'apparition de la robotique et de l'IA autant de questions juridiques ont pu se poser. Notre droit est prêt-il pour affronter les bouleversements que ces technologies amorcent ? Il existe des problèmes communs à ces deux secteurs. On pensera notamment à la question de la propriété intellectuelle, à celle des données à caractère personnel ou encore à celle controversée de la personnalité juridique du robot et de l'IA. Nous nous demanderons alors si le droit existant permet de répondre à ces difficultés. Toutefois, dans plusieurs hypothèses, la robotique et l’intelligence artificielle pourraient poser des problématiques juridiques distinctes. Il pourrait en aller ainsi en matière de responsabilité, qui exigera peut-être des analyses plus nuancées selon le secteur concerné. De même, les algorithmes poseront des défis spécifiques, notamment en termes de transparence ou de loyauté. Le droit devra donc faire face à ces nouvelles questions et nous nous demanderons s'il pourra le faire avec les règles existantes.

Nathalie Nevejans est maître de conférences en droit privé à l’Université d’Artois (France), Habilitée à diriger les recherches, et membre du Centre de recherche Droit, Ethique et Procédures (EA n° 2471). Auteure de nombreux articles, participant à des manifestations provenant tant du monde académique que du secteur industriel, elle est l’une des rares spécialistes en France du droit et de l’éthique de la robotique et des technologies émergentes. Elle est également membre du Comité d'éthique du CNRS (COMETS), ainsi que de l’Institut pour l’Etude des Relations Homme-Robots (IERHR). Elle est aussi porteur du projet de création en France d’un Comité National d’éthique de la robotique et de l’intelligence artificielle, à l’initiative du SYMOP (Syndicat de la robotique). Son livre « Traité de droit et d’éthique de la robotique civile », LEH édition (1232 pages), vient de paraître.


Participants à la table ronde

Laurence Devillers

Laurence Devillers est Professeur à Paris-Sorbonne 4, elle dirige l’équipe « Dimensions affectives et sociales dans les interactions parlées » au LIMSI-CNRS, Paris-Saclay. Elle est aussi membre de la CERNA d’Allistène. Elle est impliquée dans l’initiative sur l’éthique des machines autonomes dans IEEE. Elle est également l’auteur d’un livre chez Plon paru en Mars 2017 : Des robots et des hommes : mythes, fantasmes et réalité.

Alexei Grinbaum

Alexei Grinbaum est chercheur au laboratoire de philosophie des sciences (LARSIM) du CEA-Saclay. Il est spécialiste de l'information quantique. Depuis 2003, il s'intéresse aux questions éthiques liées aux nouvelles technologies, notamment aux technologies de l’information, à la biologie de synthèse et aux nanotechnologies. Il est membre de la Commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique de l’alliance Allistene (CERNA) et membre fondateur du Paris Centre for Quantum Computing (PCQC). Son dernier livre est “Mécanique des étreintes. Intrication quantique” (Encre Marine, 2014).

Nathalie Nevejans

Nathalie Nevejans est maître de conférences en droit privé à l’Université d’Artois (France), Habilitée à diriger les recherches, et membre du Centre de recherche Droit, Ethique et Procédures (EA n° 2471). Auteure de nombreux articles, participant à des manifestations provenant tant du monde académique que du secteur industriel, elle est l’une des rares spécialistes en France du droit et de l’éthique de la robotique et des technologies émergentes. Elle est également membre du Comité d'éthique du CNRS (COMETS), ainsi que de l’Institut pour l’Etude des Relations Homme-Robots (IERHR). Elle est aussi porteur du projet de création en France d’un Comité National d’éthique de la robotique et de l’intelligence artificielle, à l’initiative du SYMOP (Syndicat de la robotique). Son livre « Traité de droit et d’éthique de la robotique civile », LEH édition (1232 pages), vient de paraître.

Catherine Tessier

Catherine Tessier est chercheur à l’ONERA à Toulouse et enseigne à l’ISAE-SUPAERO. Ses recherches portent sur la modélisation et la détection du conflit entre plusieurs agents (opérateur/système robotisé), et sur les questions éthiques relatives à la robotique et l’interaction entre humain et robot. Membre de la commission de réflexion sur l’éthique de la recherche en sciences et technologies du numérique d’Allistene (CERNA), elle fait également partie du Comité opérationnel d’évaluation des risques légaux et éthiques d’Inria (COERLE) et du Comité d’éthique pour les recherches non interventionnelles de l’Université de Toulouse (CERNI). Elle est également directrice de l’Ecole doctorale 309 Systèmes (EDSYS).


Résumés des présentations sélectionnées

Emiliano Lorini Université Paul Sabatier IRIT, LILaC team): Une théorie formelle des agents moraux Je présenterai une théorie des attitudes et des émotions morales incluant les valeurs morales, le sentiment de culpabilité, la fierté morale, le reproche et l'approbation morale. Deux formalisations de la théorie seront proposées. La première utilise la logique modale, tandis que la deuxième utilise la théorie des jeux. Je montrerai comment ces deux formalisations peuvent être utilisés dans la pratique pour construire des agents moraux.

Gauvain Bourgne (CNRS & Sorbonnes Universités, UPMC Université Paris 6, LIP6) : Approches logiques de la modélisation du raisonnement éthique - Travail conjoint avec Fiona Berreby et Jean-Gabriel Ganascia Cette présentation revient d'abord sur quelques approches de modélisation des raisonnements éthiques par la programmation logique, présentant certaines des problématiques de modélisation ou d'expressivité soulevées par les questions d'éthiques, avant de proposer quelques principes méthodologiques et un cadre modulaire pour s'abstraire des cas d'études de dilemmes éthiques canoniques afin de proposer des modèles plus généraux des grandes théories éthiques. Nous insisterons en particulier sur la nécessité de bien identifier et différencier dans le modèle ce qui ressort de la dynamique du système et ce qui ressort du jugement éthique.

Léa Guizol (ARDANS) : Pistes de réflexion sur une modélisation de l'éthique pour des agents intelligents autonomes Dans le cadre du projet ETHICAa, trois catégories de chercheurs ont coopéré : des philosophes, des informaticiens spécialistes de l'IA dont les SMA, et des ingénieurs de la connaissance. La question de la modélisation constitue un sujet clé car il impose de définir un langage commun à partir duquel il devient possible de décrire le domaine sur lequel les acteurs vont agir. Quand le domaine est lié à l'éthique, il convient de prendre en compte la sémantique associée, comme sa consommation au sein des événements auxquels sont soumis les agents artificiels (véhicule autonome{ choix d'accident}, robots compagnons {dignité, vie privé}, etc.). Notre réflexion porte sur une proposition de découpage de l'éthique en composants élémentaires & réutilisables à combiner entre eux afin de produire des jugements moraux.

Gregory Bonnet (Université de Caen Normandy, GREYC, UMR CNRS 6072) Projet ETHICAAA - Ethique et Agents Autonomes - Travail conjoint avec les membres du projet ETHICAA A l'heure actuelle, les machines et les logiciels (agents) deviennent de plus en plus autonomes et agissent de plus en plus sans être contrôlés par des utilisateurs ou des opérateurs humains. C'est pourquoi, la question de doter ces agents autonomes de comportements éthiques se pose. Le projet pluridisciplinaire ETHICAA, financé par l'ANR, se propose de réfléchir à des modèles, des méthodes et un cadre méthodologique permettant la définition et la gestion de tels agents autonomes, en particulier dans des systèmes ouverts où les agents autonomes peuvent être hétérogènes dans les principes éthiques qui les guident. Dans cette présentation, nous passerons en revue les différents travaux effectués dans le projet et présenterons des pistes de réflexion pour bâtir notre cadre méthodologique.


Inscription Les inscriptions se font sur le site de PFIA 2017 : https://pfia2017.greyc.fr/inscriptions L'inscription à la Journée inclut la participation au repas et aux pause-café


Comité d'organisation

  • Olivier Boissier (Mines Saint-Etienne & Laboratoire Hubert Curien, AFIA)
  • Jean-Paul Delahaye (CRISTAL Lille, COMETS)

Contact: ethicia-pfia@emse.fr