Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine
Revue Ouverte d'Intelligence Artificielle, Volume 3 (2022) no. 3-4, pp. 287-310.

Le déficit d’explicabilité des techniques d’apprentissage machine (AM) pose des problèmes opérationnels, juridiques et éthiques. Un des principaux objectifs de notre projet est de fournir des explications éthiques des sorties générées par une application fondée sur de l’AM, considérée comme une boîte noire. La première étape de ce projet, présentée dans cet article, consiste à montrer que la validation de ces boîtes noires diffère épistémologiquement de celle mise en place dans le cadre d’une modélisation mathématique et causale d’un phénomène physique. La différence majeure est qu’une méthode d’AM ne prétend pas représenter une causalité entre les paramètres d’entrées et ceux de sortie. Après avoir proposé une clarification et une adaptation des notions d’interprétabilité et d’explicabilité telles qu’on les rencontre dans la littérature déjà abondante sur le sujet, nous montrons dans cet article l’intérêt de mettre en œuvre les distinctions épistémologiques entre les différentes fonctions épistémiques d’un modèle, d’une part, et entre la fonction épistémique et l’usage d’un modèle, d’autre part. Enfin, la dernière partie de cet article présente nos travaux en cours sur l’évaluation d’une explication, qui peut être plus persuasive qu’informative, ce qui peut ainsi causer des problèmes d’ordre éthique.

The lack of explainability of machine learning (ML) techniques poses operational, legal and ethical problems. One of the main goals of our project is to provide ethical explanations of the outputs generated by an ML-based application, considered as a black box. The first step of this project, presented in this paper, is to show that the validation of these black boxes differs epistemologically from that implemented in the framework of a mathematical and causal modeling of a physical phenomenon. The major difference is that an ML method does not claim to represent causality between input and output parameters. After having provided a clarification and an adaptation of the notions of interpretability and explainability as found in the already abundant literature on the subject, we show in this article the fruitfulness of implementing the epistemological distinctions between the different epistemic functions of a model, on the one hand, and between the epistemic function and the use of a model, on the other hand. Finally, the last part of this article presents our current work on the evaluation of an explanation, which can be more persuasive than informative, and which can therefore raise ethical problems.

Reçu le :
Révisé le :
Accepté le :
Publié le :
DOI : 10.5802/roia.32
Mots clés : Apprentissage machine, interprétabilité, explicabilité, epistémologie.
Christophe Denis 1 ; Franck Varenne 1

1 Université de Rouen, ERIAC, UFR LSH, Rue Lavoisier, 76821 Mont-Saint-Aignan, France
@article{ROIA_2022__3_3-4_287_0,
     author = {Christophe Denis and Franck Varenne},
     title = {Interpr\'etabilit\'e et explicabilit\'e de ph\'enom\`enes pr\'edits par de l{\textquoteright}apprentissage machine},
     journal = {Revue Ouverte d'Intelligence Artificielle},
     pages = {287--310},
     publisher = {Association pour la diffusion de la recherche francophone en intelligence artificielle},
     volume = {3},
     number = {3-4},
     year = {2022},
     doi = {10.5802/roia.32},
     language = {fr},
     url = {https://roia.centre-mersenne.org/articles/10.5802/roia.32/}
}
TY  - JOUR
TI  - Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine
JO  - Revue Ouverte d'Intelligence Artificielle
PY  - 2022
DA  - 2022///
SP  - 287
EP  - 310
VL  - 3
IS  - 3-4
PB  - Association pour la diffusion de la recherche francophone en intelligence artificielle
UR  - https://roia.centre-mersenne.org/articles/10.5802/roia.32/
UR  - https://doi.org/10.5802/roia.32
DO  - 10.5802/roia.32
LA  - fr
ID  - ROIA_2022__3_3-4_287_0
ER  - 
%0 Journal Article
%T Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine
%J Revue Ouverte d'Intelligence Artificielle
%D 2022
%P 287-310
%V 3
%N 3-4
%I Association pour la diffusion de la recherche francophone en intelligence artificielle
%U https://doi.org/10.5802/roia.32
%R 10.5802/roia.32
%G fr
%F ROIA_2022__3_3-4_287_0
Christophe Denis; Franck Varenne. Interprétabilité et explicabilité de phénomènes prédits par de l’apprentissage machine. Revue Ouverte d'Intelligence Artificielle, Volume 3 (2022) no. 3-4, pp. 287-310. doi : 10.5802/roia.32. https://roia.centre-mersenne.org/articles/10.5802/roia.32/

[1] Chris Anderson The End of Theory : The Data Deluge Makes the Scientific Method Obsolete, Wired, Volume 16 (2008) no. 7

[2] Francis Bacon Novum organum, 1620

[3] Nicolas Boileau L’art poétique, Flammarion, 1998

[4] Julio Cardenas; Christophe Denis; Hajar Mousannif; Christian Camerlynck; Nicolas Florsch Reseaux de Neurones Convolutifs pour la Caractérisation d’Anomalies Magnétiques, 12ème colloque GEOFCAN, Grenoble, France (2021)

[5] Julio José Cárdenas Chapellín; Christophe Denis; Hajar Mousannif; Christian Camerlynck; Nicolas Florsch Réseaux de Neurones Convolutifs pour la Caractérisation d’Anomalies Magnétiques, CNIA 2021 : Conférence Nationale en Intelligence Artificielle (2021), pp. 84-90

[6] Antonio Cassili En attendant les robots. Enquête sur le travail du clic, Le Seuil, 2019

[7] Gregory. J. Chaitin Algorithmic Information Theory, Cambridge Tracts in Theoretical Computer Science, Cambridge University Press, Cambridge, 1987 | Article

[8] Noëlie Cherrier; Maxime Defurne; Jean-Philippe Poli; Franck Sabatié Embedded Constrained Feature Construction for High-Energy Physics Data Classification, 33rd Annual Conference on Neural Information Processing Systems (2019)

[9] Christophe Denis; Franck Varenne Interprétabilité et explicabilité pour l’apprentissage machine : entre modèles descriptifs, modèles prédictifs et modèles causaux. Une nécessaire clarification épistémologique, National (French) Conference on Artificial Intelligence (CNIA) – Artificial Intelligence Platform (PFIA) (2019), pp. 60-68

[10] Jean-Gabriel Ganascia Le mythe de la singularité. Faut-il craindre l’Intelligence Articielle  ?, Le Seuil, 2017

[11] Jean-Michel Ghidaglia; Nicolas Vayatis Comment faire sortir l’intelligence artificielle des labos ?, Les échos, 2019

[12] Rafael Gómez-Bombarelli; Jennifer N. Wei; David Duvenaud; José Miguel Hernández-Lobato; Benjamín Sánchez-Lengeling; Dennis Sheberla; Jorge Aguilera-Iparraguirre; Timothy D. Hirzel; Ryan P. Adams; Alán Aspuru-Guzik Automatic Chemical Design Using a Data-Driven Continuous Representation of Molecules, ACS Central Science, Volume 4 (2018), pp. 268-276 | Article

[13] Gilpin Leilani H.; David Bau; Ben Z. Yuan; Ayesha Bajwa; Michael Specter; Lalana Kagal Explaining Explanations : An Overview of Interpretability of Machine Learning, 2018 IEEE 5th International Conference on Data Science and Advanced Analytics (DSAA) (2018), pp. 80-89 | Article

[14] Bernease Herman The Promise and Peril of Human Evaluation for Model Interpretability, Thirsty-first Conference on Neural Information Processing Systems, NIPS 2017 (2017)

[15] High-Level Expert Group on AI Ethics guidelines for trustworthy AI (2019) (Technical report)

[16] Julie Jebeile; Vincent Lam; Tim Räz Understanding climate change with statistical downscaling and machine learning, Synthese, Volume 199 (2021), pp. 1877-1897 | Article | MR: 4341788

[17] Alex Kendall; Yarin Gal What Uncertainties Do We Need in Bayesian Deep Learning for Computer Vision ?, Thirsty-first Conference on Neural Information Processing Systems, NIPS 2017 (2017), pp. 5580-5590

[18] Zachary Lipton The Mythos of Model Interpretability, Communications of the ACM, Volume 61 (2018) no. 10, pp. 36-43 | Article

[19] P. J. G. Lisboa Interpretability in Machine Learning – Principles and Practice, Fuzzy Logic and Applications (2013), pp. 15-21 | Article

[20] Tania Lombrozo Explanation and Abductive Inference, The Oxford Handbook of Thinking and Reasoning (2012) | Article

[21] Stéphane Mallat Understanding deep convolutional networks, Philosophical Transactions of the Royal Society A : Mathematical, Physical and Engineering Sciences, Volume 374 (2016) no. 2065 | Article

[22] Tim Miller Explanation in artificial intelligence : Insights from the social sciences, Artificial Intelligence, Volume 267 (2019), pp. 1-38 | Article | MR: 3874511 | Zbl: 1478.68274

[23] Marvin Minsky Matter, Mind and Models, Proc. of the International Federation of Information Processing Congress (1965)

[24] Brent D. Mittelstadt; Chris Russell; Sandra Wachter Explaining Explanations in AI, FAT* ’19 : Proceedings of the Conference on Fairness, Accountability, and Transparency (2019) | Article

[25] Christoph Molnar Interpretable Machine Learning – A Guide for Making Black Box Models Explainable (2019) (https://christophm.github.io/interpretable-ml-book/)

[26] Margaret Morisson Reconstructing Reality : Models, Mathematics, and Simulations, Oxford University Press, 2015 | Article

[27] Domenico Napoletani; Marco Panza; Daniele Struppa The Agnostic Structure of Data Science Methods (2021) (https://arxiv.org/abs/2101.12150)

[28] William L. Oberkampf; Christopher J. Roy Verification and Validation in Scientific Computing, Cambridge University Press, 2010 | Article

[29] Sandeep Pandey; Jörg Schumacher; Katepalli R. Sreenivasan A perspective on machine learning in turbulent flows, Journal of Turbulence, Volume 21 (2020) no. 9-10, pp. 567-584 | Article | MR: 4168887

[30] Jaideep Pathak; Brian Hunt; Michelle Girvan; Zhixin Lu; Edward Ott Model-Free Prediction of Large Spatiotemporally Chaotic Systems from Data : A Reservoir Computing Approach, Phys. Rev. Lett., Volume 120 (2018), 024102 | Article

[31] Judea Pearl Causality : Models, Reasoning, and Inference, Cambridge University Press, 2000

[32] Ali Rahimi Machine Learning Has Become Alchemy, Thirsty-first Conference on Neural Information Processing Systems, NIPS 2017 (2017)

[33] Francois Récanati Philosophie du langage (et de l’esprit), Folio-Essais, Gallimard, 2008

[34] Shai Shalev-Schwartz; Shai Ben-David Understanding Machine Learning : From Theory to Algorithms, Cambridge University Press, 2014 | Article

[35] René Thom Prédire n’est pas expliquer, Flammarion, 1991

[36] Venturini Tommaso; Dominique Cardon; Jean-Philippe Cointet Présentation, Réseaux, Volume 188 (2014) no. 6, pp. 9-21 | Article

[37] Franck Varenne Modèles et simulations dans l’enquête scientifique : variétés traditionnelles et mutations contemporaines, Modéliser & Simuler. Épistémologies et pratiques de la modélisation et de la simulation, Tome I (F. Varenne; M. Silberstein, eds.), Matériologiques, 2013

[38] Franck Varenne From Models to Simulations, Routledge, 2018 | Article

[39] Cédric Villani; Schoenauer ; Marc; Yann Bonnet; Charly Berthet; Anne-Charlotte Cornut; François Levin; Bertrand Rondepierre Donner un sens à l’intelligence artificielle  : Pour une stratégie nationale et européenne (2018)

[40] Marinka Zitnik; Monica Agrawal; Jure Leskovec Modeling polypharmacy side effects with graph convolutional networks, Bioinformatics, Volume 34 (2018) no. 13, p. i457-i466 | Article

Cité par Sources :