11 avril 2019
Alerte Client | UE | Banque-Finance | Innovation & Fintech
La Commission européenne a publié, le 8 avril 2019, des lignes directrices, élaborées par un groupe d'experts indépendants, en matière d'éthique pour le développement d'une intelligence artificielle digne de confiance. Cette publication doit donner lieu au lancement d'une phase pilote à l'été 2019 visant à recueillir les réactions des parties prenantes sur le dispositif que ces lignes directrices proposent. Cette publication offre ainsi aux acteurs une nouvelle opportunité pour contribuer activement aux discussions réglementaires sur le sujet.
La Commission européenne continue de déployer sa stratégie en matière d'intelligence artificielle (IA) au service de l'Union européenne. Dès avril 20181, celle-ci a annoncé son ambition et son plan d'action sur le sujet, pour soutenir l'attractivité de l'Union européenne et garantir la confiance dans les valeurs européennes2.
Cette stratégie comprend différents volets, dont la mise en place d'un cadre éthique et juridique approprié. Ce cadre devrait inclure, pour la Commission européenne, des lignes directrices en matière d'éthique au regard du développement de l'IA. Celles-ci s'inscriraient dans le "droit fil de la Charte des droits fondamentaux de l'UE, [en tenant] compte de principes tels que la protection des données et la transparence, et [en s'appuyant] sur les travaux du Groupe européen d'éthique des sciences et des nouvelles technologies"3.
Afin d'avancer dans, notamment, l'élaboration de ces lignes directrices, la Commission européenne a mis en place un groupe d'experts indépendants, composé de 52 membres représentant le monde universitaire, l'industrie et la société civile. Annoncée dans la communication de la Commission européenne de décembre 20184, la publication de ces lignes directrices par le groupe d'experts est intervenue le 8 avril 20195.
Ces lignes directrices rappellent qu'une IA digne de confiance doit tout d'abord respecter les exigences réglementaires et législatives applicables. Elle doit également adhérer, selon ces lignes directrices, à des principes éthiques et être suffisamment robuste et résiliente. C'est précisément sur ces aspects liés à l'éthique et la robustesse de l'IA que les lignes directrices précisent les conditions de mise en œuvre.
Elles posent ainsi les fondations considérées comme nécessaires par le groupe d'experts, pour le développement d'une IA digne de confiance. Elles soulignent notamment l'importance de l'adhésion de l'IA à des principes fondamentaux ayant trait à (i) l'autonomie humaine, (ii) la prévention des préjudices, (iii) le respect de l'équité et (iv) l'"explicabilité" des outils utilisés6. Si elles reconnaissent également que l'IA peut générer certains risques, parfois difficiles à anticiper, au regard de ces principes, les lignes directrices recommandent de se doter d'un dispositif adapté pour les gérer et en limiter l'impact.
Les lignes directrices proposent également sept principes pour la mise en œuvre d'un IA digne de confiance. Ces principes ont trait (i) au facteur humain et contrôle humain, (ii) à la robustesse et la sécurité, (iii) au respect de la vie privée et à la gouvernance des données, (iv) à la transparence, (v) à la diversité, la non-discrimination et l'équité, (vi) au bien-être sociétal et environnemental et enfin (vii) à la responsabilisation7.
Elles proposent enfin une méthodologie pour s'assurer que l'IA mise en place respecte les recommandations susmentionnées.
Les acteurs ayant recours à l'IA sont invités à mettre en œuvre cette méthodologie et à faire part de leurs commentaires dans le cadre de l'Alliance européenne pour l'IA8, à laquelle ils peuvent d'ores et déjà s'inscrire avant que les travaux ne débutent à l'été 2019. Sur la base des contributions ainsi reçues, une nouvelle version de cette méthodologie pourrait être proposée à la Commission européenne au début de l'année 2020.
Sur le sujet de l'IA, les acteurs français ont été également sollicités, au niveau national, par l'Autorité de contrôle prudentiel et résolution (ACPR), dans le cadre d'une consultation sur l'IA dans le secteur financier ouverte du mois de décembre 2018 au mois de février 20199. Cette consultation interrogeait également sur le recours à l'IA et les enjeux qu'elle soulève notamment en termes d'éthique, de gouvernance et d'"explicabilité".
Ces initiatives montrent une volonté claire des institutions publiques tant françaises qu'européennes de se positionner sur le sujet de l'IA. Elles démontrent également un souhait de leur part d'échanger avec les acteurs sur le cadre qui devrait en accompagner le développement. Il appartient donc aux parties prenantes intéressées par l'IA de saisir cette opportunité pour contribuer activement aux discussions réglementaires en cours sur ce sujet innovant.
Pour plus d'informations sur l'IA et ses enjeux, consultez notre site Gide 255.
________________________________
1 Communication de la Commission au Parlement Européen, au Conseil Européen, au Conseil, au Comité Économique et Social Européen et au Comité des Régions, 25 Avril 2018
2 "A European approach on AI will boost the European Union’s competitiveness and ensure trust based on European values.", Factsheet: Artificial Intelligence for Europe, 5 avril 2019
3 "Intelligence artificielle: la Commission présente une approche européenne visant à stimuler l'investissement et à fixer des lignes directrices en matière d'éthique", ibidem
4 Communication from the Commission to the European Parliament, the European Council, the Council, the European Economic and Social Committee and the Committee of the Regions on a Coordinated Plan on Artificial Intelligence, 7 décembre 2018
5 Ethics Guidelines For Trustworthy AI, Independent High-Level Expert Group On Artificial Intelligence set up By the European Commission, 8 avril 2019
6 "Key guidance derived from Chapter I: Develop, deploy and use AI systems in a way that adheres to the ethical principles of: respect for human autonomy, prevention of harm, fairness and explicability", Ethics Guidelines For Trustworthy AI, Independent High-Level Expert Group On Artificial Intelligence set up By the European Commission, 8 avril 2019, p. 2
7 "Key guidance derived from Chapter II: Ensure that the development, deployment and use of AI systems meets the seven key requirements for Trustworthy AI: (1) human agency and oversight, (2) technical robustness and safety, (3) privacy and data governance, (4) transparency, (5) diversity, non-discrimination and fairness, (6) environmental and societal well-being and (7) accountability", Ethics Guidelines For Trustworthy AI, Independent High-Level Expert Group On Artificial Intelligence set up By the European Commission, 8 avril 2019, p.2
8 "European AI Alliance, a forum engaged in a broad and open discussion of all aspects of Artificial Intelligence development and it impacts."
9 Intelligence artificielle : enjeux pour le secteur financier, ACPR, décembre 2018