8 avril 2020
La Commission européenne a publié un livre blanc le 19 février 2020 pour proposer un nouvel encadrement pour l’intelligence artificielle (IA) dans l’Union européenne. Ce livre blanc de la Commission tente ainsi de définir un équilibre entre le soutien au développement de l'IA et la réglementation des risques qu'elle génère. Pour ce faire, il envisage différentes réformes, modifiant les textes existants ou édictant de nouvelles exigences. Il reconnaît que le domaine de la santé fait partie des secteurs dans lesquels cet équilibre est le plus délicat à définir, compte tenu des enjeux qu'il recouvre. La crise générée par la propagation du Covid-19 a touché l'Europe peu après sa publication. Le recours à l'IA qu'elle a pu susciter pourrait conduire à réexaminer l'équilibre proposé par la Commission européenne. Il est donc essentiel pour les acteurs de l'IA de contribuer aux discussions initiées par ce livre blanc pour s'assurer que le cadre réglementaire européen défini pour l'IA sera pertinent, y compris pour des périodes aussi exceptionnelles que celle que nous traversons.
La crise générée par la propagation du Covid-19 donne lieu à de nombreuses initiatives pour y apporter des solutions. Certaines d'entre elles sont développées grâce à des outils d'intelligence artificielle ("IA").
Ces projets et leurs enjeux mis en lumière par la crise actuelle (1.) peuvent être analysés au regard du livre blanc de la Commission européenne sur l'IA publié en février 2019 (2.). Ce livre blanc est paru quelques semaines avant la propagation massive du COVID 19 dans l'Union européenne et les mesures exceptionnelles qu'elle a suscitées. Il tente de définir un nouvel équilibre entre le soutien au développement de l'IA dans l'Union européenne et la réglementation des risques qu'elle génère.
On peut ainsi s'interroger sur les enseignements que la crise que nous traversons pourrait apporter à cet égard et sur le besoin de revoir cet équilibre proposé par la Commission européenne pour tenir compte de l'expérience des semaines récentes concernant le recours à l'IA dans le domaine de la santé (3.).
L'IA constitue un des outils que les acteurs, publics comme privés, mobilisent dans la lutte contre la propagation du virus. Leurs applications couvrent un large spectre d'activités, allant par exemple de l'aide à l'élaboration d'un vaccin, à l'assistance au diagnostic comme à la gestion des flux de patients et à leur prise en charge par les structures hospitalières. Les exemples sont ainsi nombreux.
Pour contribuer au développement rapide d'un vaccin potentiel, la société DeepMind, détenue par Google, propose son outil d'IA pour la modélisation 3D de protéines pour définir la structure de protéine du virus. Les résultats doivent être librement accessibles afin de nourrir la recherche en cours sur le sujet .
Au service de l'identification des personnes affectées, Microsoft a développé une application robotisée permettant de proposer un diagnostic préliminaire des patients à partir des symptômes qu'ils renseignent . Cette application est proposée en lien avec les centres américains pour le contrôle des maladies et la prévention (Centers for Disease Control and Prevention (CDC)) et l'organisation mondiale de la santé (OMS). Elle peut permettre de décongestionner certains services médicaux et de mieux orienter les patients dans leurs parcours de soins contre le Covid-19.
Au-delà des projets dans le domaine médical, le recours à l'IA est aussi envisagé pour gérer les mesures prises pour endiguer la crise. Elle est par exemple utilisée par une entreprise comme YouTube pour la modération des vidéos publiées pour sa plateforme. L'entreprise américaine annonce en effet devoir recourir plus largement à l'IA pour filtrer les vidéos publiées, selon leur contenu, afin de palier la diminution des effectifs de ses équipes en charge habituellement de cette mission .
La crise a ainsi illustré par de nombreux exemples les solutions que l'IA tente d'apporter dans le domaine de la santé, en particulier dans les circonstances extrêmes que nous connaissons. Elle intervient au moment où les institutions européennes s'interrogent sur les éventuelles réformes nécessaires pour doter l'Union européenne d'un "cadre pour une intelligence artificielle digne de confiance, s'appuyant sur l'excellence et la confiance" .
La Commission européenne a publié, le 19 février 2020, un livre blanc sur l'IA[1]. La Commission européenne considère certes que le cadre européen comprend déjà des dispositions répondant à de nombreux enjeux de l'IA (notamment en termes de protection des données personnelles ou dans certains secteurs spécifiques, comme celui de la santé). Elle note cependant que certaines réformes pourraient être nécessaires pour répondre à l'ensemble des risques que l'IA peut générer et apporter des réponses efficaces.
Ce livre blanc poursuit ainsi "le double objectif de promouvoir le recours à l’IA et de tenir compte des risques associés à certaines utilisations de cette nouvelle technologie"[2] . La Commission propose un équilibre entre ces deux enjeux et présente à cette fin des options stratégiques en termes de réglementation.
A ce titre, la Commission européenne propose une approche centrée sur les risques présentés par l'IA. Selon elle, l'IA pourrait être considérée à haut risque selon (i) le secteur dans lequel elle trouve à s'appliquer (et la probabilité de risques afférents) et (ii) l'utilisation qui en est envisagée (selon notamment des conséquences de l'IA pour les parties possiblement affectées).
Au-delà du contenu des futures obligations réglementaires potentielles, la Commission européenne, s'interroge sur les acteurs qui devraient y être assujettis, tant au regard de leur rôle que du rayonnement géographique de leurs activités[3].
Cette approche pourrait conduire à réformer tout ou partie des textes réglementaires applicables à l'IA, notamment dans le domaine de la "protection des données à caractère personnel et du respect de la vie privée"[4].
Parmi les applications qu'il vise, le livre blanc identifie notamment le domaine de la santé comme un secteur stratégique pour l'IA. La Commission y souligne par exemple les avantages significatifs que l'IA pourrait apporter, dans la "précision accrue des diagnostics ou meilleure prévention des maladies, par exemple"[5]. Compte tenu des risques également susceptibles d'être générés par ses applications dans ce domaine, l'IA utilisée pour la santé est au cœur des réflexions de la Commission européenne.
La Commission européenne invite les parties prenantes, publiques comme privées, à réagir aux propositions formulées et à contribuer à la réflexion. On peut ainsi s'interroger sur les enseignements que l'expérience de ces dernières semaines peut apporter en la matière.
Le contexte de la crise pourrait en effet nourrir les réflexions initiées par la Commission européenne, en particulier sur la classification des applications de l'IA selon le niveau de risque qu'elle présente (3.1.), le contenu des obligations envisagées pour les applications de l'IA à haut risque (3.2.) et la portée des exigences proposées (3.3.).
Comme indiqué, la Commission européenne propose d'appliquer un cadre réglementaire renforcé pour les applications de l'IA considérées à haut risque à la lumière du secteur dans lequel elles sont développées et de l'utilisation qui en est faite.
Pour le domaine de la santé, le livre blanc considère qu'il fait partie des secteurs "où, compte tenu des caractéristiques des activités normalement menées, des risques importants [liés au recours à l'IA] sont à prévoir"[6]. Toutefois, il souligne également que toutes les applications de l'IA dans ce secteur ne sont pas susceptibles d'être considérées comme à haut risque. Le critère de l'utilisation de l'outil peut ainsi permettre de ne pas le considérer comme à haut risque, malgré le secteur dans lequel il est développé. La Commission européenne prend l'exemple en ce sens d'un "système de planification des rendez-vous dans un hôpital"[7], qui, compte tenu de son enjeu, ne justifie pas de réforme selon elle.
Au regard des projets auxquels elle a donné lieu, la crise du COVID 19 conduit à interroger la pertinence de ces critères de catégorisation. Dans un contexte de crise sanitaire, les applications envisagées par la Commission européenne comme non risquées pourraient revêtir une importance nouvelle. Cela pourrait justifier de revoir la classification proposée.
En effet, jusqu'à présent, les outils d'IA pour gérer l'allocation des lits d'hôpitaux aux malades pouvaient être considérés comme présentant de faibles risques au regard de ses conséquences pour les parties concernées. Dans le contexte actuel, de telles applications présentent des enjeux majeurs. Cela pourrait justifier de les soumettre aux exigences réglementaires renforcées. En particulier, les biais qui pourraient grever leur fonctionnement pourraient justifier, dans le contexte actuel, une vigilance particulière. De même, l'explicabilité des algorithmes sous-jacents, et la transparence assurée à cet égard, pourraient être déterminantes vis-à-vis du public pour assurer la bonne acceptation du dispositif.
Cet exemple illustre les difficultés à mettre en œuvre la classification proposée par la Commission européenne, et les critères sur lesquels elle repose, selon le contexte dans lequel cette appréciation s'effectue.
Comme indiqué ci-dessus, lorsque l'IA est considérée à haut risque, la Commission européenne propose un ensemble de mesures pour en renforcer l'encadrement. Comme décrit ci-dessus, ces mesures sont appelées à assurer un meilleur contrôle et une plus grande transparence dans un souci de protection des citoyens européens et de leurs droits fondamentaux.
Cependant, là encore, la propagation du Covid-19 peut interroger sur la pertinence des propositions de la Commission européenne en temps de crise. Par exemple, pour l'IA à haut risque, elle considère que l'intervention humaine est déterminante dans le fonctionnement des outils pour garantir "une IA digne de confiance, éthique et axée sur le facteur humain"[8]. La Commission reconnaît que cette implication humaine peut varier selon les cas et qu'elle doit être définie au regard de "l'utilisation prévue des systèmes et de ses incidences potentielles sur les citoyens et les personnes morales concernées"[9].
Cette proposition ne prévoit pas à ce stade que cette appréciation peut varier selon le contexte. Or, la crise liée au Covid-19 interroge sur la possibilité de diminuer l'intervention humaine et son contrôle sur un outil d'IA, compte tenu du contexte, et malgré l'importance des droits fondamentaux susceptibles d'être affectés. L'exemple de YouTube cité ci-dessus en fournit une illustration. Le fonctionnement des outils de modération, reposant sur l'IA, peut affecter des droits aussi fondamentaux que la liberté d'expression. Le contrôle humain sur l'outil d'IA utilisé a été diminué par l'entreprise compte tenu du contexte et des risques pour ses équipes. A la lumière de cet exemple, on peut ainsi s'interroger sur la pertinence de cette proposition de la Commission européenne dans un contexte tel qu'aujourd'hui.
Dans son livre blanc, la Commission européenne s'interroge quant à la portée que la réglementation européenne sur l'IA devrait avoir. Cette réflexion porte tant sur la nature des acteurs à laquelle elle s'appliquerait (le développeur de l'outil IA, ou le déployeur, etc.) que sur son champ d'application géographique. A cet égard, la Commission européenne considère que la réglementation devrait s'appliquer aux "acteurs qui sont le mieux placés pour éliminer tout risque potentiel"[10] lié à l'outil d'IA. En termes géographiques, elle précise que la réglementation européenne devrait s'appliquer à tous les acteurs qui "fournissent des produits ou des services reposant sur l’IA dans [l'Union européenne], qu’ils soient ou non établis dans [l'Union européenne]"[11].
La crise liée au COVID 19 a engendré de nombreuses initiatives internationales de coordination pour capitaliser sur des outils d'IA. Ainsi, des acteurs tels que l'entreprise chinoise Tencent proposent de mettre à disposition leurs outils d'IA au soutien des initiatives destinées à répondre à la propagation du virus . Leurs solutions peuvent ainsi être utilisées par des acteurs du monde entier. La puissance des solutions proposées par ces entreprises non-européennes pourrait donc servir à des acteurs européens au service de la gestion de crise sanitaire actuelle. On peut s'interroger si et comment elles devraient être soumises au cadre européen envisagé par la Commission européenne.
Le livre blanc de la Commission tente ainsi de définir un équilibre entre le soutien au développement de l'IA et la réglementation des risques qu'elle génère. Pour ce faire, il envisage différentes réformes, modifiant les textes existants ou édictant de nouvelles exigences. Il reconnaît que le domaine de la santé fait partie des secteurs dans lesquels cet équilibre est le plus délicat à définir, compte tenu des enjeux qu'il recouvre. La crise générée par la propagation du COVID 19 a touché l'Europe peu après sa publication. Le recours à l'IA qu'elle a pu susciter pourrait conduire à réexaminer l'équilibre proposé par la Commission européenne. Il est donc essentiel pour les acteurs de l'IA de contribuer aux discussions initiées par ce livre blanc pour s'assurer que le cadre réglementaire européen défini pour l'IA sera pertinent, y compris pour des périodes aussi exceptionnelles que celle que nous traversons.
________
[1] Livre blanc de la Commission européenne, Intelligence artificielle - Un approche européenne axée sur l'excellence et la confiance, 19 février 2020. Ce livre blanc est complété par d'autres publications liées, notamment (i) un rapport de la Commission au Parlement européen, au Conseil et au Comité économique et social européen sur les conséquence de l'intelligence artificielle, de l'internet des objets et de la robotique sur la sécurité et la responsabilité, 19 février 2020 ; et (ii) une communication de la Commission au Parlement européen, au Conseil et au Comité économique et social européen pour une stratégie européenne pour les données, 19 février 2020.
[2] Livre blanc de la Commission européenne, ibidem, p. 1.
[3] Livre blanc de la Commission européenne, ibidem, p. 17.
[4] Livre blanc de la Commission européenne, ibidem, p. 15.
[5] Livre blanc de la Commission européenne, ibidem, p. 1.
[6] Livre blanc de la Commission européenne, ibidem, p. 20.
[7] Livre blanc de la Commission européenne, ibidem, p. 20.
[8] Livre blanc de la Commission européenne, ibidem, p. 24.
[9] Livre blanc de la Commission européenne, ibidem, p. 24.
[10] Livre blanc de la Commission européenne, ibidem, p. 26.
[11] Livre blanc de la Commission européenne, ibidem, p. 26.
>> Cliquez ici pour plus d'informations concernant notre équipe Gide 255
Cette publication électronique n’a qu’une vocation d’information générale non exhaustive. Elle ne saurait constituer ou être interprétée comme un acte de conseil juridique du cabinet Gide.
>> Cliquez ici pour plus d'informations sur le groupe de travail pluridisciplinaire de Gide mis en place pour répondre à toutes vos questions juridiques dans le contexte du Covid-19.