Le rôle du juge face aux décisions algorithmiques

Entretien avec Claire Aguilon, docteur en droit et membre de l’Association Française des Docteurs en Droit

Julia Boccabella

À l’occasion du partenariat entre Predictice et l’AFDD, nous vous proposons une série consacrée aux contributions des docteurs en droit co-rédacteurs de l’ouvrage “Droit en mutation II”. (3/8)

  1. Pourquoi avez-vous choisi de traiter ce sujet ?

Le développement des algorithmes d’apprentissage profond durant ces dernières années rend possible une prise de décision automatisée efficace et autonome dans de nombreux domaines (prêt bancaire, assurances, orientation universitaire…).

Cette évolution technique a entraîné une intervention du législateur européen et national par l’admission, sous conditions, des décisions administratives individuelles automatisées.

Tout administré peut désormais voir sa situation personnelle affectée par une prise de décision algorithmique (octroi d’aides sociales, domaine fiscal, contravention routière…).

L’interdiction absolue de la prise de décision administrative individuelle automatisée par la loi informatique et liberté dans sa version de 1978 visait à éviter toute menace pour les droits et libertés. Le secteur public est en effet soumis à des exigences particulières vis-à-vis du public.

Parmi les conditions encadrant les décisions algorithmiques, l’explicabilité est capitale, car elle garantit le droit des administrés de contester en justice une décision les concernant car elle leur permet d’obtenir des explications sur les erreurs ou les biais que pourraient comporter ces décisions en ayant accès à ses fondements juridiques et factuels. Or l’interprétation de cette notion, indéterminée, pourrait être au cœur de nombreux litiges.

Les juristes, afin d’éviter le recul de l’état de droit que causerait l’incapacité des administrés à contester les décisions les concernant, sont donc amenés à préciser comment experts et juristes participent à l’interprétation des conditions encadrant l’adoption de décisions automatisée et en particulier celle d’explicabilité.

Dans cette perspective, le rapport parlementaire de 2019 sur l’intelligence artificielle, s’interrogeant sur les enjeux éthiques de cette dernière, soulignait la nécessité de soutenir la recherche sur l’explicabilité des modèles, avec une volonté «d’ouvrir la boîte noire de l’intelligence artificielle».

Sur un plan théorique, les progrès techniques de «l’intelligence artificielle» rappellent l’importance d’un questionnement sur les pouvoirs du juge : réception par le droit de normes déontologiques et techniques, prise en compte des destinataires d’une décision, influence du contexte sur l’interprétation du droit.

2. Quelles conditions doit respecter une décision administrative individuelle prise exclusivement sur le fondement d’un algorithme ?

L‘adoption d’une décision administrative algorithmique est possible si (Règlement Général sur la Protection des Données, article 22):

  • Lapersonne concernée a explicitement donné son consentement au traitement ou ce traitement est nécessaire à la conclusion ou à l’exécution d’un contrat la liant au responsable de traitement. Le responsable de traitement est alors tenu d’adopter les mesures nécessaires à la défense des droits et libertés et des intérêts de la personne concernée,

ou si

  • L’autorisation d’une décision automatisée par le droit de l’UE ou le droit national auquel est soumis le responsable de traitement constitue une seconde exception. Dans cette hypothèse,il revient au droit national d’encadrer ce traitement pour assurer la défense des droits et libertés et des intérêts de la personne concernée.

En France, le décret du 14 mars 2017, précise que doivent être fournies, à la demande de l’intéressé :

  • le « degré et le mode de contribution » du traitement algorithmique à la prise de décision,
  • les données traitées et leurs sources,
  • les « paramètres de traitement et, le cas échéant, leur pondération, appliqués à la situation de l’intéressé »,
  • les opérations effectuées par le traitement.

D’autres mentions doivent figurer en ligne, précisant en particulier les finalités du traitement (code des relations entre le public et l’administration, art. R311–3–1–1)

La personne faisant l’objet d’une décision individuelle algorithmique est en droit (RGPD, art 22 et cons. 71):

  • d’être informée de l’existence d’une décision la visant,
  • de recevoir des explications sur la décision et la méthode employée par l’algorithme,
  • de contester la décision et d’exprimer son point de vue,
  • d’obtenir une intervention humaine pour examiner la décision prise.

En outre, les décisions individuelles algorithmiques visantcertaines catégories de données à caractère personnel, par exemple révélant l’origine raciale ou ethnique, les opinions politiques, les convictions religieuses ou philosophiques, sont interdites, sauf exceptions prévues par le RGPD (art 22 et art 9).

Enfin, le responsable de traitement devrait prévenir tout effet discriminatoire à l’égard des personnes concernées (RGPD, cons. 71).

Claire Aguilon, docteur en droit et membre de l’AFDD

Predictice

3. Pouvez-vous nous parler de l’impératif d’explicabilité de l’algorithme ?

L’explicabilité d’une décision (RGPD, art. 22 et cons. 71), impose au responsable de traitement de se trouver en mesure de rendre compte d’une décision, c’est-à-dire de comprendre quels sont les critères qui fondent la décision sans forcément comprendre tout le mécanisme de sa construction.

Il s’agit en premier lieu de déterminer dans quelle mesure l’explication donnée doit être intelligible pour l’administré. Le droit de l’Union européenne (RGPD, art. 58 et 60) impose l’intelligibilité d’une décision administrative automatisée..

Le droit français (Article R311–3–1–2 du code des relations entre le public et l’administration comme le droit de l’Union européenne (RGPD, art. 58 et 60) imposent l’intelligibilité d’une décision administrative automatisée.

Le droit pour l’administré à une intervention humaine du responsable de traitement constitue un moyen d’assurer l’intelligibilité de la décision rendue. Le Conseil constitutionnel, dans sa décision de juin 2018, confirme le droit de l’intéressé à une explication détaillée et intelligible, ce qui implique la maîtrise par le responsable du traitement algorithmique et de ses évolutions et justifie la prohibition des logiciels parfois qualifiés d’«auto-apprenants».

Le RGPD et le droit français ne précisent pas comment concilier la précision de l’explication et son intelligibilité. La jurisprudence administrative recherche déjà un compromis entre clarté pour l’administré de l’explication d’une décision et exactitude de l’explication. La nature de l’explication exigée pourrait dépendre du secteur concerné par la décision algorithmique. Ainsi, une décision défavorable du secteur public pourrait se trouver soumise à une obligation de motivation renforcée.

La notion d’explicabilité une fois définie, il reste à déterminer comment la concilier avec d’autres impératifs, comme la qualité prédictive de l’algorithme. Les algorithmes les plus performants reposent sur des méthodes pouvant les rendre opaques.

4. En quoi l’admission des décisions prises sur le fondement d’un algorithme induit une mutation du contrôle des décisions administratives individuelles par le juge ?

Si par sa nature, la question de la prise en compte d’avis d’experts et de textes techniques par le juge pour interpréter une règle de droit n’est pas nouvelle, elle se pose avec une ampleur sans précédent dans le domaine des décisions algorithmiques. Les frontières se brouillent entre règles de droit et règles algorithmiques fondant ce type de décision.

Le juge, en contrôlant des décisions administratives individuelles automatisées, est amené à interpréter des notions comme celle de discrimination ou d’explicabilité, qui sont à la fois définies par les juristes et par les informaticiens.

Un différend sémantique peut se trouver à l’origine du différend juridique. Le juge pourrait, par exemple, avoir à trancher entre le sens donné à l’explicabilité par le responsable de traitement et celui privilégié d’ordinaire par les juristes au travers de la jurisprudence et des règles de droit générales ne s’appliquant pas spécifiquement à la protection des données personnelles.

Le juge pourrait être amené, à déterminer dans quel cas des méthodes d’apprentissages sont «explicables». Lorsqu’une méthode d’apprentissage est fondée sur un modèle explicite, il pourrait avoir à préciser à partir de quelle quantité de paramètres la condition d’explicabilité est satisfaite. Lorsqu’un algorithme est fondé sur une «boîte noire», il pourrait avoir à identifier des indicateurs et des variables, permettant de satisfaire à cette condition.

Il s’agit également d’établir si le juge, pour rechercher si la condition d’explicabilité est satisfaite, pourrait avoir à prendre en compte la maîtrise le langage informatique par l’administré visé par une décision algorithmique.

Enfin, la question se pose de l’impact des pouvoirs du juge sur les techniques informatiques auxquelles peut recourir l’administration à des fins décisionnelles.

La conciliation par la jurisprudence entre la précision de l’explication donnée, son intelligibilité et l’efficacité de l’algorithme est susceptible d’avoir des répercussions sur les choix adoptés lors de la conception d’algorithmes, permettant de trancher entre les deux voies envisageables pour améliorer leur explicabilité : «inférer des règles explicables de plus en plus complexes jusqu’à la limite de l’inexplicable ou simplifier les réseaux de neurones jusqu’à un semblant d’interprétabilité, au détriment de leur performance».

👉🏼 Je souhaite consulter l’interview de Jacques Mestre, président de l’AFDD

Predictice est une plateforme qui simplifie la recherche et l’analyse de l’information juridique pour les professionnels du droit.


Gardez le contact ! Abonnez-vous gratuitement et facilement aux articles du Forum de l’AFDD

Pour recevoir les articlez du Blog dès leur parution, rien de plus simple : cliquez ci-dessous sur « Je m’abonne ». Ensuite, à la fin de la page d’accueil, renseignez votre adresse email à la rubrique « S’abonner au blog via courriel ». C’est tout !

Je m’abonne

–=-=-=-

Adhérez en ligne à l’AFDD !

Grille des tarifs 2020 de la cotisation annuelle AFDD

  • Doctorant et 1ère année après le doctorat (tarif de bienvenue) : 15 €
  • De la 2ème année à la 4ème année après le doctorat : 30 €
  • Au-delà de la 4ème année après le doctorat (plein tarif) : 70 €
  • Membre correspondant : 70 €
  • Veuve ou Veuf d’un docteur en droit : 35 €
  • Membre Bienfaiteur : à partir de 100 €

Pour adhérer en ligne à l’AFDD : Cliquez  ICI

1° Indiquez vos coordonnées, le montant à payer
   2° Saisissez les références de votre carte bancaire

Laisser un commentaire

%d blogueurs aiment cette page :