Il y a un elephant dans la piece. Des milliers d’avocats francais utilisent deja ChatGPT, Gemini ou d’autres outils d’IA generative dans leur pratique quotidienne. Ils y copient-collent des extraits de dossiers clients, des strategies contentieuses, des documents confidentiels. Et personne — ni les barreaux, ni le CNB, ni la profession dans son ensemble — ne semble vouloir affronter la question qui devrait nous empecher de dormir : ou vont ces donnees, et qu’advient-il du secret professionnel ?
L’etat des lieux : une utilisation sauvage et massive
Faisons preuve d’honnetete. La majorite des avocats qui utilisent l’IA generative le font via les interfaces grand public de ChatGPT, Claude ou Gemini. Ils ne lisent pas les conditions d’utilisation. Ils ne verifient pas si les donnees sont utilisees pour l’entrainement des modeles. Ils ne savent pas dans quel pays les serveurs sont situes. Ils copient-collent des elements de dossiers entiers dans des interfaces dont ils ne controlent rien.
C’est un probleme massif. Le secret professionnel de l’avocat n’est pas une convention sociale. C’est une obligation deontologique absolue, consacree par la loi. L’article 66-5 de la loi du 31 decembre 1971 dispose que les consultations, correspondances et pieces du dossier sont couvertes par le secret professionnel. Envoyer ces elements a un serveur tiers sans aucune garantie de confidentialite, c’est potentiellement violer cette obligation fondamentale.
Ce que dit (et ne dit pas) la reglementation
Le cadre juridique actuel est inadapte. Le RGPD impose des obligations generales sur le traitement des donnees personnelles, mais il n’a pas ete concu pour les specificites de l’IA generative. Le reglement sur l’IA (AI Act) europeen apporte un debut de cadre, mais son application concrete aux outils utilises par les avocats reste a preciser.
Cote profession, le silence est assourdissant. Quelques barreaux ont publie des recommandations prudentes. Le CNB a emis des avis generaux. Mais aucun texte clair ne dit a un avocat : voici ce que vous pouvez faire et voici ce que vous ne pouvez pas faire quand vous utilisez un outil d’IA generative avec des donnees couvertes par le secret professionnel. Ce vide est dangereux, parce qu’il laisse chaque avocat seul face a une question technique et deontologique complexe.
Les vraies questions techniques
Pour comprendre les enjeux, il faut poser les bonnes questions techniques. Quand vous envoyez un texte a une API comme celle d’OpenAI ou d’Anthropic, plusieurs choses peuvent se passer. Les donnees sont transmises aux serveurs du fournisseur pour etre traitees. La question cle est : sont-elles stockees ? Sont-elles utilisees pour l’entrainement des modeles ? Sont-elles accessibles a des tiers ? Ou sont les serveurs physiquement ?
Les reponses varient selon les fournisseurs et les offres. Anthropic, avec son API professionnelle, s’engage a ne pas utiliser les donnees pour l’entrainement et offre des garanties de suppression. OpenAI a des offres similaires pour les entreprises. Mais l’interface gratuite de ChatGPT ? Les conditions sont tres differentes. Et c’est precisement l’interface gratuite que la plupart des avocats utilisent.
Utiliser ChatGPT en version gratuite pour analyser un dossier client confidentiel, c’est comme discuter de la strategie d’un client dans un restaurant bonde en parlant fort. Techniquement faisable. Deontologiquement indefendable.
Comment j’ai aborde la question avec DAIRIA IA
La confidentialite n’est pas un module qu’on ajoute a un produit juridique IA. C’est un principe fondateur qui doit guider toute l’architecture. Quand j’ai concu DAIRIA IA, j’ai pris plusieurs decisions structurantes. D’abord, utiliser l’API professionnelle d’Anthropic avec des garanties contractuelles sur le non-usage des donnees pour l’entrainement. Ensuite, minimiser les donnees transmises : l’outil est concu pour anonymiser autant que possible les informations avant de les envoyer au modele.
J’ai aussi fait le choix de la transparence totale avec les utilisateurs. Ils savent exactement ce qui est transmis, a qui, dans quelles conditions. Pas de petites lignes, pas de juridisme abscons. Des explications claires sur le traitement des donnees, les garanties de confidentialite, les limites du systeme. La confiance se construit par la transparence, pas par l’opacite.
Ce que la profession doit faire maintenant
Le temps de l’inaction est revolu. La profession a besoin de trois choses. D’abord, des regles claires et pratiques emanant des instances ordinales sur l’utilisation de l’IA generative dans le respect du secret professionnel. Pas des recommandations vagues, mais des regles operationnelles que chaque avocat peut appliquer.
Ensuite, de la formation. Les avocats doivent comprendre les enjeux techniques — pas devenir informaticiens, mais maitriser les bases du fonctionnement des LLM, du traitement des donnees, des garanties contractuelles. Enfin, des outils adaptes. Des solutions concues specifiquement pour la profession juridique, avec les garanties de confidentialite que le secret professionnel exige. C’est exactement ce que DAIRIA IA s’efforce d’etre. Le debat est ouvert. Il est urgent qu’il ait lieu, publiquement et serieusement.