L’IA n’est pas magique : retour sur les limites concrètes
Je suis un fervent défenseur de l’utilisation de l’IA en droit. Avec DAIRIA IA, j’ai construit un outil que j’utilise quotidiennement et qui me fait gagner un temps considérable. Mais je serais malhonnête si je ne parlais que des avantages. L’IA a des limites réelles que je constate tous les jours dans ma pratique d’avocat. Les voici, sans détour.
Limite 1 : Les hallucinations juridiques
C’est le problème le plus connu et le plus dangereux. Les modèles d’IA peuvent inventer des informations qui ont l’air vraies mais sont complètement fausses. En droit, cela se traduit par des références à des articles de loi qui n’existent pas, des citations de jurisprudence fictives, ou des interprétations erronées de textes réels.
J’ai vu des cas frappants. Un modèle d’IA qui citait un arrêt de la Cour de cassation avec un numéro de pourvoi inventé de toutes pièces, mais formulé de manière si crédible qu’un utilisateur non averti l’aurait pris pour argent comptant. Un autre qui attribuait à l’article L.1232-6 du Code du travail des dispositions qui relèvent en réalité de l’article L.1234-1.
Comment je gère ce risque
C’est la raison fondamentale pour laquelle DAIRIA IA est connecté aux sources officielles. En allant chercher l’information directement dans Légifrance, KALI ou le BOSS, nous réduisons considérablement le risque d’hallucination. Et pour chaque réponse, l’utilisateur peut vérifier la source. Malgré cela, la vérification humaine reste indispensable.
Limite 2 : L’incapacité à gérer le contexte complet
Le droit du travail est hautement contextuel. La réponse à une question juridique dépend souvent de dizaines de paramètres : la convention collective applicable, la taille de l’entreprise, l’ancienneté du salarié, l’historique de la relation de travail, les usages de l’entreprise, la juridiction compétente, et bien d’autres.
L’IA peut traiter ces paramètres si on les lui fournit explicitement. Mais elle ne peut pas deviner ce qu’on ne lui dit pas. Un DRH qui pose une question vague à un outil d’IA obtiendra une réponse vague. Et en droit, une réponse vague peut être une réponse dangereuse.
L’avocat comme filtre contextuel
C’est là que l’avocat reste irremplaçable. Quand un client me soumet un problème, je pose des questions. Je creuse. Je fais préciser le contexte, l’historique, les enjeux. Ce travail d’investigation et de contextualisation est fondamentalement humain et précède toute analyse juridique pertinente.
Limite 3 : La jurisprudence contradictoire
En droit du travail, la jurisprudence n’est pas monolithique. Sur un même sujet, on peut trouver des décisions contradictoires entre différentes cours d’appel, voire des revirements au sein de la Cour de cassation elle-même. L’IA peine à gérer cette complexité.
Face à des jurisprudences contradictoires, un outil d’IA peut soit choisir arbitrairement une position (ce qui est trompeur), soit présenter les deux positions sans trancher (ce qui est peu utile). Un avocat expérimenté, lui, saura évaluer la tendance jurisprudentielle, la position probable de la juridiction locale, et la stratégie la plus pertinente pour le cas d’espèce.
Limite 4 : Les conventions collectives complexes
Les conventions collectives sont souvent des documents anciens, mal rédigés, avec des renvois internes complexes et des avenants multiples. L’IA peut avoir du mal à naviguer dans cette complexité, surtout pour les conventions les moins courantes.
J’ai constaté que DAIRIA IA était très performant sur les grandes conventions — métallurgie, commerce de détail, syntec — mais pouvait être moins précis sur des conventions de niche. C’est un axe d’amélioration constant.
Limite 5 : L’absence de jugement stratégique
L’IA peut identifier le droit applicable, mais elle ne peut pas porter un jugement stratégique. Faut-il transiger ou plaider ? Faut-il contester un avertissement ou attendre ? Faut-il négocier une rupture conventionnelle ou un licenciement ?
Ces décisions stratégiques dépendent de facteurs que l’IA ne maîtrise pas : le rapport de force, la personnalité des parties, le contexte économique de l’entreprise, les enjeux réputationnels, la psychologie du juge. C’est le coeur du métier d’avocat, et il reste profondément humain.
Mon approche : utiliser l’IA en conscience
Reconnaître les limites de l’IA n’est pas un aveu de faiblesse — c’est une preuve de maturité. J’utilise l’IA tous les jours, elle me rend plus efficace, et je continuerai à la développer. Mais je la connais suffisamment pour savoir quand elle m’aide et quand elle me dessert.
Mon conseil aux professionnels qui utilisent l’IA en droit : soyez enthousiastes mais vigilants. Vérifiez toujours. Sourcez systématiquement. Et n’oubliez jamais que le jugement humain est la dernière ligne de défense.
Retrouvez mon cabinet sur dairia-avocats.com et testez DAIRIA IA sur dairia.ai.
📚 Pour aller plus loin
- → Comment j’ai appris à vendre en tant qu’avocat (et pourquoi c’est essentiel)
- → L’IA peut-elle remplacer un avocat en droit du travail ? Limites et complémentarité
- → L’IA juridique n’est pas un gadget : les vrais cas d’usage que je vois au quotidien
- → Les limites de l’IA en droit du travail : quand consulter un avocat reste indispensable
- → Ma stack technologique d’avocat en 2026 : les outils que j’utilise au quotidien