Informations erronées ou encore production de faux documents, voilà seulement deux des raisons qui ont poussé les cours de justice au Canada à condamner des personnes non représentées pour un mauvais usage de l’intelligence artificielle. C’est le cas de Jean Laprade, qui a utilisé l’IA pour se défendre seul en cour, en octobre 2025. Il s’est vu imposer une amende de 5 000 $ pour avoir utilisé des informations erronées que l’IA lui avait fournies. Selon le juge Luc Morin, la décision reposait sur huit occurrences de citations inexistantes, de décisions non rendues, de références sans objet et de conclusions non concordantes dans la contestation du défendeur.
«Tenter d’induire la partie adverse et le Tribunal en erreur en produisant des extraits fictifs de jurisprudence et autres autorités constitue un manquement grave […].» — Décision du Juge Luc Morin
C’est également un des points que le Barreau du Québec soulève dans son guide d’utilisation responsable de l’intelligence artificielle générative (IAG). En effet, selon le Barreau, une mauvaise utilisation de l’IA-G peut, entre autres, compromettre l’intégrité du processus judiciaire. Le guide ne vise pas seulement les personnes non représentées, mais principalement les avocats et les professionnels du milieu juridique qui utilisent l’intelligence artificielle générative dans leur travail. L’Ordre encourage une utilisation efficace et responsable de cette technologie, seulement si le professionnel est en mesure de gérer les risques qui y sont reliés, le tout conformément aux devoirs et obligations déontologiques des membres du Barreau du Québec.
D’ailleurs, plusieurs avocats au Canada se sont vu imposer eux aussi une amende ou une sanction, selon une approche pédagogique, pour une mauvaise utilisation de l’IA-G. Par exemple, en Ontario, en mai 2025, une avocate a délégué à son équipe la tâche de rédiger un mémoire dans lequel des décisions fictives générées par ChatGPT ont été insérées. Admettant après plusieurs audience son manquement éthique, elle a été finalement accusée d’outrage au tribunal.
Auto-représentation
Bien que l’auto-représentation — autrement dit ne pas solliciter l’appui d’un conseil juridique — est davantage dénoncé au cours de la dernière année, le nombre de cas de particuliers non représentés par un avocat, quant à lui, n’est pas en hausse. En effet, selon les statistiques du rapport d’activité de la Cour supérieur du Québec, le taux d’auto-représentation a oscillé entre 36,1% et 27,6% dans la dernière décennie.
Selon Aurélie Gagnon, avocate et vulgarisatrice juridique chez Éducaloi, le virage vers l’utilisation de l’IA dans l’auto-représentation est bel et bien visible et s’explique principalement par le manque d’accessibilité.
« L’IA se présente un peu comme un super cerveau, comme un super génie pour beaucoup de personnes. » — Me Aurélie Gagnon
Comment l’IA se comporte ?
L’Exemplaire a voulu comprendre exactement comment l’IA se comporte lorsqu’une personne qui ne souhaite pas recourir à un avocat la sollicite. Théotime, un étudiant français qui étudie au Québec, s’est prêté au un jeu de rôle purement fictif : il est poursuivi par l’acheteur de son ancienne maison d’avoir dissimulé des vices cachés.
Cette expérience à laquelle Théotime a bien voulu se prêter nous montre que l’intelligence artificielle semble être un bon point de départ pour informer un particulier, mais qu’il ne faut pas se contenter de cette source uniquement. C’est aussi sur ce point que Me Aurélie Gagnon insiste. Selon elle, il est important de souligner que c’est l’humain qui garde le contrôle et que l’intelligence artificielle doit avant tout demeurer un outil. L’IA peut aider à comprendre le jargon judiciaire ou servir de point de départ, mais l’utilisation de cette plateforme dans l’objectif de constituer une défense complète peut être punissable.
Nous avons soumis notre scénario de maison avec vices cachés à Charles Moumouni, juriste et professeur titulaire de droit à l’Université Laval. Nous lui avons demandé d’analyser et d’évaluer la justesse de l’information transmise par l’intelligence artificielle et, dans ce cas-ci, de la conversation uniquement avec la plateforme Chat GPT.
Afin d’assurer un encadrement de l’utilisation de l’IA, le ministère de la Cybersécurité et du Numérique du Québec (MCN) se base sur trois concepts clés: encourager la modernisation, optimiser les processus de conformité et stimuler l’adoption responsable de technologies sécuritaires. Dans une réponse écrite envoyée à notre équipe, M. Prévost-Dallaire, attaché d’administration au sein du ministère, souligne que le MCN demeure à l’affût de l’évolution de la situation et que des réajustements de l’encadrement seront faits lorsque nécessaire.
Me Aurélie Gagnon d’Éducaloi indique, quant à elle, que les personnes qui décident d’assurer leur propre défense peuvent utiliser l’intelligence artificielle avec précaution, en s’assurant de présenter des faits véridiques, de suivre le guide du Barreau et de consulter des professionnels. Elle souligne également que certains organismes, tels qu’Info justice, offrent un accompagnement gratuit aux individus qui souhaitent recevoir des conseils.
Plateformes dédiées
Me Gagnon explique qu’il existe de plus en plus de plateformes d’intelligence artificielle dédiées au contexte juridique pouvant fournir une assistance. Parmi ceux-ci, Beagle, gratuit et accessible à tous, permet d’obtenir des informations juridiques pour la province de la Colombie-Britannique. D’autres sont également utilisés par les avocats. Par exemple, Canli offre maintenant un accès à un outil d’intelligence artificielle qui permet de trouver plus rapidement des cas de jurisprudence. Il est aussi possible de suivre des webinaires ouverts à tous, visant à savoir comment mieux utiliser l’intelligence artificielle dans un contexte judiciaire.
Selon Me Gagnon, une IA mieux encadrée et bien utilisée permettrait donc d’ouvrir la voie à un meilleur accès à la justice tout en protégeant le système de justice et la population. Son rôle devrait donc se limiter à fournir de l’information et de l’assistance, sans toutefois prétendre avoir les compétences d’un professionnel du domaine.


















