Éthique de l’intelligence artificielle pour les juristes
Les technologies novatrices et l’intelligence artificielle (IA) gĂ©nĂ©rative transforment la profession juridique et la pratique du droit. En particulier, l’utilisation de l’IA gĂ©nĂ©rative augmente, et les juristes doivent ĂŞtre conscients des risques Ă©valuĂ©s et Ă©mergents et doivent mettre en Ĺ“uvre des politiques et des pratiques qui visent Ă encadrer son utilisation, conformĂ©ment aux obligations professionnelles qui leur incombent.
Cela est de plus en plus important parce que des avis de pratique et des lignes directrices sont en cours d’Ă©laboration par les tribunaux et les organismes de rĂ©glementation, tant au Canada qu’Ă l’Ă©tranger. (Voir, par exemple, la Loi sur l’intelligence artificielle de l’Union europĂ©enne [UE], qui a une portĂ©e extraterritoriale, et les documents d’orientation Ă©laborĂ©s par divers tribunaux et organismes de rĂ©glementation1.)
Ces nouveaux avis et lignes directrices marquent un changement pour les juristes. En effet, il incombe aux personnes qui utilisent l’IA de rĂ©duire au minimum les risques liĂ©s Ă son utilisation plutĂ´t que de se fier uniquement au consentement Ă son utilisation2.
L’utilisation de l’IA gĂ©nĂ©rative dans la pratique du droit peut avoir une grande incidence sur les obligations professionnelles. Le fait de ne pas tenir compte de ces obligations peut exposer les juristes Ă des sanctions disciplinaires et peut faire en sorte qu’ils engagent leur responsabilitĂ©, peut dĂ©responsabiliser les clients et peut dĂ©considĂ©rer l’administration de la justice.
Lorsqu’ils examinent la façon dont ils doivent utiliser l’IA gĂ©nĂ©rative d’une manière qui soit conforme Ă leurs obligations professionnelles, les juristes doivent passer en revue les directives pertinentes donnĂ©es par les tribunaux et les suivre, et consulter leurs codes de dĂ©ontologie respectifs de la province ou du territoire dans lequel ils exercent. Ces codes sont fondĂ©s sur le Code type de dĂ©ontologie professionnelle de la FĂ©dĂ©ration des ordres professionnels de juristes du Canada (FOPJC) (Code type)3. Ils devraient Ă©galement tenir compte des lignes directrices fournies par les organismes de rĂ©glementation dans l’administration dans laquelle ils exercent.
Bien que la technologie Ă©volue, l’utilisation de l’IA par les juristes doit toujours ĂŞtre conforme aux normes pertinentes fournies par les organismes de rĂ©glementation juridique, car « les membres de la profession juridique au Canada sont tenus de respecter des normes Ă©levĂ©es en matière de dĂ©ontologie professionnelle, lesquelles sont mises en application par les ordres professionnels de juristes qui suivent un processus disciplinaire et de traitement des plaintes des plus rigoureux4 ».
La prĂ©sente trousse d’outils donne un bref aperçu de l’utilisation de l’IA dans le cadre de l’exercice des fonctions juridiques, des conseils sur les possibilitĂ©s et les dĂ©fis liĂ©s Ă son utilisation, ainsi que plusieurs Ă©lĂ©ments clĂ©s Ă retenir pour favoriser le respect des obligations professionnelles.
Le dĂ©fi que doivent relever les juristes est celui d’utiliser de façon responsable les outils d’IA qui sont en constante Ă©volution, tout en respectant leurs obligations professionnelles.
La prĂ©sente trousse d’outils met l’accent sur la nĂ©cessitĂ© de sensibiliser les professionnels du droit et les cabinets juridiques aux risques liĂ©s Ă l’utilisation de l’IA, Ă savoir si cette IA est intĂ©grĂ©e aux outils couramment utilisĂ©s par les cabinets juridiques ou si, de façon consciente, des dĂ©cisions sont prises quant Ă l’utilisation de certains outils d’IA dans le cadre de l’exercice des fonctions juridiques.
Principaux Ă©lĂ©ments Ă retenir – Les risques liĂ©s Ă l’utilisation de l’IA sont, comme la technologie elle-mĂŞme, en constante Ă©volution. Les professionnels du droit et les cabinets juridiques doivent harmoniser les dĂ©cisions qu’ils prennent concernant le choix et l’utilisation des technologies d’IA avec leurs obligations professionnelles.
Notes de fin
4 Fédération des ordres professionnels de juristes, précité.