Un cadre pour l’IA

  • 28 novembre 2023

Le Canada participe Ă  des nĂ©gociations internationales en vue d’un traitĂ© sur l’intelligence artificielle, les droits de la personne et la primautĂ© du droit au Conseil de l’Europe. La Section du droit de la vie privĂ©e et de l’accès Ă  l’information, la Section du droit de l’immigration et le Sous-comitĂ© de dĂ©ontologie et de responsabilitĂ© professionnelle de l’Association du Barreau canadien, dans un mĂ©moire exhaustif (disponible uniquement en anglais; les citations qui en sont tirĂ©es sont des traductions), expriment leur soutien Ă  l’approche proposĂ©e et offrent un point de vue utile sur les questions de sondage contenues dans le document de consultation du gouvernement.

Les sections affirment d’emblĂ©e que l’IA modifie rapidement notre conception de la rĂ©alitĂ©. Le traitĂ© proposĂ© reprĂ©sente un effort essentiel pour mettre en place une lĂ©gislation universelle rĂ©gissant l’IA dans le but de protĂ©ger les droits de la personne, la dĂ©mocratie et la primautĂ© du droit.

Le traitĂ© proposĂ© est compatible avec les champs d’intĂ©rĂŞt et les valeurs du Canada, et cette proposition de lĂ©gislation globale servirait bien le pays.

Comme les citoyens et les citoyennes ne peuvent pas se soustraire Ă  leurs relations avec leurs administrations publiques, il est essentiel que le traitĂ© s’applique Ă  ce secteur. « Les citoyens et les citoyennes qui sont insatisfaits de l’utilisation de l’IA par leurs gouvernements ne peuvent pas choisir de faire affaire avec quelqu’un d’autre comme ils peuvent le faire dans le cadre de leurs relations avec les entreprises du secteur privĂ©. Le devoir de prudence et de diligence est donc plus Ă©levĂ©. »

Bien entendu, le traitĂ© doit Ă©galement s’appliquer au secteur privĂ©. « Les lois doivent jouer un rĂ´le central pour combler le fossĂ© croissant entre l’Ă©thique et le juridique, et donner une nouvelle vie Ă  nos droits, nos libertĂ©s et nos protections juridiques fondamentaux alors que nous rĂ©orientons notre existence dans un monde numĂ©rique », peut-on lire dans le mĂ©moire.

L’une des critiques formulĂ©es Ă  l’encontre du traitĂ© proposĂ© est qu’il ne souligne pas le fait que les personnes migrantes constituent un segment vulnĂ©rable de la population mondiale qui est grandement touchĂ© par le dĂ©ploiement de l’IA, compte tenu de la manière dont celle-ci contribue Ă  aggraver les fossĂ©s et les discriminations raciaux, socioĂ©conomiques et politiques. Les personnes migrantes devraient ĂŞtre identifiĂ©es comme groupe vulnĂ©rable Ă  l’article 17.

« Comme l’IA influence de plus en plus les dĂ©cisions majeures en matière d’immigration, il devient important d’accorder la prioritĂ© au bien-ĂŞtre et aux droits individuels », Ă©crivent les sections. La dĂ©finition de l’IA figurant Ă  l’article 3 du traitĂ© proposĂ© est complète et tient compte des nuances de la technologie.

Comme le soulignent les sections, pour respecter l’article 20 du traitĂ© proposĂ© sur les compĂ©tences numĂ©riques, nous devons nous assurer que tout le monde a un accès Ă©gal aux outils, comme des tĂ©lĂ©phones fiables, des ordinateurs et Internet. « L’accès est essentiel pour respecter les principes fondamentaux d’Ă©quitĂ© et d’Ă©galitĂ© devant la loi et prĂ©venir le dĂ©veloppement d’un fossĂ© numĂ©rique » dans le cadre de l’Ă©valuation de l’application de l’IA aux dossiers d’immigration. En outre, les procĂ©dures devraient ĂŞtre ouvertes et transparentes en ce qui concerne les raisons et les mesures prises pour Ă©valuer chaque dossier.

L’article 7 du traitĂ© proposĂ©, qui traite de la transparence et du contrĂ´le, devrait Ă©galement aborder l’explicabilitĂ©. « En fonction du mĂ©canisme de transparence, les algorithmes devraient ĂŞtre conçus pour permettre d’expliquer leur processus et leurs dĂ©cisions, Ă©crivent les sections. Les utilisateurs peuvent ainsi voir le raisonnement et contester les dĂ©cisions si une Ă©tape ou une procĂ©dure est contraire Ă  la loi. »

Reconnaissance faciale, biométrie et droits de la personne

Le mĂ©moire de l’ABC note qu’Ă  ce sujet, la Loi sur l’intelligence artificielle de l’Union europĂ©enne recoupe dans une certaine mesure le traitĂ© proposĂ©, en cherchant Ă  Ă©tablir une norme et des règles mondiales en matière de reconnaissance faciale, de surveillance biomĂ©trique et d’autres applications de l’IA. Ce cadre prĂ©voit quatre niveaux de risque : inacceptable, Ă©levĂ©, limitĂ© et minime.

Selon les sections, l’hypertrucage et la dĂ©sinformation numĂ©rique constituent des menaces importantes. « Ă€ mesure que la technologie d’hypertrucage se raffine et que l’authenticitĂ© devient plus difficile Ă  dĂ©terminer, nous risquons de voir les fondements de la loi et de la sociĂ©tĂ© s’Ă©roder. » C’est pourquoi l’article 4 du traitĂ© proposĂ© doit faire l’objet d’une plus grande attention et envisager la nĂ©cessitĂ© d’un moratoire sur ce type de technologie.

Responsabilité civile et pénale

« Nous ne pouvons pas nous en tenir Ă  des sanctions civiles pour les prĂ©judices et la discrimination numĂ©riques, souligne le mĂ©moire de l’ABC. Des consĂ©quences pĂ©nales doivent ĂŞtre mises au point et appliquĂ©es dans les cas oĂą elles sont nĂ©cessaires. » Ă€ cet Ă©gard, nous devrions nous inspirer des pouvoirs confĂ©rĂ©s Ă  un tribunal par la Loi sur l’immigration et la protection des rĂ©fugiĂ©s pour engager la responsabilitĂ© pĂ©nale dans le but de dissuader les dĂ©lits en matière d’IA et d’envoyer un message clair selon lequel la mauvaise gestion de l’IA et du numĂ©rique ont des consĂ©quences graves.

Autres questions

Les sections estiment que l’utilisation croissante du profilage numĂ©rique nĂ©cessite une attention immĂ©diate, car, combinĂ©e Ă  l’apprentissage automatique, elle ouvre la porte d’une nouvelle ère de racisme scientifique. « Les principes fondamentaux de l’apprentissage automatique en matière de comprĂ©hension des images indiquent comment les ordinateurs analysent les caractĂ©ristiques physiques au moyen de calculs prĂ©cis basĂ©s sur les images, en mettant l’accent sur l’approche d’apprentissage supervisĂ© avec des exemples Ă©tiquetĂ©s, Ă©crivent les sections. Les nuances techniques comme le rĂ©glage des paramètres, le rajustement excessif et la relation complexe entre le nombre de paramètres et les donnĂ©es d’apprentissage requises sont Ă©galement des Ă©lĂ©ments Ă  considĂ©rer. »

Enfin, les sections suggèrent de renforcer certaines dĂ©finitions du traitĂ© proposĂ©, comme celles de la « primautĂ© du droit » et des « ingĂ©rence » avec les droits de la personne et les libertĂ©s fondamentales.

Le mĂ©moire de l’ABC conclut en formulant l’espoir qu’un cadre rĂ©glementaire complet comme le traitĂ© proposĂ© « contribuera Ă  exploiter le potentiel de l’IA tout en rĂ©duisant le plus possible ses risques ».