√Čpisode 24: La prise de d√©cision automatis√©e en droit administratif

Y. Faguy: Bonjour, Yves Faguy ici, aujourd’hui nous allons parler des enjeux li√©s √† la prise de d√©cision automatis√©e en droit administratif. Pour nous parler de cela, notre invit√© est M√©lanie Raymond qui en toute transparence est une amie de longue date. Elle a d√©j√† occup√© mon poste ici √† abc. M√©lanie est juge administrative depuis une quinzaine d’ann√©es au sein de deux des plus grands tribunaux administratifs du Canada : le Tribunal administratif du travail et la Commission de l’immigration et du statut de r√©fugi√©. Elle en a vu ! Elle a si√©g√© dans plus d’un millier de dossiers et r√©dig√© autant de d√©cisions en premi√®re instance et en appel. Avocate, elle a aussi pratiqu√© le droit en cabinet priv√© et au sein de la Fonction publique f√©d√©rale.

Elle offre des formations sur des th√®mes li√©s √† l’intelligence artificielle, la communication, la r√©solution de conflit, l’approche participative et le respect de la dignit√© de la personne. D’ailleurs, elle sera conf√©renci√®re sur les enjeux qui entourent l’intelligence artificielle le 8 juin, et ce dans le cadre de la semaine nationale du droit administratif. C’est un √©v√©nement conjoint u Conseil administratif canadien et de l’Institut canadien de l’administration de la justice. M√©lanie, c’√©tait toute une bouch√©e de mots, mais bienvenue √† Droit moderne.

M√©lanie: Bonjour ! Merci de m’avoir invit√©, c’est un vrai privil√®ge et un grand plaisir.

Y. Faguy: Tout au long de ta carri√®re, tu t’es efforc√© de remettre l’humain au cŇďur des r√©solutions de probl√®mes juridiques, et l√† ton travail est loin d’√™tre termin√© parce que nous allons parler du r√īle d’intelligence artificielle et des machines dans les d√©cisions administratives de l’√Čtat. Mais, reculons un p’tit peu. Les th√®mes qui sont souvent revenus dans nos discussions, entre toi et moi, sont les d√©fis que tu as rencontr√©s dans ton travail. Ils touchent √† des facteurs qui m√™lent la prise en compte du contexte social, la diversit√© du justiciable et leur dignit√© humaine. √Čcartons pour le moment l’intelligence artificielle. Comment l’intelligence artificielle se heurt-elle √† ces facteurs de mani√®re g√©n√©rale ?

M√©lanie: Bien en fait, c’est int√©ressant parce qu’il y a aussi un lien avec l’intelligence artificielle et c’est pour √ßa que j’en suis venue √† y porter attention. C’est que le droit administratif est un peu tiraill√© entre un id√©al, je dirais, de production de grands volumes. Parce que les tribunaux administratifs ont beaucoup de contestations et peu de temps pour rendre les d√©cisions. Ils ont un certain id√©al de productivit√©, je dirais, et la prise en compte du contexte social, des particularit√©s de chacun. Les tribunaux administratifs se ramassent toujours pris, les d√©cideurs, les gens qui travaillent au sein des tribunaux administratifs, √† essayer de concilier ces objectifs de c√©l√©rit√©, puis ces objectifs de… je dirais que les tribunaux administratifs, c’est au cŇďur de leur mission d’avoir une justice plus souple. Pas souple dans le sens qu’ils sont moins attentifs aux id√©aux de justice, mais plus une proc√©dure souple, un tribunal plus l√©ger, une efficacit√© plus grande au niveau du temps, au niveau des co√Ľts, au niveau du temps, au niveau de la preuve.

Mais en m√™me temps, souvent ils sont le tribunal de premier lieu, de premier point, c’est la premi√®re fois que le justiciable est capable de s’exprimer par rapport √† son dossier, par rapport √† ce qu’il a v√©cu. Souvent, il arrive avec une d√©cision qui lui vient de l’administration gouvernementale qu’il ne comprend pas. Donc, il vient chercher des r√©ponses, il n’a pas toujours l’argent, en fait il n’a pas souvent l’argent pour √™tre repr√©sent√©. Donc, tous ces imp√©ratifs-l√†, je dirais qu’il y a un d√©fi qui n’est pas √©tranger aux tribunaux de droit commun, mais qui est peut-√™tre exacerb√© chez les tribunaux de droit administratif.

Y. Faguy: Je pense qui l’est important de pr√©ciser ici que premi√®rement, la plupart des d√©cisions juridiques qui impliquent les gens, les gens communs, les gens normaux, sont prises par un ensemble de tribunaux administratifs et qu’ils exercent un pouvoir ex√©cutif qui leur a √©t√© d√©l√©gu√©.

M√©lanie: Bien, un « pouvoir ex√©cutif », j’ai une petite r√©serve. Je dirais que c’est plus un pouvoir impartial de d√©cision. Un pouvoir ex√©cutif, cela pourrait donner l’id√©e qu’ils sont une branche de l’administration, alors qu’en fait dans l’organigramme ils sont √† part, ils ont un pouvoir qui s’apparente plus au pouvoir judiciaire.

Y. Faguy: D’accord, OK. O√Ļ en sommes-nous d√©j√† en ce qui concerne une r√©flexion de fond sur la mani√®re dont le droit administratif d√©pend des machines et des logiciels de mani√®re g√©n√©rale. Et ce, sans compter m√™me cette introduction de la nouvelle intelligence artificielle. Est-ce que nos instances ont d√©j√† port√© une attention particuli√®re √† tout cela ?

M√©lanie: Je ne le sais pas. Moi je regarde, d√©j√† la r√©flexion par rapport √† l’intelligence artificielle n’est pas tr√®s avanc√©e, mais je dirais que c’est le lieu commun de toutes nos soci√©t√©s. Par rapport √† la machine, je ne pourrais pas dire jusqu’√† quel point on s’est interrog√©. Il y a des questions qui se sont pos√©es chez certains organes ind√©pendants, ou certains tribunaux particuliers, sur comment on pourrait g√©rer les donn√©es de masse des informations, une grande quantit√© d’informations gr√Ęce √† un logiciel ou gr√Ęce √† une certaine forme d’intelligence artificielle qui n’est pas tout √† fait la m√™me que celle que l’on conna√ģt maintenant. Je pense entre autres, par exemple, au niveau de l’immigration.

Et il n’y a pas une r√©flexion globale g√©n√©rale sur la question. Est-ce que c’est un aveuglement ? Je ne pense pas, je pense que c’est un peu le lot du retard de nos institutions gouvernementales, parce que, d’abord et avant tout, les tribunaux administratifs revoient des d√©cisions de l’administration gouvernementale. L’administration gouvernementale, on l’a vu dans les derni√®res ann√©es, on l’a vu avec la pand√©mie, n’est pas n√©cessairement, et je pense que c’est un euph√©misme, mais elle n’est pas n√©cessairement la plus efficace et avanc√©e au niveau technologique. Moi j’Ňďuvre dans un tribunal administratif o√Ļ l’on traite beaucoup de choses m√©dicales ; on a bien vu que le fax est encore tr√®s pr√©sent dans les instances m√©dicales. Donc, on a d√©j√† de la difficult√© dans les instances gouvernementales a avoir des syst√®mes informatiques efficients. Donc, on n’en est pas encore √† une r√©flexion plus globale, je crois, sur l’utilisation de syst√®mes informatis√©s.

Par contre, je peux dire qu’il y a certains tribunaux qui l’ont fait et qui l’ont fait avec beaucoup d’√©l√©gance et beaucoup d’efficacit√©. Je pense au Tribunal de la s√©curit√© sociale qui r√©cemment √† un peu revu tous ces processus pour rendre les choses plus efficaces. En immigration il y a des choses qui sont faites.

Y. Faguy: C’est au f√©d√©ral √ßa ?

M√©lanie: Pardon ?

Y. Faguy: √áa, c’est au f√©d√©ral √ßa.

M√©lanie: Oui. Au provincial, j’avoue ma m√©connaissance. Je pense qu’au provincial que plusieurs institutions vont s’appuyer sur l’informatique pour faire du classement de donn√©es et du classement de dossiers. Mais est-ce qu’on est plus avanc√© que cela ? Je ne pourrais pas m’avancer.

Y. Faguy: Je posais la question pour nous situer d’abord dans un contexte o√Ļ je pense qu’il est n√©cessaire de pr√©ciser que la p√©riode dans laquelle nous vivons actuellement est sp√©ciale. Du moins, pour la plupart d’entre nous, pour les √©conomies d√©velopp√©es. Moi personnellement, tout au long de ma vie j’ai vu des choses changer, mais est-ce que j’ai connu des changements technologiques v√©ritablement aussi r√©volutionnaires que ceux que l’on voit avec l’arriv√©e de l’intelligence artificielle et Chat GPT et des outils semblables. Je suppose que l’on pourrait dire que l’internet et les t√©l√©phones intelligents l’ont √©t√© jusqu’√† un certain point r√©volutionnaire, mais je ne suis pas s√Ľr qui l’ont √©t√© au m√™me titre que ce que l’on voit aujourd’hui ? Je n’en sais rien, mais il me semble que l’on restait quand m√™me dans des param√®tres √† dimension humaine. Ce qui nous permettait de nous adapter.

Mais voici quelque chose de compl√®tement diff√©rent, et puis on parle maintenant d’int√©grer des d√©cisions automatis√©es dans nos rapports entre le justiciable et des instances √©tatiques. Que penser de tout √ßa ?

M√©lanie: D’abord et avant tout, c’est int√©ressant ce que tu am√®nes par rapport aux changements technologiques, parce que c’est un peu l’histoire de mon parcours. C’est-√†-dire que moi, je me suis int√©ress√© √† la vie de l’intelligence artificielle il y a √† peu pr√®s six ou sept ans, je commen√ßais √† m’y int√©resser. J’ai commenc√© √† m’y int√©resser parce que, en tant que juge administrative, j’allais √† des colloques, het parfois il y a des modes dans les colloques. Il y avait toujours le m√™me conf√©rencier qui venait, je ne me rappelle plus s’il est Am√©ricain ou Torontois, mais c’est quelqu’un qui d√©veloppait un outil d’intelligence artificielle en mati√®re d’imp√īt. Il nous vantait un peu son outil comme quoi son outil allait faire en sorte que les d√©cisions, en mati√®re d’imp√īt, allaient se prendre beaucoup plus facilement, presque m√™me toutes seules, gr√Ęce √† son syst√®me. On allait pouvoir analyser une grande quantit√© de d√©cisions et pr√©dire des facteurs de r√©ussite ou pas d’une contestation. Cce qui allait permettre aux clients de d√©terminer si oui ou non il allait se rendre devant le tribunal.

Je me rappelle d’avoir eu deux sentiments √† ce moment-l√†. Le premier, c’est que dans l’audience tout le monde √©tait un peu sceptique. C’est comme si on √©coutait √ßa, mais c’√©tait de la science-fiction. On se disait que peut-√™tre que sa proposition √©tait un peu forte en caf√©, c’est comme si on ne pouvait pas s’imaginer que cela allait arriver. Mon autre perception, c’est comme si je me sentais heurt√©e, c’est comme √ßa que j’ai commenc√© √† m’y int√©resser. Parce que, dans ma perception de l’√©poque, c’est comme s’il venait d√©valoriser mon travail. Il √©tait en train de me dire que j’√©tais pour √™tre remplac√© par une machine. Ce que je fais, c’est quelque chose de tr√®s tr√®s simple qui pourra √™tre remplac√© par quelqu’un qui ne r√©fl√©chit pas, qui n’a pas √©tudi√© pendant toutes ces ann√©es o√Ļ j’ai √©tudi√©. C’√©tait comme mettre de c√īt√© mon talent personnel. J’ai un peu l’impression que c’est ce qui explique ce pour quoi on n’a pas beaucoup avanc√©. Je te dirais que sur ce sujet-l√†, moi, √ß’a √©t√© mort. J’ai travaill√© l√†-dessus, j’ai donn√© quelques conf√©rences et apr√®s j’ai arr√™t√©. L√†, √©videmment, c’est le retour de l’int√©r√™t depuis l’arriv√©e de ChatGPT. Mais j’ai l’impression que quelque part chez les juristes et chez les d√©cideurs, chez les gens qui auraient pu s’y int√©resser, tout comme moi, ils avaient cette esp√®ce de sentiment mitiger de : 1 — j’ai pas le go√Ľt de r√©fl√©chir √† cette esp√®ce de tsunami qui pourrait changer tous les paradigmes selon lesquels j’ai agi jusqu’√† maintenant, 2 — je n’ai pas non plus envie de me faire dire que je risque de devenir obsol√®te. Parce qu’il y a ce c√īt√©, nous, notre ego est un peu heurt√©. On a vu r√©cemment tout le monde qui s’excite, ou s’exclame, du fait que ChatGPT arrive √† √©crire rapidement un texte, ou arrive rapidement… on l’a vu avec les traducteurs. Un moment donn√© on a des logiciels de plus en plus int√©ressants au niveau de la traduction.

Je pense que c’est quelque chose qui nous fascine et nous effraie √† la fois, et √ßa explique pourquoi on n’ose pas trop y r√©fl√©chir en profondeur. Malheureusement, je pense que c’est l√† qu’on va y perdre. Le plus t√īt qu’on va s’investir dans le processus, le plus t√īt les tribunaux administratifs vont r√©fl√©chir √† comment ils peuvent se r√©incarner ou en quoi √ßa va changer la fa√ßon de faire leur travail, plus rapidement ils vont pouvoir trouver leur place.

Y. Faguy: Je pense que la personne √† qui tu faisais r√©f√©rence c’est Benjamin Alarie qui avait fond√© une bo√ģte qui s’appelle Blue J Legal. Je pense qu’il s’appelle maintenant…

M√©lanie: Voil√† ! Bien je le remercie, parce que gr√Ęce √† lui, j’ai √©t√© oblig√© de me remettre en question, et je n’ai aucune id√©e de ce qui est arriv√© de cette bo√ģte, si cela a fonctionn√© ou pas.

Y. Faguy: Je pense qu’il a un autre th√®me sur les AI Taxman et ce qui fait peur en soi, l’intelligence artificielle qui vient chercher mes imp√īts. Pour revenir √† notre sujet, peut-√™tre que tout le monde n’est pas d’accord, mais cette hypoth√®se de la dimension humaine au sein d’aider d√©cisions qui est peut-√™tre en train de s’effondrer, si on permet l’introduction massive de l’intelligence artificielle dans la prise de d√©cision administrative. C’est s√Ľr que cela repr√©sente une avanc√©e technologique qui est majeure, l’utilisation de prises de d√©cisions automatis√©es de l’intelligence dans le secteur public et qui est de plus en plus r√©pandue. Quelle est l’√©tendue, selon toi, de cette utilisation ?

M√©lanie: Moi, je t’avoue ne pas pouvoir te dire quelle en est l’√©tendue, parce que cela reste encore un peu obscur. Je pense que les administrations ne s’en vantent pas non plus, √ßa c’est dans nos juridictions provinciales et les juridictions f√©d√©rales. Par contre, on peut le voir dans certains pays o√Ļ cela a d√©j√† √©t√© utilis√©, bien avant que l’on s’excite sur ChatGPT. On a utilis√© des syst√®mes d’apprentissage machine, on a utilis√© des syst√®mes qui peuvent d√©cider, qui servent √† d√©cider avec un m√©canisme d’intelligence artificielle. Par exemple, tu parlais du Taxman et √ßa m’a fait penser √† √ßa. Cela a √©t√© utilis√© en Hollande et en Angleterre, entre autres, pour d√©terminer jusqu’√† quel point quelqu’un peut avoir acc√®s √† de l’aide sociale, peut avoir acc√®s √† des b√©n√©fices m√©dicaux, peut avoir acc√®s √† certaines subventions. Il y a eu certaines rat√©s, parce qu’on s’est rendu compte que… le probl√®me n’est jamais le syst√®me en soi, c’est comment il est programm√©, √† quelle fin il sert.

Mais dans ces exemples-l√†, on s’est rendu compte qu’il y avait des biais, des donn√©es qu’on n’avait pas soup√ßonn√©es et qui allaient avoir une influence dans la d√©cision. Les gens se retrouvaient avec des d√©cisions d√©favorables √† leur √©gard, pour lesquelles on n’avait pas n√©cessairement une explication juridique o√Ļ on ne pouvait pas retracer le raisonnement. Parce que souvent, quand on y pense, l’arriv√©e des syst√®mes d’intelligence artificielle, ce sont des syst√®mes qui sont bas√©s sur l’obtention d’un r√©sultat. On va entra√ģner la machine, par exemple, on va dire moi je veux un g√Ęteau, alors je te demande √† toi d’analyser une grande quantit√© de donn√©es pour me faire la meilleure recette pour obtenir le g√Ęteau. On ne saura pas n√©cessairement quels ont √©t√© les param√®tres ou les crit√®res qui ont √©t√© pris en compte pour obtenir le r√©sultat, parce que c’est le r√©sultat qui va servir √† valider et √† cr√©er l’apprentissage chez la machine, contrairement √† un syst√®me o√Ļ on lui donne une recette pr√©√©tablie. Donc, c’est difficile par la suite en r√©trospective, parfois, de savoir quels sont les param√®tres qui ont √©t√© consid√©r√©s comme √©tant importants par le logiciel, par le syst√®me d’apprentissage machine, pour en venir √† une r√©ponse donn√©e.

C’est ce qui cause souvent un probl√®me en justice administrative, par exemple, en fait, la justice administrative est tr√®s focalis√©e sur le processus. Est-ce que la d√©cision a √©t√© prise avec l’id√©e d’un respect de la justice naturelle et un respect du droit du citoyen ? Par exemple, de faire valoir son point de vue et de soumettre sa preuve. Ces aspects-l√† disparaissent, en quelque sorte, ou ils sont att√©nu√©s par l’arriv√©e d’un logiciel de l’apprentissage machine, bas√©e sur l’intelligence artificielle, parce que l’on n’arrive pas √† retracer exactement le processus qui a men√© au r√©sultat.

Y. Faguy: Alors que l’on est capable de mieux le faire quand les d√©cideurs sont humains ?

M√©lanie: Bien, oui et non, parce que c’est un leurre, comme je le disais quand je retra√ßais un peu mon histoire par rapport √† l’intelligence artificielle. Je pense que parfois on se cr√©e nous aussi certaines illusions, mais il ne faut pas oublier que le d√©cideur aussi est influenc√© par certains pr√©jug√©s inconscients, par une certaine vision des faits, l’angle qu’il a voulu donn√© au litige quand il a commenc√© √† √©couter la d√©cision et qu’il a filtr√© les informations qui ont pu venir de chacune des parties. Donc, l’humain n’est pas √† l’abri non plus de cette esp√®ce de flou qui nous permet difficilement de d√©terminer pourquoi il en est venu √† une d√©cision, mais quand m√™me [une d√©cision] qu’il doit justifier. Jusqu’√† maintenant, la fa√ßon dont on a fonctionn√© est bas√©e sur les motifs. On s’est bas√© sur la justification que l’humain a donn√©e en tenant pour acquis que cette justification-l√† refl√©tait le fond de sa pens√©e.

Donc, pour l’instant, je dirais que les param√®tres sont peut-√™tre plus faciles √† revoir dans une d√©cision humaine. Je pense que ce sont aussi des choix de soci√©t√© que l’on va choisir de prendre. Est-ce qu’en ce moment on d√©cide que ce qui est juste c’est une d√©cision individualis√©e pour laquelle on est capable de r√©viser les param√®tres ? Peut-√™tre que dans quelques ann√©es on d√©cidera qu’une d√©cision qui est juste c’est une d√©cision qui est une d√©cision plus conforme, ou coh√©rente avec toutes les autres d√©cisions qui ont √©t√© prises, parce qu’il y a un syst√®me informatique derri√®re qui a √©quilibr√© et qui s’est assur√©, quelque part, en syst√©matisant le processus, que les r√©sultats allaient √™tre semblables.

Y. Faguy: Est-ce que c’est le droit administratif qui se pr√©occupe du bien-fond√© d’une d√©cision ? Ou, est-ce qu’on est encore dans le processus ? On parlait justement comme quoi le droit administratif s’int√©resse presque davantage au processus par lequel une d√©cision a √©t√© prise, que son bien-fond√©, ou est-ce que l√† je fais des exag√©rations ?

M√©lanie: Non, je dirais qu’il s’int√©resse tout autant au bien-fond√© du processus. Ce que je veux dire c’est qu’il ne s’int√©resse pas n√©cessairement aux r√©sultats. C’est-√†-dire qu’il y a un souci de coh√©rence qui est grand, au sein des tribunaux administratifs, parce que normalement un justiciable devrait s’attendre √† avoir une d√©cision semblable √† celle d’un autre justiciable pour certaines informations semblables. Si on part d’un m√™me type de dossier, cela devrait donner des r√©sultats semblables, donc il y a quand m√™me un souci de coh√©rence. Les tribunaux administratifs sont point√©s du doigt s’ils ne sont pas coh√©rents. Mais je dirais que l’accent est quand m√™me mis la plupart du temps sur la justification individualis√©e et c’est l√† la richesse du droit administratif. C’est que l’on va pouvoir aller chercher la particularit√© de l’individu, la particularit√© d’un dossier, la particularit√© du cas pour rendre une d√©cision. Ce qui n’est pas l’objectif de l’intelligence artificielle ou d’une certaine standardisation, parce que l’objectif d’une standardisation, c’est d’essayer de trouver le plus grand nombre de points communs possibles pour rendre une d√©cision semblable dans des cas… Bien, en fait c’est de faire de certains cas que tous les cas, des cas semblables, ou le plus semblable possible, de chercher √† l’int√©rieur de ces cas-l√† les caract√©ristiques semblables pour arriver √† un r√©sultat semblable.

Y. Faguy: Je comprends.

M√©lanie: C’est comme si l’on partait d’une pr√©misse diff√©rente. Je ne suis pas du tout r√©fractaire √† l’arriv√©e de l’intelligence artificielle. Je l’ai d√©j√† √©t√©, mais je ne le suis plus parce que je pense qu’on ne pourra pas faire abstraction, comme je le disais, de ce tsunami. Mais il faut quand m√™me √™tre conscient que cela va √™tre un certain changement de paradigmes. On n’aura pas n√©cessairement la m√™me d√©finition de la justice et on ne d√©cidera pas de se payer, en tant que soci√©t√©, le m√™me genre de d√©cision. Peut-√™tre qu’il y a des sujets, des situations, pour lesquelles on va se dire : l√† c’est un humain qui va analyser cela, parce qu’il va r√©ussir √† faire ressortir les caract√©ristiques particuli√®res d’un dossier. Puis, dans d’autres situations, on va dire qu’on va y aller avec un syst√®me de d√©cision de masse, et √† ce moment-l√†, on perdra au change de l’efficacit√© par rapport √† la particularit√© qu’on peut donner √† certains dossiers. Le probl√®me c’est que je ne sais pas comment on va les identifier et ces dossiers-l√†.

Y. Faguy: J’allais justement poser la question.

M√©lanie: Oui, et c’est int√©ressant, parce que quand on √©coute les gens qui sont dans le milieu juridique et qu’ils r√©fl√©chissent √† l’intelligence artificielle, souvent on va venir dire : ah, bien ce sont peut-√™tre les tribunaux administratifs qui seront les premiers √† faire cette exp√©rience-l√† des syst√®mes automatis√©s de d√©cisions, parce que ce qu’ils font… bien, on sent qu’il y a un certain snobisme, il y a un petit peu l’id√©e de : s’ils font du volume, c’est plus ou moins important. Puis, les tribunaux de droit commun, comme la Cour sup√©rieure, se garderont les dossiers plus particuliers. Moi je pense que c’est une mauvaise vision de l’affaire, je suis peut-√™tre un peu chauvine. Je remarque que souvent le tribunal administratif, je l’ai dit tant√īt, c’est le premier forum ou quelqu’un peut faire part de sa particularit√©. Il a eu une d√©cision par un agent d’un organisme gouvernemental, souvent il n’a pas toujours compris l’enjeu, le pourquoi de cette d√©cision-l√†, parce que la d√©cision, la plupart du temps, est relativement format√©e, je dirais. Et il n’a pas toujours acc√®s √† l’agent qui a pris la d√©cision.

Encore une fois, √ßa d√©pend de quel organisme gouvernemental on parle. Il arrive pour la premi√®re fois devant un d√©cideur, c’est souvent la premi√®re occasion qu’il a de comprendre m√™me pourquoi il a re√ßu ce r√©sultat-l√†. C’est sa premi√®re occasion de faire valoir sa diff√©rence. Si cette diff√©rence-l√† n’est pas √©pingl√©e par le premier d√©cideur qui le voit, bien elle ne va pas se rendre aux tribunaux sup√©rieurs, m√™me s’il y a des processus de r√©vision par la suite. M√™me si √ßa va en contr√īle judiciaire, ou si √ßa monte la cha√ģne, c’est souvent le premier triage des faits qui va servir d’assise pour les d√©cisions qui vont aller en contr√īle judiciaire. Parce que, l’id√©e m√™me du contr√īle judiciaire, c’est de revoir le processus d√©cisionnel du d√©cideur administratif, du premier d√©cideur administratif qui a pris la d√©cision. On ne va pas refaire la preuve, on ne va pas permettre au justiciable de faire ressortir sa particularit√©. C’est une des premi√®res raisons pour laquelle je ne suis pas certaine que cette id√©e que les tribunaux, peut-√™tre que l’on sacrifiera, je me permets d’exag√©rer, les tribunaux administratifs vont nous permettre d’atteindre notre objectif.

Parfois aussi, ce n’est pas le prix du litige qui va rendre la question complexe, on le sait d√©j√†. J’en ai des illustrations quotidiennes. Une de mes d√©cisions o√Ļ j’ai parl√© de dignit√© humaine, bien √ßa concernait quelqu’un √† qui on avait refus√© un couvercle de proth√®se qui valait √† peu pr√®s 500 $. Donc, c’est un tr√®s petit litige en soi. Cette personne-l√† est venue m’expliquer en quoi, depuis qu’elle a eu un accident du travail, — elle avait une jambe robotis√©e, automatis√©e, qui attirait le regard de tout le monde sur la rue et que — son couvercle de proth√®se, qui n’√©tait pas essentiel √† sa proth√®se, lui assurait une certaine dignit√©. Parce que √ßa allait emp√™cher les gens, ou en tout cas, √ßa allait limiter les gens, de dire qu’elle avait une jambe de Robocop, si je peux me permettre entre guillemets. C’est comme √ßa qu’on l’appelait dans son quartier.

Donc, si j’√©tais all√© simplement avec des crit√®res d’importance, puis du montant du litige, pour d√©terminer : est-ce que c’est un genre de d√©cision que je suis pr√™te √† sacrifier √† l’intelligence artificielle ? Bien, probablement qu’elle se serait ramass√©e dans la d√©cision de masse cette d√©cision-l√†. Est-ce que cet aspect-l√† de dignit√© personnelle et l’importance pour elle dans son quotidien, d’avoir ce couvercle de proth√®se l√†, auraient ressortis ? Je ne suis pas certaine. 

Y. Faguy: C’est une question int√©ressante, parce qu’on parle beaucoup d’acc√®s √† la justice, et √©tant donn√© qu’il y a beaucoup de justiciables qui ont besoin d’aller chercher ces d√©cisions administratives, je pense que la justification de l’emploi de ces outils de l’intelligence artificielle, c’est pour am√©liorer quand m√™me un certain acc√®s √† la justice, et d’amener plus de c√©l√©rit√© au syst√®me, comme tu le disais tant√īt. Mais, les gouvernements, quelque part, doivent acqu√©rir une mission sociale pour utiliser ces outils dans leur prise de d√©cision. Je me demande si on r√©fl√©chit √† cela. Est-ce qu’ils vont devoir r√©fl√©chir √† cela ? Est-ce qu’ils vont devoir apporter une r√©flexion de fond sur la mani√®re dont le droit administratif d√©pend ou d√©pendra de ces logiciels intelligents ?

M√©lanie:   C’est une bonne question que tu poses, parce que pendant longtemps je me suis dit :  √ßa ne fonctionnera pas. On parlait entre autres de l’utilisation d’agents conversationnels, Chabot, en bon fran√ßais, en bon anglais. Je me disais, √ßa ne marchera pas les agents conversationnels. Je me disais : les gens n’accepteront pas, il n’y aura pas de l√©gitimit√© sociale √† recevoir une d√©cision d’une machine, ou √† parler √† un agent conversationnel. Puis, on l’a vu avec la pand√©mie, soudain, j’ai √©t√© oblig√© de faire le constat que les agents conversationnels, je pense qu’il y a quand m√™me une certaine adh√©sion sociale.

L√†, on le voit avec ChatGPT, on a toujours quelques histoires de gens qui se sont mis √† parler √† ChatGPT et √† lui poser des questions plus personnelles. Finalement, on se rend compte que l’humain, il oublie. Il oublie qu’il parle √† une machine, puis que cette r√©serve qu’on a, elle n’existera peut-√™tre pas encore tr√®s longtemps. Peut-√™tre que les gens qui vont avoir grandi avec un autre paradigme n’auront pas cette r√©ticence qu’on semble avoir. Moi, j’ai des enfants, puis la pire chose qu’il peut leur arriver, c’est de leur demander de r√©pondre au t√©l√©phone au hasard, √† quelqu’un qu’ils ne connaissent pas, avec un sc√©nario pas pr√©vu. Je pense qu’ils pr√©f√©reraient bien mieux texter √† un robot conversationnel pour avoir une r√©ponse. Donc, peut-√™tre qu’avec les ann√©es qui vont avancer, les instances gouvernementales auront de moins en moins besoin d’aller chercher cette l√©gitimit√©-l√†, parce qu’elle va s’installer dans nos mŇďurs, parce qu’on va s’y √™tre fait, parce qu’on va avoir mis l’accent sur autre chose.

Je mets beaucoup l’accent sur cette id√©e de l’humain qui rencontre un autre humain dans la salle d’audience, ou par zoom maintenant, qui arrive √† lui dire : quel est son dossier, qui il est, puis son contexte social √† lui. Mais est-ce que c’est quelque chose qu’on valorisera plus tard, peut-√™tre pas. Puis, peut-√™tre que les institutions gouvernementales n’auront pas tant besoin d’avancer leur r√©flexion sur le sujet, parce que ce ne sera plus comme √ßa que l’on va fonctionner. Il reste qu’il y a des initiatives qui ont √©t√© prises. Encore une fois, je suis plus au courant de ce qui se passe dans l’appareil gouvernemental f√©d√©ral, mais il y a un syst√®me qui a √©t√© cr√©√© qui est une esp√®ce de grille d’analyse de tous projets qui impliquent l’intelligence artificielle. C’est l’indice d’incidence algorithmique, je crois, son nom officiel.

C’est un exercice qui doit √™tre compl√©t√© par toute organisation gouvernementale f√©d√©rale qui veut mettre en Ňďuvre un syst√®me d’intelligence artificielle pour prendre des d√©cisions, et il y a certaines √©tapes √† passer. Entre autres, pour l’instant on ne permettra pas ce genre de syst√®me automatis√© quand les droits fondamentaux de quelqu’un sont remis en question ou sont en danger. Par contre, √ßa n’emp√™che pas d’avoir l’intelligence artificielle pour certaines des √©tapes de ce processus d√©cisionnel, mais pas pour prendre la d√©cision finale. 

Y. Faguy: Je suis peut-√™tre na√Įf, mais il me semble que d’accepter des d√©cisions algorithmiques, en tant que consommateur avec des Chatbot et tout √ßa, c’est un choix personnel et priv√©. Mais en tant que citoyen, quelque part on c√®de le contr√īle des d√©cisions algorithmiques pour la gouvernance de l’√Čtat et le contr√īle des lois. C’est une chose quand m√™me diff√©rente. Je veux bien que le gouvernement ait sa matrice pour d√©cider ce qui est appropri√© ou pas, comme enjeu √† √™tre utilis√© par une intelligence artificielle, mais je reviens √† cette question de la licence sociale de l’√Čtat. Parce qu’√† partir du moment o√Ļ un justiciable ressent une injustice qui implique une action gouvernementale, je pense que c’est une autre chose. Non ?

M√©lanie:   Oui, puis tu sais, tu m’am√®nes sur un terrain qui est personnel, en dehors de mes fonctions de juge administratif. Moi, c’est quelque chose qui me pr√©occupe, parce que je constate quand m√™me que dans notre soci√©t√© en ce moment, et chez nos voisins, et dans les soci√©t√©s √† peu pr√®s partout, en constate une grande frustration chez certains groupes. Des groupes qui se sentent exclus du d√©bat public et qui remettent en question la fa√ßon dont les d√©cisions sont prises. On a tous ces complots que les gens imaginent et qui remettent en question la l√©gitimit√© de l’√Čtat. Je ne crois pas que l’instauration... En fait, je crois que l’instauration de l’intelligence artificielle pour prendre des d√©cisions √† grande √©chelle va continuer de nourrir ce sentiment d’exclusion et de complot. Donc, je pense que de la part d’un gouvernement, il faut bien y r√©fl√©chir. Ce dont j’ai un peu peur qu’il se produise, c’est que cela va s’ins√©rer par la bande et qu’il n’y aura pas de r√©flexion globale sur la question. Je suis d’accord avec toi que c’est un enjeu diff√©rent que de d√©terminer : est-ce que je suis √©ligible ou pas √† une police d’assurance. Encore une fois, parce que je l’exp√©rimente aussi chaque jour, √† quel point les gens, quand ils viennent devant le tribunal administratif, puis que c’est la premi√®re personne √† qui ils peuvent raconter leur histoire, je ne peux pas te dire le nombre de fois o√Ļ les gens, bien que je ne leur aie pas donn√© raison, mais que je leur ai expliqu√© pourquoi [ces gens] ils sont repartis en me remerciant et en √©tant contents. Est-ce qu’on va obtenir le m√™me r√©sultat ? Je ne pense pas. Parce que ces gens-l√† ont d√©j√† une d√©cision en main et ils ne l’ont pas comprise. Donc, si on y va avec un syst√®me qui prend des d√©cisions √† grande √©chelle et qu’on n’a pas ce forum-l√†… Ceci dit, je ne pense pas que √ßa doit n√©cessairement √™tre √† l’√©tape du d√©cideur administratif que cela devrait √™tre fait. Il y a plein de fois o√Ļ je me suis dit : s’il y avait eu cette √©tape-l√† avant moi, on n’aurait pas eu besoin d’une audience aujourd’hui. Moins les gens pourront s’exprimer, plus la col√®re sera grandissante, √† mon sens.

Y. Faguy: Mais je pense qu’on a quand m√™me cette appr√©hension des d√©cisions algorithmiques. C’est peut-√™tre qu’ils trahissent chez nous une crainte visc√©rale de l’inflexibilit√© des machines qui sont rigides. Et dans certains cas, leurs d√©cisions peuvent avoir des cons√©quences monumentales pour les gens, m√™me de vie ou de mort.

M√©lanie:   Oui ! Ceci dit, les syst√®mes d’intelligence artificielle sont suppos√©s de prendre en consid√©ration une grande quantit√© de donn√©es. Je pense qu’il faut toujours voir les deux c√īt√©s d’une m√©daille, mais si tu regardes la fa√ßon dont c’est fait, il y a quand m√™me certains avantages. C’est-√†-dire qu’ils permettent de prendre en consid√©ration, par exemple, l’exemple de d√©cisions, si par exemple on veut s’assurer d’un certain souci de coh√©rence avec les d√©cisions que les coll√®gues ont rendues et que le tribunal rend de fa√ßon quotidienne. C’est s√Ľr que le syst√®me d’intelligence artificielle va √™tre bien plus capable que moi, en tant qu’humain, d’√©valuer un nombre incroyable de d√©cisions qui ont √©t√© rendues depuis les d√©buts de mon tribunal et de voir quels sont les points communs de ces d√©cisions-l√†. Alors que moi, je vais peut-√™tre en lire 10 ou 20 pour prendre une d√©cision. Donc, il y a quand m√™me cette id√©e, on voit la machine froide, mais il reste que si le syst√®me est bien fait, en th√©orie, il est suppos√© de prendre en consid√©ration beaucoup plus de donn√©es qu’un humain pourrait prendre. Est-ce que c’est la bonne fa√ßon, la fa√ßon dont on veut le faire ? Mais ce n’est pas que n√©gatif comme moyen qui nous attend.

Y. Faguy: Je pense un p’tit peu √† ces driverless cars des automobiles sans conducteurs, s’il y en a un qui fait un accident, m√™me s’il y a un taux d’accidents plus √©lev√© chez les humains, on va quand m√™me pr√©f√©rer l’humain derri√®re le volant que la machine.

M√©lanie:   J’ose esp√©rer !

Y. Faguy: L√† o√Ļ je veux en venir, c’est que cette adoption d’une approche plus humaine est importante. On emploie le terme humain in the loop. Elle est importante pour plusieurs qui veulent qu’on assure une certaine confiance dans l’outil qui est employ√©. En m√™me temps, je me demande si cette surveillance humaine n’est pas illusoire. Aide-nous √† comprendre cette question-l√†, d’abord d’impliquer l’humain dans des d√©cisions automatiques, √ßa veut dire quoi ?

M√©lanie:   Bien, pour l’instant, la fa√ßon dont on en en parle, c’est souvent qu’on va dire que l’humain va servir de validation √† la fin de la d√©cision pour voir si oui ou non cette d√©cision-l√† a lieu d’exister. L’humain sert un peu de rempart, voil√† le mot que je cherche, de rempart contre l’automatisme ou l’aveuglement de la machine. La fa√ßon dont il est per√ßu et dont on en parle √† ce niveau-l√†, je ne suis pas s√Ľr que c’est efficace. Premi√®rement, l’humain a un certain pr√©jug√©, un biais cognitif qui favorise la d√©cision math√©matique, la d√©cision faite par une machine. Donc, si on pr√©sente √† un humain une d√©cision en lui disant qu’elle a √©t√© faite par un syst√®me informatique intelligent qui a pris la d√©cision en se basant sur une grande quantit√© de donn√©es, le r√©flexe naturel de l’humain n’est pas n√©cessairement de remettre en question les r√©sultats de cette d√©cision-l√†. Au contraire, il va avoir tendance √† s’y conformer.

C’est aussi difficile de percer ces syst√®mes d’intelligence artificielle l√†, parce que leur grande qualit√©, si on revient √† comment ils sont cr√©√©s et ce pourquoi ils sont utiles et pourquoi ils produisent autant, ils sont aussi magiques, puis magiques, je pense que c’est le bon mot. C’est qu’on ne conna√ģt pas n√©cessairement toujours la formule. J’ai dit tout √† l’heure qu’ils vont √™tre entra√ģn√©s et ils vont √™tre cr√©√©s en se basant sur le r√©sultat, pas sur une recette toute faite. Donc, on ne sait pas n√©cessairement et on n’est pas toujours capable de lire ce qui a amen√© la machine √† rendre cette d√©cision-l√†. Parce qu’on ne peut pas en tant qu’humain analyser toutes les donn√©es qu’elle a prises en compte [la machine]. Donc, on ne peut pas revoir le processus. Parfois, il y a des param√®tres cach√©s qui peuvent s’√™tre ins√©r√©s dans la d√©cision et qu’on ne pourra pas d√©tecter en tant qu’humain, m√™me si on est suppos√©, au bout du compte, servir de rempart.

Je pense aussi que, √©videmment, si les syst√®mes d’intelligence artificielle et d’apprentissage automatis√© font en sorte qu’une d√©cision peut √™tre r√©dig√©e plus rapidement, ou √™tre prise plus rapidement, bien √©videmment, on va aussi s’attendre √† ce que l’humain qui sert de rempart soit plus efficace et plus productif. Donc, face √† la charge de travail que l’humain qui doit r√©viser cette d√©cision-l√† a, est-ce que ce ne sera pas tentant, parce qu’on a tous cette qualit√©-l√†, o√Ļ en tout cas, pour tous c’est difficile d’aller √† l’encontre du mouvement g√©n√©ral, est-ce que c’est humain qui sert de rempart, va avoir le temps et va avoir l’√©nergie n√©cessaire pour d√©tricoter cette d√©cision ? Ou, il va plut√īt dire : √ßa doit √™tre bon c’est correct, puis je vais juste l’avaliser ? Est-ce que l’humain va devenir quelqu’un qui fait juste mettre un rubber stamper, qui va juste mettre son √©tampe √† la fin de la d√©cision ? Je ne pense pas qu’on va atteindre le r√©sultat.

Y. Faguy: Comment on fait pour ne pas r√©duire l’humain a un simple ex√©cutant dans ces d√©cisions prises par des outils d’intelligence artificielle ?

M√©lanie:   Bien, il est grand temps qu’on r√©fl√©chisse en amont. Le genre de conversation qu’on a aujourd’hui, c’est le genre de conversation qu’on devrait avoir dans le domaine, parce qu’il faut r√©fl√©chir. L√† o√Ļ l’humain est utile, c’est quand il faut r√©fl√©chir √† l’utilisation des algorithmes. Par exemple, ce qu’on s’est dit tout √† l’heure, quel type de d√©cision on est pr√™ts √† laisser aller √† la machine et dans quel type de situation ? Et, quelle est la bonne fa√ßon de programmer les algorithmes ? Ou, en tout cas, comment on va faire en sorte que les algorithmes qui sont cr√©√©s par l’intelligence artificielle vont laisser une certaine trace de lisibilit√©, pour que par la suite, on puisse revoir ce qu’ils font. Comment on va les tester aussi, pour savoir quel est le r√©sultat.

C’est dommage, c’est comme √ßa, mais le droit est toujours en r√©action aux ph√©nom√®nes. Il laisse souvent le marcher cr√©er le potentiel pour ensuite l√©gif√©rer pour √©viter les exc√®s. √áa fonctionne bien quand on a un prototype informatique qui n’est pas tr√®s d√©velopp√©, parce qu’en g√©n√©ral, comme il n’est pas tr√®s d√©velopp√©, il n’est pas dangereux. Le probl√®me avec l’intelligence artificielle, c’est que c’est en ce moment o√Ļ elle est la plus dangereuse, nocive. Parce que c’est en ce moment que les outils ne sont pas au point. On l’a vu dans les quelques exemples anecdotiques de ChatGPT ou de Bing, ou peu importe, les agents qui ont √©t√© cr√©√©s entre autres, pour faire de la conversation. C’est en ce moment o√Ļ on ne comprend pas trop encore comment la donn√©e se ramasse dans certaines boucles de r√©flexion et comment on va faire pour l’extraire de l√†, comment on va faire pour extraire les donn√©es nocives ou n√©gatives.

Je pense que la solution du human in the loop n’est pas magique, surtout pas si le human in the loop vient en rampant √† la fin du processus. L’humain doit √™tre l√† en ce moment en train d’y r√©fl√©chir et je n’ai pas l’impression que c’est ce qui se fait √† grande √©chelle pour le moment.

Y. Faguy: Je reviens √† cette notion de tant√īt, que le droit administratif s’int√©resse aux processus par lesquelles les d√©cisions sont prises. Je me demande ici, quand on parle de ce human in the loop, est-ce qu’il faut ne pas le concevoir, encore une fois, d’une fa√ßon proc√©durale ? Comment l’int√©grer dans cette d√©cision algorithmique ? Ce que je trouve int√©ressant dans ce que tu dis, c’est qu’il ne faut pas le faire intervenir, ou je crois que je comprends ce que tu dis, c’est qu’il ne faut pas le faire intervenir simplement √† la fin. Donc, ce qui m’am√®ne √† une autre question, pour le justiciable, a-t-on besoin d’√©laborer cette proc√©dure qui, √† la fin, garantirait un droit √† l’explication et √† la contestation concernant une d√©cision automatis√©e ?

M√©lanie:   C’est une des hypoth√®ses qui est souvent √©voqu√©e, encore une fois, c’est toujours d’√©tablir une esp√®ce d’√©quilibre entre l’utilit√© de ces syst√®mes-l√† et ce que √ßa va demander pour s’assurer qu’il y a une certaine lisibilit√© de leur fonctionnement. Parce que, encore une fois, d’une fa√ßon visc√©rale, ou √† la base d’un syst√®me d’apprentissage intelligent, d’apprentissage machine, vient le concept qu’on ne sait pas tout √† fait comment √ßa fonctionne. On rentre une grande base d’intrants et on laisse au syst√®me la particularit√© ou le pouvoir de reconna√ģtre ou sont les de masse, o√Ļ sont les patterns que l’humain n’a pas √©t√© capable de d√©celer. C’est la caract√©ristique, c’est la qualit√© de ces syst√®mes-l√†.

Donc, quelque part, la lisibilit√© demande un effort suppl√©mentaire, et √ßa demande un effort, je dirais, qui est √† c√īt√© du syst√®me. Parce que, pour fonctionner, le syst√®me n’a pas besoin de cette lisibilit√©-l√†. La lisibilit√©, il va falloir l’obliger, puis la cr√©er pour s’assurer que les gens puissent revoir le processus. Parce que, ce n’est pas pour rien que le droit administratif s’int√©resse tant aux processus. C’est parce que l’humain, pour respecter le citoyen, pour qu’il ait du respect envers une d√©cision, puis pour qu’il veuille se conformer √† une d√©cision, peu importe la d√©cision — mais ici on va parler d’une d√©cision gouvernementale, la d√©cision d’un tribunal administratif qui revoit la d√©cision gouvernementale — il faut qu’il trouve que cette d√©cision-l√† est l√©gitime. Il n’a pas besoin de penser que cette d√©cision-l√† est correcte. √áa c’est [Araid 00:45:55] qui a, entre autres, √©tudi√© cela. C’est qu’il a besoin de penser qu’elle a √©t√© prise par une autorit√© l√©gitime et que son processus, le processus qui a men√© √† cette d√©cision-l√† est l√©gitime.

Comment la population va voir des d√©cisions qui sont prises en grande quantit√© par des syst√®mes d’intelligence artificielle, quels √©l√©ments on va devoir mettre dans le processus pour que les gens y voient une l√©gitimit√© ? Honn√™tement, je n’ai pas la r√©ponse, mais je pense que cette possibilit√© de comprendre d’o√Ļ vient la d√©cision, c’est peut-√™tre quelque chose qui va devenir important. Le probl√®me √©tant, comme j’ai dit, c’est que ce sont des syst√®mes souvent complexes, et parfois obtenir cette visibilit√©-l√† demande des tests, demande un effort, un grand effort et beaucoup de sommes financi√®res.

Entre autres, on l’a vu √† une certaine √©poque, il y a quelques ann√©es on parlait beaucoup du syst√®me pour d√©cider, pas des peines √† octroyer, mais des conditions de lib√©ration de d√©tenus aux √Čtats-Unis. Il y a des organismes √† but non lucratif qui ont d√Ľ investir beaucoup d’argent pour montrer que les syst√®mes qui √©taient utilis√©s √©taient des syst√®mes biais√©s. Parce qu’ils ont d√Ľ faire un paquet de tests avec des codes diff√©rents, pour montrer qu’il n’y avait pas un processus d√©cisionnel uniforme. Donc, je suppose que c’est le m√™me genre de difficult√© auquel un justiciable va se buter quand √ßa va √™tre le temps de remettre en question une d√©cision qui vient d’un syst√®me apprentissage machine ou d’intelligence artificielle. Id√©alement, ce serait le fun que l’√Čtat, la machine gouvernementale, lui fournisse cette information-l√†, mais est-ce qu’on va le faire ? Je ne le sais pas.

Y. Faguy: In√©vitablement, la discussion quand on parle d’intelligence artificielle va toujours se rabattre sur cet enjeu de l’alignement de cette technologie sur nos valeurs de soci√©t√©. Tu parlais des biais dans le syst√®me, si on √©coute un peu la communaut√© des chercheurs en alignement, elle s’inqui√®te beaucoup de la capacit√© des machines √† toujours bien discerner, √† bien comprendre les instructions. Donc, la crainte √† grande √©chelle, c’est que √ßa peut poser des risques existentiels. Mais, juste pour ramener cela au droit administratif, quelles sont les valeurs en mati√®re de droit administratif auxquelles nous devons nous attarder ? Quelles sont ces valeurs que l’on voudrait aligner ce sur… comment voudrait-on aligner nos outils de d√©cision automatis√©e √† nos valeurs de soci√©t√© ? C’est une grosse question.

M√©lanie:   C’est une bonne question. Comme on l’a dit en d√©but de conversation, il y a toujours un √©quilibre √† atteindre. Il y aura toujours une esp√®ce de combat entre plusieurs valeurs et il faudra voir o√Ļ on met l’emphase. Je pense que l√† j’y vais de mes propres croyances, ou en tout cas, dans ma propre perspective. Mais je pense que la valeur que l’on doit d’abord mettre en place si l’on veut une certaine l√©gitimit√©, si on veut que les gens continuent de croire au syst√®me et si l’on veut contrer cette esp√®ce de mouvement vers le scepticisme et la col√®re que l’on voit dans nos soci√©t√©s en ce moment, il faut que les gens soient capables de s’approprier le processus et de s’approprier la d√©cision. Donc, encore une fois, selon moi, ce qui est important pour les gens, ce n’est pas tant d’avoir raison, mais c’est de comprendre, premi√®rement, qu’ils ont eu leur mot √† dire. √áa, c’est une grande valeur de la justice administrative.

 Quand on regarde les r√®gles de la justice naturelle qui s’appliquent √† la justice administrative, c’est le droit d’√™tre entendu. Le droit d’√™tre entendu, ce n’est pas n√©cessairement le droit d’√™tre entendu verbalement et d’avoir une audience, mais c’est le droit de faire valoir sa position, puis d’avoir ce sentiment que notre position a √©t√© prise en ligne de compte et qu’elle a √©t√© consid√©r√©e. √Ä mon sens, c’est la valeur qu’il va falloir mettre √† l’avant si on veut s’assurer un passage… un passage ad√©quat vers l’utilisation de l’intelligence artificielle. Comment on va le mettre en place ? Peut-√™tre qu’on utilisera des syst√®mes comme celui de l’aide √† la d√©cision, peut-√™tre que je manque un peu d’imagination et que je ne sais pas encore tout √† fait comment on va faire, mais il faudra avoir cette pr√©occupation en t√™te, que √ßa reste important que les gens aient, j’ai juste un mot anglais en t√™te, un sentiment d’empowermenr. Mais en tout cas, que les gens aient un sentiment qu’ils ont quand m√™me une certaine emprise. Pas une emprise sur le r√©sultat, mais sur ce qui leur arrive, sur la compr√©hension du processus. La justice administrative, c’est souvent le seul tribunal auquel les gens vont faire face pendant leur vie, toute leur vie. Les gens ne vont pas devant la Cour sup√©rieure, ils ne vont pas non plus de vent la Cour du Qu√©bec. Par contre, des d√©cisions en mati√®re de logement, des d√©cisions en mati√®re d’indemnisation des accidents de travail, des d√©cisions en mati√®re d’immigration, √ßa, √ßa fait partie du quotidien. C’est la justice du quotidien. Il va falloir que les gens puissent trouver leur place et qu’ils aient l’impression que cette justice-l√† est √† leur √©coute. Parce que, c’est le seul rempart qui reste devant ce sentiment qui semble le plus r√©pandu des justiciables, que l’appareil gouvernemental n’est pas n√©cessairement √† leur √©coute. 

Y. Faguy: M√©lanie, je pense que c’est un bon endroit o√Ļ terminer cette √©mission, et de toute √©vidence nous ne sommes qu’au d√©but de cette exp√©rimentation et nous n’avons aucune id√©e des changements qu’elle apportera. Je te remercie d’avoir partag√© des r√©flexions avec notre auditoire.

M√©lanie:   Merci beaucoup, c’est un plaisir partag√© et ce fut tr√®s agr√©able.

Y. Faguy: Merci.

Vous √©coutez Droit moderne, pr√©sent√© par le magazine National de l’Association du Barreau Canadien. Si l’√©pisode vous a plu, veuillez le partager avec vos amis et coll√®gues. Si vous avez des commentaires, des r√©actions, des suggestions, n’h√©sitez pas √† nous contacter sur Twitter √† (@CBAnatmag) et sur Facebook. Et nous vous invitons aussi √† vous rendre sur (nationalmagazine.ca) pour d√©couvrir le contenu de notre analyse r√©cente de l’actualit√© juridique au Canada. Et puis un grand merci √† notre producteur John Megill sans qui on ne pourrait pas r√©aliser cette √©mission. Merci √† vous tous de nous avoir √©cout√©s. √Ä la prochaine.