« ChatGPT, qu’es-tu? » : portrait de l’intelligence artificielle au Québec

Depuis novembre 2022, ChatGPT bouleverse l’imaginaire collectif en repoussant les limites de l’intelligence artificielle. Avec ses 100 millions d’utilisateurs actifs mensuels, cet outil qui converse à la manière d’un être humain suscite autant la fascination que la crainte au sein de la société civile. S’il laisse ses utilisateurs sans voix par sa capacité à leur mettre les mots à la bouche, il fait aussi beaucoup parler de lui.

Ces avancées en matière d’apprentissage profond ravivent le débat sur l’encadrement de l’intelligence artificielle et les risques que ces nouvelles technologies posent pour les Québécoises et les Québécois.

Première lecture propose une étude détaillée afin de démystifier ChatGPT et nourrir la réflexion sur la place de l’intelligence artificielle au Québec.

Ce document est également disponible sur le site Web de la Bibliothèque de l’Assemblée nationale, tout comme d’autres notes produites par le Service de la recherche.

Analyse et rédaction
Audrey Houle
Service de la recherche
Recherche documentaire
Catherine Picard
Service de l’information

INTRODUCTION

L’intelligence artificielle se trouve au cœur de notre quotidien et transforme le visage de plusieurs sphères de la société, que l’on en soit conscient ou non. Elle répond à nos questions grâce aux agents conversationnels, elle anticipe nos désirs et nos besoins, elle dresse notre profil de consommateur et plus encore. C’est elle aussi qui bouleverse les secteurs de la finance, des arts, des médias, de l’éducation et du service à la clientèle.

Depuis l’automne 2022, l’intelligence artificielle se présente sous un nouveau jour avec l’arrivée de ChatGPT. Cet outil d’OpenAI, une entreprise de la Silicon Valley[1], prend la forme d’un agent conversationnel et impressionne par ses capacités à reproduire un dialogue cohérent en quelques secondes. Il peut synthétiser et vulgariser des concepts, rédiger un poème sur un thème donné ou même créer une recette. Son entrée sur le marché n’est pas sans effets. ChatGPT bouleverse plusieurs milieux et appelle les citoyens, les professionnels et le législateur à réfléchir à son usage.

Cette note de recherche s’inscrit dans la réflexion sur les usages et les effets de l’intelligence artificielle au Québec. Elle s’intéresse plus particulièrement à l’une de ses plus récentes incarnations, ChatGPT. Cette note vise à démystifier le concept d’intelligence artificielle ainsi qu’à décrypter la nature même de ChatGPT afin d’en saisir les nuances. Elle brosse également le portrait des effets potentiels de cette technologie de pointe dans les secteurs de l’éducation et de l’emploi. Enfin, la note explore les limites de l’encadrement juridique de l’intelligence artificielle.

LES FONDEMENTS DE L’INTELLIGENCE ARTIFICIELLE

Contrairement à ce que l’on pourrait croire, l’intelligence artificielle n’est pas un concept nouveau. L’idée d’une machine capable de penser, à l’image de l’être humain, s’est développée à la suite de la publication des travaux d’Alan Turing au début des années 1950. Ce dernier avait comme vision que les ordinateurs pouvaient fonctionner de manière autonome comme des êtres humains. Aujourd’hui, les avancées technologiques dans le domaine de l’intelligence artificielle concrétisent en quelque sorte l’idée du professeur Turing.

Gros plan sur une « machine de Turing ». En concevant en 1936 le modèle hypothétique d’une machine capable de traiter l’information de manière autonome, le mathématicien britannique Alan Turing (1912-1954) a jeté les bases théoriques des principaux développements ultérieurs en informatique et, ultimement, en intelligence artificielle.

Le terme « intelligence artificielle » a été introduit officiellement par la conférence de Dartmouth de 1956. Le Dartmouth Summer Research Project on Artificial Intelligence a réuni une vingtaine de chercheurs afin de démontrer que toute caractéristique de l’intelligence humaine peut être décrite de sorte qu’une machine puisse la reproduire[2]. Malheureusement, les retombées du projet n’ont pas été celles attendues[3]. Le séminaire a néanmoins eu pour effet de consacrer l’intelligence artificielle comme domaine de recherche[4]. Aujourd’hui, on observe une croissance exponentielle des recherches en la matière. Le développement parallèle des capacités de stockages de données et la puissance de traitement des ordinateurs ont permis à l’intelligence artificielle de se déployer tel qu’on la connaît aujourd’hui.

En soi, l’intelligence artificielle recoupe différents concepts, dont l’apprentissage automatique (machine learning), l’apprentissage profond (deep learning) et les réseaux de neurones (neural networks). Ils sont conçus pour s’employer à des degrés d’autonomie divers. L’intelligence artificielle fonctionne à l’aide d’algorithmes qui sont conçus pour prendre des décisions automatisées et pour formuler des prédictions. Les algorithmes traitent de grandes quantités de données afin de tirer des inférences statistiques et de déterminer une projection avec un niveau de précision variable. L’inférence crée alors une nouvelle information : une prédiction. De manière simplifiée, l’apprentissage automatique peut être envisagé comme une forme d’analyse statistique propulsée par de fortes capacités de stockage et de traitement de données. Il requiert une organisation structurée des données pour faire des prédictions en fonction des récurrences observées.

De son côté, l’apprentissage profond (deep learning)est une méthode d’apprentissage automatique par laquelle on confie une tâche simple à un réseau de neurones chargé de reconnaître par lui-même des motifs, des séquences dans une série de données. Contrairement à l’apprentissage automatique, l’apprentissage profond fonctionne sans données structurées. Les algorithmes identifient par eux-mêmes les données discriminantes et les classificateurs grâce à l’architecture du réseau de neurones. L’algorithme apprend à reconnaître les sons, les images, les lettres grâce aux différentes couches de neurones, programmées pour traiter une parcelle d’information et transmettre le résultat à la suivante. Il commence par les concepts les plus génériques jusqu’aux traits les plus spécifiques de l’objet analysé.

Le développement des capacités de stockage et de calculs a permis de réaliser d’importantes avancées en matière d’intelligence artificielle. Les différentes méthodes d’apprentissage profond ouvrent la voie au déploiement de technologies innovantes comme ChatGPT.

« ChatGPT, qu’es-tu? »

Pour illustrer les capacités d’un outil, rien de tel que de le mettre à l’épreuve. Dans le cadre de nos recherches, nous avons donc questionné la version gratuite de ChatGPT sur sa propre nature. À la question « ChatGPT, qu’es-tu ? », le logiciel a répondu :

Je suis ChatGPT, un modèle de langage développé par OpenAI, une organisation de recherche en intelligence artificielle. Je suis conçu pour comprendre le langage naturel, c’est-à-dire le langage que les gens utilisent dans leur communication quotidienne, et pour générer des réponses cohérentes et pertinentes à une variété de questions et de sujets.

Je suis entraîné à partir d’un très grand corpus de textes en ligne, ce qui me permet d’avoir une compréhension générale de la langue et du monde. Je peux être utilisé pour créer des chatbots, des assistants virtuels, des réponses automatiques, des traductions automatiques, et d’autres applications de traitement du langage naturel.

Je suis un outil puissant pour aider les gens à accéder à l’information et à interagir avec les ordinateurs de manière plus intuitive et naturelle. Cependant, il est important de noter que je ne suis pas capable de penser ou de ressentir de la même manière qu’un être humain, car je suis simplement un programme informatique conçu pour traiter le langage[5].

Contrairement à la croyance populaire, ChatGPT est bien plus qu’un simple agent conversationnel. La technologie GPT-3 à partir de laquelle le logiciel est conçu offre un éventail de possibilités. Avant même le lancement de ChatGPT, plus de 300 applications issues de l’industrie du divertissement, de l’éducation ou des jeux vidéo utilisaient la technologie GPT-3 à différentes fins.

À première vue, le logiciel peut analyser et produire des extraits de textes qui s’apparentent aux dialogues humains. Or, il peut également traduire le langage naturel en langage de programmation, relever les émotions à partir de commentaires, traduire des textes en différentes langues ou répondre à des questions factuelles[6]. L’outil conserve en mémoire les questions précédemment posées au cours d’une même interaction afin de construire une réponse adaptée au contexte. Il est aussi en mesure de nuancer le propos d’une question dont la prémisse est incorrecte. Le logiciel est conçu pour répondre rapidement à une requête de la manière la plus véridique et complète possible. Ainsi, la technologie GPT-3 peut être exportée dans plusieurs autres domaines.

La technologie qui supporte ChatGPT repose sur des modèles linguistiques d’intelligence artificielle (large language models)[7]. Il s’agit d’un modèle de traitement du langage naturel qui se nourrit de données textuelles afin de prédire les mots puis les phrases dans un contexte donné afin de construire un dialogue. GPT-3 est la troisième version de la série de modèles linguistiques d’intelligence artificielle de type GPT (Generative Pre-Trained Transformer) créée par l’entreprise OpenAI.

Le modèle est conçu à partir d’un réseau de neurones de type Transformer, un réseau d’algorithmes d’apprentissage profond (deep learning) développé pour le traitement automatique des langues. Il permet au logiciel d’apprendre et de prédire des séquences de mots sans avoir été spécifiquement programmé à cet effet[8]. Ainsi, le réseau de neurones est en mesure d’analyser individuellement l’ensemble des mots d’une question, mais aussi de les placer dans le contexte d’une phrase et d’utiliser les données d’entraînement pour générer une réponse cohérente. De cette manière, il peut construire un dialogue semblable à une interaction humaine, de manière autonome.

Ce modèle d’apprentissage automatique requiert un entraînement sur de larges bases de données textuelles ainsi qu’un paramétrage complexe afin de reproduire un dialogue cohérent en toutes circonstances. À titre d’exemple, le modèle GPT-3 comprend plus de 175 milliards de paramètres et a été entraîné sur 570 gigaoctets (Go) de données textuelles[9]. La qualité et la variété du corpus d’entraînement permettent au logiciel de fournir une réponse qui inclut autant des données factuelles, des explications, des opinions ou des suggestions en fonction de la nature de la question. Son entraînement n’est toutefois pas entièrement autonome. Il utilise une méthode appelée Reinforcement Learning from Human Feedbackqui s’apparente à un mécanisme de renforcement positif. Ce procédé introduit une étape de validation humaine afin d’orienter les résultats vers la réponse la plus adéquate[10].

La rapidité d’exécution de ChatGPT ainsi que son libre accès participent à sa grande popularité. Seulement deux mois après son lancement, le nombre d’utilisateurs actifs mensuellement de ChatGPT était estimé à 100 millions de personnes[11]. Il s’agit de la croissance la plus rapide jamais observée pour une application de ce genre[12]. À l’heure actuelle, ChatGPT est offert gratuitement afin de poursuivre son apprentissage dans un contexte réel. Les questions et les échanges avec les utilisateurs nourrissent l’algorithme et favorisent son apprentissage. Une version payante est également disponible afin de privilégier l’accès à ses services lors des périodes de grande demande[13].

Après ChatGPT, GPT-4

En mars 2023, OpenAI a annoncé le lancement de GPT-4, une version améliorée du logiciel GPT-3. Il combine les capacités de langage naturel avec la reconnaissance d’images afin d’offrir une performance encore plus près du langage des êtres humains. OpenAI souligne que la distinction avec la version précédente est difficilement perceptible à l’issue d’un seul échange. Or, la qualité du contenu généré est nettement supérieure. À titre d’exemple, GPT‑4 se classe parmi les 10 % des premiers dans une simulation d’un examen du Barreau[14]. Il s’agit d’une amélioration marquée par rapport à la version précédente où il se classait dans les 10 % des derniers aux mêmes tests[15]. La qualité des données factuelles générées par le logiciel est 40 % supérieure[16].

La version GPT-4 est conçue à partir du même modèle de langage que ChatGPT. Elle utilise un large spectre de données, disponibles tant publiquement qu’acquises par licences. Néanmoins, GPT-4 tend à reproduire les mêmes erreurs que ChatGPT. Il est susceptible de générer de l’information trompeuse ou de commettre des erreurs de raisonnement. Différentes mesures ont été mises en place par OpenAI pour limiter les risques liés à l’usage de leurs technologies[17]. Une cinquantaine d’experts issus des domaines de la cybersécurité, du biorisque, de la sécurité internationale et plus encore ont été sollicités pour tester le modèle. Leur contribution a notamment permis d’intégrer des paramètres de sécurité supplémentaires à l’étape du Reinforcement Learning from Human Feedback[18]. Le logiciel est entraîné pour refuser de répondre aux questions qui pourraient produire une information potentiellement dangereuse.

La puissance de cette nouvelle version soulève toutefois plusieurs questions quant aux risques liés à l’usage et au développement de l’intelligence artificielle. Différents acteurs du milieu des technologies comme Yoshua Bengio, Elon Musk, Steve Wozniak et bien d’autres ont uni leurs voix dans une lettre ouverte demandant un moratoire de six mois sur le développement de technologies plus puissantes que GPT-4[19]. Les signataires appellent les chercheurs et les entreprises du domaine à la prudence. La course à la commercialisation de la technologie la plus performante peut avoir des effets non négligeables sur la société et les générations futures. Ces avancées technologiques méritent une réflexion approfondie afin de statuer sur la place de l’intelligence artificielle au sein de nos sociétés démocratiques.

Les limites de ChatGPT

Malgré les impressionnants résultats que génère ChatGPT, l’outil comporte son lot de failles. Les réponses générées par ChatGPT tirent leur source de données disponibles en 2021[20]. Ainsi, les résultats ne sont pas actualisés en fonction des événements récents. Cette carence informationnelle est susceptible de générer des résultats trompeurs ou incohérents. À titre d’exemple, en février dernier, une version similaire à ChatGPT intégrée au sein du moteur de recherche Bing prétendait avec conviction que nous étions en 2022[21]

Contrairement à l’être humain, ChatGPT n’est pas en mesure de départager le vrai du faux. Le processus corrélatif qui construit le dialogue tient compte de la masse d’information, mais le traitement de l’information repose sur le paramétrage et les différentes étapes de validation. Ainsi, un concept récurrent, qu’il soit absurde ou non, est susceptible de frayer son chemin au sein du processus d’apprentissage de l’algorithme et de contribuer à divulguer des informations trompeuses. À l’opposé, un concept niché risque d’être déformé en raison du peu d’information disponible[22]. À titre d’exemple, une information fausse devenue virale et reprise par plusieurs médias serait susceptible d’être considérée comme exacte par l’algorithme en raison du grand nombre d’occurrences.

Les sources d’information utilisées n’étant pas citées, l’outil ne permet pas de garantir la véracité de l’information qu’il génère. La qualité de la construction sémantique du dialogue peut mener un lecteur crédule à croire l’information présentée[23]. Certes, les mécanismes d’apprentissage utilisés par OpenAI, notamment le Reinforcement Learning from Human Feedback, et les nombreux paramètres ont pour but de freiner la désinformation. Cependant, la prudence et la validation du propos généré par l’agent conversationnel demeurent nécessaires.

ChatGPT est également sensible à la formulation des questions[24]. La même question sous une autre forme peut générer une réponse différente. En pratique, le logiciel est entraîné à refuser les requêtes auxquelles il ne peut répondre adéquatement. En cas de doute, le logiciel devrait questionner davantage le demandeur sur sa requête. Or, ChatGPT a tendance à déduire les intentions de l’utilisateur en se basant sur les échanges et à formuler une réponse en fonction de ses prédictions[25].

L’entraînement d’un modèle d’apprentissage automatique tel que ChatGPT représente un défi de taille. Les programmeurs doivent composer avec un ensemble de risques comme la désinformation, la reproduction de biais par les algorithmes et les usages malveillants du logiciel. La multiplication des paramètres et l’augmentation des données d’entraînement tendent à améliorer les logiciels d’intelligence artificielle. Ces outils demeurent néanmoins perfectibles et leur usage doit être accompagné d’un regard critique sur les résultats générés.

LES ENJEUX POSÉS PAR L’INTELLIGENCE ARTIFICIELLE ET CHATGPT

ChatGPT peut générer en l’espace d’un instant un itinéraire de voyage, résumer une pièce de théâtre, concevoir une offre d’emploi, expliquer les avantages des cotisations REER ou rédiger des lignes de programmation. Ses impressionnantes capacités à générer un contenu varié en inquiètent plusieurs. Son usage par des étudiants, des chercheurs et même des professionnels de différents milieux est accueilli avec des sentiments partagés entre l’enthousiasme et la méfiance.

ChatGPT n’étant qu’à ses débuts, il est encore difficile, voire impossible, de mesurer son effet avec précision. Les nombreuses innovations en intelligence artificielle qui ont vu le jour au cours des dernières années peuvent néanmoins faire école.

Enseigner à l’ère de ChatGPT

Dans le milieu scolaire, ChatGPT se présente comme une mutation des méthodes de plagiat traditionnelles. Il se substitue habilement à l’étudiant moyen avec une prose bluffante. Pour le personnel enseignant, il pose le défi de départager la création humaine de la création assistée par l’intelligence artificielle. L’intégrité des travaux libres et des évaluations maison est d’ailleurs remise en cause. Certains professeurs ont mentionné en entrevue que ChatGPT pourrait mettre fin aux évaluations à distance[26]. L’utilisation de ChatGPT dans le milieu scolaire soulève ainsi plusieurs questions quant à ses effets potentiels sur les processus d’apprentissage et d’évaluation des étudiants.

Une étude a démontré que l’outil serait en mesure de réussir une série d’examens permettant d’accéder à la profession de médecin aux États-Unis. ChatGPT a répondu avec un taux de réussite appréciable à la plupart des questions du United States Medical Licensing Examination[27]. Il a également obtenu des résultats supérieurs à la moyenne à une épreuve de la maîtrise en administration des affaires (MBA) de l’Université de Wharton en Pennsylvanie. Enfin, il a mené à bien plusieurs examens de droit à l’Université du Minnesota[28]. Bien que ces exemples soient des expérimentations réalisées dans un environnement contrôlé, les résultats démontrent les capacités du logiciel dans différents domaines. 

Ces expériences ont amené plusieurs établissements d’enseignement à se prononcer sur le recours à ChatGPT dans leurs classes. Les approches institutionnelles sont diamétralement opposées sur la question. Des établissements préconisent la ligne dure, soit d’interdire complètement ou de limiter l’utilisation de ChatGPT. À Sciences Po en France, l’usage de ChatGPT sans mention est assimilé à du plagiat et sanctionné suivant les règlements internes[29]. Plusieurs villes comme New York, Los Angeles et Seattle ont restreint l’accès à ChatGPT à l’ensemble du réseau scolaire public[30]. Au Québec, le collège Jean-de-Brébeuf a adopté la même approche que les grandes villes américaines en coupant directement l’accès à ChatGPT sur son réseau[31].

D’autres choisissent plutôt d’accueillir ChatGPT dans leurs classes. Certains établissements ont entrepris de revoir leur définition de plagiat afin de permettre l’usage de l’intelligence artificielle dans un cadre déterminé[32]. À l’Université de Namur, en Belgique, des enseignants des facultés de médecine, de droit, de philosophie et de physique ont pris la décision d’intégrer progressivement ChatGPT à leur cursus[33]. La même approche a été adoptée par un chargé d’enseignement de la Faculté des sciences de l’administration de l’Université Laval[34]. Leur démarche repose sur la volonté d’encourager les étudiants à développer un esprit critique ainsi qu’à mieux comprendre les forces et les faiblesses de cet outil. Des pistes de réflexion ainsi que des outils pédagogiques ont été mis à la disposition du corps professoral de l’Université Laval et de l’Université du Québec à Montréal (UQAM). Les deux établissements recommandent notamment aux enseignants de se familiariser avec ChatGPT et d’ouvrir la discussion avec les étudiants sur l’usage de ce type de technologie en milieu scolaire.

Plusieurs auteurs et autrices soulignent que le bouleversement occasionné par ChatGPT représente une occasion de réfléchir aux outils d’apprentissage ainsi qu’aux méthodes d’évaluation[35]. À l’heure actuelle, plusieurs évaluations et examens professionnels reposent sur la capacité de mémorisation des étudiants[36]. Ces auteurs préconisent d’intégrer l’intelligence artificielle au sein même de la formation collégiale et universitaire ainsi qu’à revoir la forme des évaluations afin de favoriser le développement de la réflexion critique.

La Chaire UNESCO sur les ressources éducatives libres et l’intelligence artificielle mentionne à cet effet que la réforme des méthodes d’évaluation ainsi que la réflexion sur les mutations des formes de plagiat sont deux débats qui se superposent et se contredisent. Former la relève à utiliser l’intelligence artificielle n’encourage pas la paresse intellectuelle. De plus, restreindre l’usage des technologies émergentes ne permet pas aux étudiants de se familiariser avec les outils à leur disposition. La Chaire UNESCO recommande d’étudier de façon distincte les questions en lien avec le développement des compétences et les questions sur les méthodes d’évaluation.

ChatGPT ne représente pas seulement une menace dans le secteur de l’éducation. Ses capacités de synthèse et de simplification de la matière en font un outil intéressant d’aide à l’apprentissage[37]. À l’image d’un tuteur artificiel, ChatGPT peut expliquer des concepts complexes comme on les enseignerait à un enfant de six ans ou mettre en contexte ces mêmes concepts. Si la réponse donnée est insatisfaisante, il est possible de générer une nouvelle réponse en un clic ou simplement de demander des précisions au logiciel. Le soutien réel du logiciel reste cependant tributaire de la qualité de l’information divulguée.

ChatGPT pave ainsi la voie à un vaste chantier de réflexion quant à l’évolution et à la transformation numérique du secteur de l’éducation. Son arrivée est comparée aux bouleversements occasionnés à une certaine époque par des logiciels qui font aujourd’hui partie de notre quotidien tels que Wikipédia et Google.

L’intelligence artificielle et le marché de l’emploi

Depuis la révolution industrielle, les développements technologiques évoquent amèrement l’idée que les « robots » remplaceront les êtres humains sur le marché de l’emploi[38]. Cette idée provient notamment de la transformation du secteur manufacturier après la Deuxième Guerre mondiale par l’automatisation des chaînes de montage[39]. Aujourd’hui, les avancées en matière de reconnaissance du langage naturel portent à croire que certains aspects cognitifs du travail humain pourront être substitués à la machine. Le propos doit toutefois être nuancé[40].

De manière générale, l’intelligence artificielle est susceptible de modifier la nature de certains corps d’emplois. L’automatisation des tâches récurrentes est l’une des voies d’expression de l’intelligence artificielle sur le marché du travail. En pratique, les compétences liées au traitement de données administratives ou au traitement simple d’information pourraient être affectées par un logiciel comme ChatGPT[41]. Selon l’Institut de recherche en politiques publiques, un groupe de réflexion indépendant, 10,6 % du marché canadien de l’emploi est considéré comme automatisable. Les auteurs estiment que 29,1 % des emplois au Canada pourraient être significativement modifiés par l’automatisation. Les emplois les plus à risques sont ceux dont les tâches peuvent facilement être transposées par des règles de programmation[42]. Ces emplois offrent habituellement une faible rémunération et requièrent une scolarité minimale[43]. Ils sont également exercés en majorité par des femmes[44].

Si certaines tâches peuvent être remplacées par l’intelligence artificielle, d’autres sont bonifiées. Ces changements ont pour effet de transformer les différents milieux professionnels plutôt que de générer des coupures dans les emplois[45]. Certaines études démontrent même que l’automatisation peut engendrer une augmentation des embauches en raison du gain en efficience réalisé[46]. La croissance du secteur des technologies de l’information ainsi que les salaires lucratifs offerts témoignent des besoins grandissants de main-d’œuvre spécialisée[47]. À titre d’exemple, d’après le rapport annuel 2021-2022 de ScaleAI, l’entreprise montréalaise prévoit créer à elle seule plus de 4000 emplois au Canada d’ici 2030. Ce secteur d’activité requiert toutefois une expertise particulière notamment en ingénierie ou en informatique[48]. Les projections tendent dès lors vers une augmentation de la demande d’emplois reliés au secteur de l’information au détriment des emplois à caractère plus technique.

Or, l’intégration de l’intelligence artificielle n’est pas nécessairement accessible à l’ensemble des industries. En plus du coût que la technologie représente, elle tend à être rigide sur certains plans. Les gains en efficience espérés se réalisent principalement dans un environnement stable où les paramètres demeurent inchangés[49]. Sur une chaîne de montage, par exemple, le changement d’une pièce ou d’un élément de la chaîne requiert un recalibrage de la machine et un nouvel entraînement pour l’intégrer au processus. S’ajoutent à cette perte d’efficacité les problèmes techniques qui peuvent survenir dans le système informatique, le recalibrage des appareils et les bris des pièces névralgiques. Ces changements requièrent un temps précieux et l’intervention d’un professionnel dans ces différentes étapes du processus. Dans un contexte où la concurrence pousse les entreprises à se diversifier et à innover, elles doivent être en mesure de faire preuve d’une grande flexibilité, et ce, rapidement.

Tesla avait entrepris en 2017 un virage vers l’automatisation afin d’optimiser sa production tout en réduisant ses effectifs. Après quelques mois, les problèmes liés aux délais de production ont poussé l’entreprise à changer de cap et à abandonner une partie des investissements en automatisation pour les consacrer à l’embauche de main-d’œuvre spécialisée[50]. Elon Musk s’était d’ailleurs prononcé publiquement sur Twitter, affirmant que « Oui, l’automatisation excessive de Tesla était une erreur. Précision, c’était mon erreur. Les êtres humains sont sous-estimés. [traduction libre]. »

La tendance actuelle de l’intégration de l’intelligence artificielle dans les processus de travail tend à prouver l’utilité de cette technologie pour optimiser les flux de travail, pour les rendre plus efficients, davantage que pour remplacer l’être humain sur le marché de l’emploi[51]. L’ancien champion d’échec d’origine soviéto-russe Garry Kasparov, vaincu par l’ordinateur d’IBM Deep Blue en 1996 et en 1997, souligne à cet effet que l’intelligence artificielle doit bonifier les capacités humaines, plutôt que les remplacer[52]. Il ajoute que le succès de l’intégration de l’intelligence artificielle repose ainsi sur la qualité de l’interaction entre l’être humain et la machine plutôt que sur la force de la machine elle-même.

ChatGPT, l’employé de demain

ChatGPT représente une avancée technologique marquée dans l’univers des agents conversationnels. La qualité des résultats générés en fait un outil intéressant pour une variété de secteurs notamment celui du service à la clientèle, mais aussi des ressources humaines[53] ou même de la médecine[54].

Les agents conversationnels offrent un service de soutien aux consommateurs à faible coût pour les entreprises. Ils sont en mesure de répondre aux questions et de fournir des informations, d’effectuer des transactions ou même d’offrir des conseils à toute heure du jour. Les agents conversationnels sont toutefois confrontés rapidement à leurs limites en situations complexes[55]. De manière générale, les meilleurs résultats sont observés pour les tâches répétitives[56]. Or, la transformation numérique du service à la clientèle est susceptible d’exacerber la fracture numérique. Ces technologies offrent aux entreprises un gain économique, mais tous les consommateurs ne sont pas prêts ou aptes à en faire l’usage.

La compréhension du langage naturel peut toutefois être utilisée pour dresser le profil de la clientèle. Par exemple, l’entreprise Yabble utilise GPT-3 pour extraire les avis des consommateurs sur les produits vendus au sein d’une seule et même plateforme. Le logiciel se nourrit de questionnaires, de formulaires de satisfaction et de commentaires en ligne afin de reconnaître les thèmes récurrents qui plaisent ou déplaisent aux consommateurs. Ce type d’application offre aux entreprises une connaissance fine de leur public cible afin d’adapter leur stratégie d’affaires en conséquence des besoins du marché. Dans ce contexte, la technologie GPT-3 se présente comme un outil d’aide à la décision.

Bien que ses capacités humanoïdes offrent différentes avenues, l’intelligence artificielle ne peut se substituer aux aptitudes liées à l’intelligence émotionnelle, aux compétences interpersonnelles qui entrent en ligne de compte dans le processus décisionnel[57]. En outre, certains corps d’emplois sont tenus à des exigences déontologiques qui ont trait à leur responsabilité professionnelle[58]

Les utilisateurs de logiciels d’intelligence artificielle ne sont pas à l’abri de résultats malveillants ou discriminatoires. Les algorithmes se nourrissent de données massives dont la forme et la provenance varient grandement. Or, l’absence ou la faiblesse d’un type de données représentant un groupe quelconque peut créer des distorsions dans le processus d’apprentissage de l’algorithme et ainsi mener à une certaine forme de discrimination. À titre d’exemple, l’entreprise Amazon a développé un algorithme capable d’analyser les différents dossiers de candidatures reçus par l’entreprise[59]. Étant basé sur des données majoritairement composées de candidatures masculines, l’algorithme a développé une prédisposition à sélectionner les candidatures masculines au détriment de celles des femmes[60]. Malgré les capacités d’aide à la décision de tels algorithmes, un processus de validation par un professionnel demeure nécessaire dans plusieurs milieux.

La prémisse selon laquelle l’intelligence artificielle est en mesure de reproduire le travail humain écarte à tort le fait que la machine n’est ni intuitive ni sensible ou simplement dotée d’un jugement critique. Cette vision adopte une posture optimiste face aux résultats techniques des technologies. Néanmoins, la popularité grandissante de l’intelligence artificielle et les dérives potentielles pouvant être envisagées soulèvent plusieurs questions qui appellent le législateur à encadrer l’usage de ces nouvelles technologies.

LA TECHNOLOGIE ET LE DROIT

À sa face même, la nature dynamique des technologies est confrontée à la lenteur du processus législatif. Ce régime à deux vitesses amène d’ailleurs son lot d’incertitude auprès de la société civile. Pour le législateur, l’encadrement de l’intelligence artificielle représente un défi de taille alors qu’il doit conjuguer le caractère pérenne et neutre du droit à la polyvalence des technologies et leur développement constant.

ChatGPT et le droit d’auteur

Adaptation de l’œuvre de Michel-Ange « La Création d’Adam » illustrant le développement de l’intelligence artificielle. 

L’utilisation d’un logiciel comme ChatGPT à des fins commerciales représente un terrain fertile pour les recours juridiques en propriété intellectuelle. Les créations générées par l’outil sont le fruit de l’entraînement de l’algorithme à partir d’œuvres originales, de marques de commerce, de slogans et de tout autre contenu accessible en ligne. L’utilisation d’œuvres originales pour l’entraînement, mais aussi la reproduction d’œuvres dans les réponses générées par ChatGPT soulèvent plusieurs questions en matière de droit d’auteur.

En février dernier, l’artiste David Guetta publiait sur son compte TikTok un extrait de spectacle où il utilise l’intelligence artificielle pour reproduire le style musical et la voix du rappeur Eminem. La vidéo a été vue par 5,9 millions d’utilisateurs sur TikTok[61]. Le célèbre DJ souligne avec enthousiasme dans sa vidéo que « le futur de la musique se trouve en intelligence artificielle [traduction libre] ». Il a utilisé deux logiciels distincts afin d’imiter le style de composition d’Eminem et de reproduire sa voix avec l’extrait composé. Cet exemple n’est qu’un parmi tant d’autres des usages de l’intelligence artificielle qui repoussent les limites du droit d’auteur[62]

En pratique, la protection par le régime canadien du droit d’auteur nécessite la rencontre de deux critères. D’une part, la qualité d’auteur est attachée à la personne physique qui réalise l’œuvre. D’autre part, l’œuvre doit être considérée comme originale et distinctive au sens de la Loi sur le droit d’auteur[63]. L’originalité d’une œuvre est établie en jurisprudence comme étant le produit du talent et du jugement de l’auteur. La Cour suprême du Canada a d’ailleurs reconnu dans l’affaire CCH Canadienne Ltée c. Barreau du Haut-Canada que « l’exercice du talent et du jugement que requiert la production de l’œuvre ne doit pas être négligeable au point de pouvoir être assimilé à une entreprise purement mécanique[64] ». L’originalité d’une œuvre requiert ainsi l’exercice du talent et du jugement de l’auteur[65]. Une fois ces critères rencontrés, l’auteur de l’œuvre devient le premier titulaire des droits et bénéficie des droits moraux et patrimoniaux sur l’œuvre[66]. Les droits patrimoniaux peuvent être envisagés comme des droits économiques exclusifs sur la production, reproduction, diffusion, publication ou représentation de son œuvre. De leur côté, les droits moraux protègent notamment l’intégrité de l’œuvre.

L’usage d’une ou de plusieurs œuvres originales à des fins d’entraînement des algorithmes d’intelligence artificielle se trouve à la frontière entre les droits de reproduction exclusifs et les exceptions prévues à la Loi sur le droit d’auteur[67]. En pratique, la titularité des droits sur le contenu généré par un outil tel que ChatGPT peut être difficile à définir. Les progrès en matière d’apprentissage automatique rendent ténu le lien entre l’œuvre et l’auteur. À ce propos, le Comité permanent de l’industrie, des sciences et de la technologie de la Chambre des communes du Canada recommande que le législateur fédéral modifie la Loi sur le droit d’auteur afin de clarifier la titularité d’une œuvre générée par ordinateur. Malgré une doctrine abondante en la matière et les différentes propositions normatives envisagées[68], les questions soulevées par l’intelligence artificielle devront faire l’objet d’une réforme législative ou passer le test des tribunaux canadiens afin d’être résolues.

Encadrer l’intelligence artificielle

Les tentatives pour encadrer l’intelligence artificielle sont multiples. Malgré l’absence au Québec d’un cadre juridique spécifique, il existe une pluralité d’instruments normatifs tels que des codes d’éthique, des cadres de gouvernance, des politiques ou des directives qui touchent de près ou de loin à l’intelligence artificielle[69].

En novembre 2017 a eu lieu le tout premier Forum international sur le développement socialement responsable de l’intelligence artificielle. L’événement a lancé la Déclaration de Montréal sur le développement responsable de l’intelligence artificielle, élaborée conjointement par les acteurs du milieu et des membres de la société civile. Ce document édicte les principes fondamentaux qui devraient présider au développement de l’intelligence artificielle[70]. La Déclaration de Montréal place l’une des premières pièces du casse-tête de l’encadrement juridique de l’intelligence artificielle. Il s’agit toutefois d’un instrument normatif non contraignant.

Le gouvernement du Canada a emboîté le pas en adoptant en 2019 la Directive sur la prise de décision automatisée applicable aux institutions fédérales[71]. Elle s’inscrit plus largement dans la Politique sur les services numériques du Conseil du Trésor et les autres instruments politiques adoptés à cet égard par le gouvernement fédéral[72]. La Directive a pour objectif de réduire les risques liés à l’usage de l’intelligence artificielle et de systèmes de décisions automatisés. Pour ce faire, la Directive exige une évaluation des risques préalable à la création d’un système décisionnel automatisé. Elle établit également des normes de transparence et de qualité des résultats. Concrètement, la Directive vise à encadrer certaines pratiques comme le fait de déterminer l’admissibilité d’une personne à des prestations sociales à l’aide des technologies[73]. Malgré ces avancées normatives, plusieurs appellent le législateur à adopter la ligne dure et à établir un cadre juridique spécifique à l’intelligence artificielle[74]

À ce propos, le projet de loi C-27, Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois a été présenté en juin 2022 par le ministre de l’Innovation, des Sciences et de l’Industrie du Canada. Ce projet de loi vise à mettre en œuvre la toute première loi canadienne sur l’intelligence artificielle, la Loi sur l’intelligence artificielle et les données.

S’il est adopté, ce nouveau cadre prévoirait différents mécanismes afin d’encadrer la conception, le développement, l’utilisation et la commercialisation de systèmes d’intelligence artificielle pour en prohiber les usages pouvant causer un préjudice sérieux aux personnes visées[75]. Il obligerait le responsable d’un système d’intelligence artificielle à mesurer et à atténuer le risque de préjudice ou de résultats biaisés pouvant être produit[76]. Ainsi, il rendrait imputable toute personne qui conçoit, développe, rend disponible ou gère des systèmes d’intelligence artificielle[77]. Il créerait également une obligation de transparence envers le public en imposant la diffusion d’informations telles que l’utilisation visée de la technologie, les prédictions générées, les mesures d’atténuation mises en place et plus encore pour les personnes responsables[78]. La violation de l’une des dispositions serait passible de sanctions administratives pécuniaires ou d’une amende dont le montant pourrait atteindre 5 % des recettes globales brutes de la personne visée, incluant les personnes morales[79]. Ce projet de loi s’inscrit plus largement dans la réforme fédérale du droit à la protection des renseignements personnels.

Néanmoins, le projet de loi C-27 ne peut couvrir à lui seul l’ensemble des sphères du droit qui régissent l’usage de l’intelligence artificielle au Québec. La pluridisciplinarité de l’intelligence artificielle se conjugue difficilement avec le régime de partage des compétences du fédéralisme canadien. Par exemple, le droit de la concurrence et la propriété intellectuelle relèvent des compétences fédérales alors que la protection des consommateurs et le droit contractuel sont encadrés par les provinces. Ainsi, l’adoption de la Loi sur l’intelligence artificielle et les données ne protège qu’en partie des risques de ces nouvelles technologies pour les Québécoises et les Québécois.

Le 12 avril 2023, le gouvernement du Québec a confié au Conseil de l’innovation du Québec la tâche de réfléchir à l’encadrement responsable de l’intelligence artificielle et à son acceptabilité sociale[80]. L’organisme a été mis en place par le gouvernement du Québec en décembre 2020. Il a pour mission de conseiller les parlementaires et les personnes du milieu des affaires afin de favoriser l’innovation au Québec[81]. Il convient de souligner que cette approche diffère du processus législatif traditionnel tel d’adopté par Ottawa alors que la réflexion se produit en marge des activités parlementaires[82]. D’autres parlements comme celui du Royaume-Uni ont mis en place des comités spéciaux et des groupes pluridisciplinaires afin de mener une réflexion de fond sur la question[83].

CONCLUSION

L’intelligence artificielle pose, encore aujourd’hui, plusieurs défis. Des principes phares de nos sociétés démocratiques comme l’équité et la protection de la vie privée des personnes sont ébranlés par les technologies numériques. De son côté, l’environnement, parent pauvre du secteur de l’intelligence artificielle, subit la pression de ces évolutions technologiques[84].

Or, placer la technologie sur le banc des accusés ou même la boycotter n’est pas une fin en soi. Malgré ses défauts, l’intelligence artificielle peut être porteuse de changement pour la société. C’est d’ailleurs le pari qu’a fait le président islandais, HE Guðni Th. Jóhannesson. Il a conclu, avec l’aide du secteur privé, un partenariat avec OpenAI. Le président compte utiliser la technologie GPT-4 pour adopter des solutions innovantes propres à la préservation de la langue islandaise[85]. OpenAI, en collaboration avec Miðeind ehf, une entreprise locale,entraînent le logiciel en islandais à l’aide de la méthode du Reinforcement Learning from Human Feedback.Le but est de rendre le modèle le plus cohérent et congruent possible malgré la faible quantité de données dans la langue locale[86]. Ce partenariat ouvre ainsi la voie à de nouveaux horizon tout en créant des ressources pour la sauvegarde de la langue islandaise.

La réflexion qui anime les chercheurs, les législateurs et la population doit prendre en compte autant les risques que les circonstances favorables qu’offrent ces technologies à la société civile. L’intelligence artificielle doit être envisagée comme un prolongement de la pensée humaine plutôt qu’un objet autonome. Comme le soulignait l’auteur Garry Kasparov, ce n’est qu’une fois combinée à l’intelligence humaine que l’intelligence artificielle puise réellement sa force[87]. Cette réflexion demande toutefois du temps…


  1. OpenAI est un laboratoire de recherche spécialisé en intelligence artificielle fondé en 2015. Il a pour mission de s’assurer que l’intelligence artificielle profite à l’humanité. OpenAl poursuit le développement sécuritaire et le partage des bénéfices [traduction libre]. Dès ses débuts, l’entreprise à but non lucratif regroupait plusieurs magnats de la Silicon Valley tels que Elon Musk et Sam Altman. En 2018, le statut juridique de l’entreprise prend une forme hybride avec la création d’OpenAI LP, une entreprise à but lucratif dont le profit des investisseurs est plafonné, gouvernée par l’entité à but non lucratif. Par ce changement, OpenAI souhaitait faciliter la levée de capitaux afin de financer le développement de ses activités. Aujourd’hui, l’entreprise bénéficie du soutien financier de plusieurs acteurs du milieu des technologies, dont Microsoft. Voir notamment : OpenAI, OpenAI LP, 11 mars 2019; OpenAI, OpenAI and Microsoft extend partenership, 23 janvier 2023. [retour]
  2. John McCarthy et autres, « A Proposal for the Dartmouth Summer Research Project on Artificial Intelligence », Dartmouth College, 31 août 1955, p. 2 : “[…] “to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it”. [retour]
  3. Le séminaire n’a jamais eu lieu à proprement dit. Les chercheurs invités ont réalisé leurs recherches individuellement, sans jamais se rencontrer officiellement. James Moor, « The Dartmouth College Artificial Intelligence Conference: The Next Fifty Years », (2006) 27-4 AI Magazine 87, p. 87; Jørgen Veisdal, « The Birthplace of AI : The 1956 Dartmouth Workshop », Cantor’s Paradise, 12 septembre 2019. [retour]
  4. Stephanie Dick, « Artificial Intelligence » (2019) 1-1 Harvard Data Science Review 1, p. 2. [retour]
  5. Réponse générée le 16 mars 2023. [retour]
  6. Des auteurs ont relevé que ChatGPT reconnaît au moins 95 langues naturelles. Alexander Christensen, « How Many Languages Does ChatGPT Support? The Complete ChatGPT Language List », SEO.ai, 3 février 2023; OpenAI, Examples. [retour]
  7. OpenAI, « ChatGPT: Optimizing Language Models for Dialogue », 30 novembre 2022. [retour]
  8. Adam Zewe, « Solving a machine-learning mystery », MIT News, 7 février 2023. [retour]
  9. Alex Tamkin et Deep Ganguli, « How Large Language Models Will Transform Science, Society, and IA », Stanford University Human-Centered Artificial Intelligence, 5 février 2023. [retour]
  10. Ryan Lowe et Jan Leike, « Aligning Language Models to Follow Instructions », Open AI, 27 janvier 2022. [retour]
  11. Krystal Hu, « ChatGPT sets record for fastest-growing user base », Reuters, 2 février 2023. [retour]
  12. Robert Brandl et Cai Ellis, « ChatGPT Statistics 2023 », Tooltester, 6 avril 2023 [retour]
  13. OpenAI, Introducing ChatGPT Plus, 1er février 2023. [retour]
  14. OpenAI, GPT-4, 14 mars 2023.  [retour]
  15. Ibid. [retour]
  16. Ibid. [retour]
  17. OpenAI, Our approach to AI safety, 5 avril 2023. [retour]
  18. OpenAI, préc., note 14. [retour]
  19. Future of Life Institute, Pause Giant AI Experiments: An Open Letter; Karim Benessaieh, « Musk, Bengio et un millier d’experts demandent une pause de six mois », La Presse, 29 mars 2023.  [retour]
  20. OpenAI, What is ChatGPT?, 27 février 2023. [retour]
  21. Karim Benessaieh, « Capacités étonnantes, erreurs flagrantes », La Presse, 11 février 2023. [retour]
  22. Par exemple, les résultats de ChatGPT sur des questions liées à la culture québécoise sont souvent erronés. Voir : Cédric Bélanger, « ChatGPT connaît mal la culture québécoise : découvrez ses erreurs surprenantes sur Charlotte Cardin, Céline Dion, Xavier Dolan et Denis Villeneuve », Le Journal de Québec, 8 mars 2023. [retour]
  23. OpenAI, « ChatGPT: Optimizing Language Models for Dialogue », 30 novembre 2022; Karen Weise, « Microsoft’s Bing chabot offers some puzzling and inaccurate responses », The New York Times, 15 février 2023. [retour]
  24. OpenAI, « ChatGPT: Optimizing Language Models for Dialogue », 30 novembre 2022. [retour]
  25. Ibid. [retour]
  26. Alexis Gacon, « Face à ChatGPT, la riposte des profs s’organise », Radio-Canada, 18 janvier 2023. [retour]
  27. Aidan Gibson et autres, « How Does ChatGPT Perform on the United States Medical Licensing Examination? The Implications of Large Language Models for Medical Education and Knowledge Assessment », JMIR Publications, 8 février 2023; Amarachi B. Mbakwe et autres, « ChatGPT passing USMLE shines a spotlight on the flaws of medical education », PLOS Digital Health, 2023; La Presse Canadienne, « Le robot conversationnel ChatGPT réussit de justesse un test d’une faculté de droit américaine », Les Affaires, 25 janvier 2023. [retour]
  28. Dimitra Kessenides, « ChatGPT gets an MBA », Bloomberg, 4 février 2023; Christian Terwiesch, « Would Chat GPT Get a Wharton MBA? A Prediction Based on Its Performance in the Operations Management Course », Mack Institute for Innovation Management at the Wharton School, University of Pennsylvania, 2023. [retour]
  29. Sciences Po, Sciences Po interdit sans mention par l’étudiant l’utilisation de l’outil ChatGPT, France, 27 janvier 2023 [retour]
  30. Dan Rosenzweig-Ziff, « New York City blocks use of the ChatGPT bot in its schools », The Washington Post, 5 janvier 2023; Arianna Johnson, « ChatGPT In Schools: Here’s Where It’s Banned – And How It Could Potentially Help Students », Forbes, 18 janvier 2023. [retour]
  31. Céline Galipeau, « Un robot dans la classe », ICI Radio-Canada, 23 janvier 2023. [retour]
  32. Huang, K., « Alarmed by A.I. Chatbots, Universities Start Revamping How They Teach », The New York Times, 16 janvier 2023. [retour]
  33. Jessica Flament, « Plusieurs professeurs de l’Unamur encouragent l’utilisation de ChatGPT dans leurs cours », La Libre, Belgique, 3 février 2023. [retour]
  34. Louis-Philippe Arsenault, « ChatGPT autorisé dans un cours de l’Université Laval », ICI Radio-Canada, 6 mars 2023. [retour]
  35. Maryse Beaulieu, « Évaluation, plagiat et ChatGPT », L’éveilleur, Université de Sherbrooke, 3 février 2023; Céline Galipeau, « Un robot dans la classe », ICI Radio-Canada, 23 janvier 2023. [retour]
  36. Id. [retour]
  37. JMIR Publications, JMIR medical education launches special issue on the use of ChatGPT in medical education, after new study finds ChatGPT passes the United States Medical Licensing Examination, 6 mars 2023; Katia Gagnon, « L’électrochoc de l’IA », La Presse, 26 mars 2023. [retour]
  38. David De Cremer et Garry Kasparov, « AI Should Augment Human Intelligence, Not Replace It », Harvard Business Review, 18 mars 2021. [retour]
  39. Sean Fleming, « A short history of jobs and automation », World Economic Forum, 3 septembre 2020; Kalev Leetaru, « Automation Reshaped The Workplace In The 1960’s But Will The Deep Learning Revolution Be Different », Forbes, 18 juillet 2019.   [retour]
  40. De Cremer et Kasparov, préc., note 38. [retour]
  41. Ryan McLaughlin et Trevor Quan, L’ère de demain : La main-d’œuvre amplifiée par l’intelligence artificielle du Canada, Conseil des technologies de l’information et des communications, 2019, Ottawa, p. 26. [retour]
  42. David Rocheleau-Houle et Jocelyn Maclure, « Intelligence artificielle, automatisation et inégalités », dans L’intelligence artificielle et les mondes du travail, Presses de l’Université Laval, 2021, p. 52-53. [retour]
  43. Ibid.; McLaughlin et Quan, préc., note 41, p. 28. [retour]
  44. [44] McLaughlin et Quan, préc., note 41, p. 30.
  45. Kalev Leetaru, « Automation Reshaped The Workplace In The 1960’s But Will The Deep Learning Revolution Be Different », Forbes, 18 juillet 2019.   [retour]
  46. Ben Armstrong et Julie Shah, « A Smarter Strategy for Using Robots », Harvard Business Review, Mars-avril 2023, p. 38. [retour]
  47. McLaughlin et Quan, préc., note 41, p. 21; Charles Cayrat, Profil de la main-d’œuvre en intelligence artificielle, science des données et mégadonnées au Québec, TECHNOCompétences, 2021, p. 38-39. [retour]
  48. Ibid. [retour]
  49. Ben Armstrong et Julie Shah, « A Smarter Strategy for Using Robots », Harvard Business Review, Mars-avril 2023, p. 40. [retour]
  50. Ibid. [retour]
  51. Jacqueline Cobett et Chris Emmanuel Tchatchouang Wanko, Les enjeux transversaux au déploiement et à l’utilisation de l’IA au sein du système professionnel québécois, Observatoire international sur les impacts sociétaux de l’IA et du numérique, 2022, p. 13. [retour]
  52. David De Cremer et Garry Kasparov, « AI Should Augment Human Intelligence, Not Replace It », Harvard Business Review, 18 mars 2021; Caroline Lefer-Palos, « Le jour où Deep Blue a battu Garry Kasparov aux échecs », CScience, 7 août 2020.  [retour]
  53. Jean-François Venne, « L’intelligence artificielle s’invite dans la gestion des ressources humaines », HEC Montréal, 26 avril 2022. [retour]
  54. Matthieu Dugal et Aude Motulsky, « Le futur de la santé avec l’intelligence artificielle », Radio-Canada Ohdio, Moteur de recherche, 6 octobre 2022. [retour]
  55. [55]Mike Seymour et autres, « AI with a Human Face », Harvard Business Review, Mars-avril 2023, p. 49.
  56. Ibid. [retour]
  57. De Cremer et Kasparov, préc., note 38. [retour]
  58. Nathalie de Marcellis-Warin et Christophe Mondin, Les pratiques numériques des professionnels au Québec : état des lieux et pistes de réflexion pour accompagner le virage numérique, CIRANO, 2021, p. 46. [retour]
  59. Jeffrey Dastin, « Amazon scraps secret AI recruiting tool that showed bias against women », Reuters, 9 octobre 2018. [retour]
  60. Ibid. [retour]
  61. Nombre de visionnement en date du 19 avril 2023. [retour]
  62. Marissa Groguhé, « Quand une « fausse » chanson devient virale », La Presse, 18 avril 2023. [retour]
  63. LRC 1985, c. C-45, art. 5. [retour]
  64. CCH Canadienne Ltée c. Barreau du Haut-Canada, [2004] 1 RCS 339, par. 16. [retour]
  65. Ibid., par. 18. [retour]
  66. LRC 1985, c. C-45, art. 13(1). 14.1(1). [retour]
  67. Voir notamment : LRC 1985, c. C-45, art. 29 et 29.21. [retour]
  68. Vincent Bergeron et Vincent Caron, « Deepfake : distinguer le vrai du faux sur les implications juridiques d’une technologie “trompeuse” », Développements récents en droit de la propriété intellectuelle, Service de formation continue du Barreau de Québec, 2020; Particia Hénault et Eliane Ellbogen, « L’art, la technologie et le droit : retour sur l’année 2020 », Revue de propriété intellectuelle, vol. 33, no 2, 2021; Lindsay Paquette, « Artificial life imitating art imitating life: Copyright ownership in AI-generated works », Intellectual Property Journal, vol. 33, 2021; Carys Craig et Ian Kerr, « The death of the AI author », Revue de droit d’Ottawa, vol. 52, no 31. [retour]
  69. Voir notamment : Gouvernement du Canada, Directive sur la prise de décision automatisée, 2020; OECD.AI, Principes sur l’Intelligence Artificielle de l’OCDE, 2019; Université de Montréal, Déclaration de Montréal pour un développement responsable de l’intelligence artificielle, 2018. [retour]
  70. Selon ses signataires, l’intelligence artificielle doit ainsi être conçue de manière à favoriser le bien-être de tous les êtres sensibles. La technologie ne doit pas conduire à déresponsabiliser les personnes, mais doit au contraire respecter leur autonomie tout en protégeant leur intimité et leur vie privée. L’intelligence artificielle doit en outre viser à maintenir la solidarité sociale en favorisant l’équité et la justice. Enfin, son développement doit être fait dans un esprit de prudence et une perspective écoresponsable, ce qui implique de le soumettre au contrôle démocratique. [retour]
  71. Gouvernement du Canada, Directive sur la prise de décisions automatisée, 2019, art. 4, 9. [retour]
  72. Gouvernement du Canada, Politique sur les services et le numérique, 2020; Gouvernement du Canada, Ligne directrice sur les services et le numérique, 2020. [retour]
  73. Benoit Deshaies et Dawn Hall, « Utilisation responsable des systèmes décisionnels automatisés du gouvernement fédéral », Statistique Canada, 2021. [retour]
  74. Alexandre Robillard, « Fitzgibbon veut éviter les dérapages de l’intelligence artificielle », Le Devoir, 6 avril 2023; Pierre Saint-Arnaud, « Cri d’alarme pour encadrer l’intelligence artificielle rapidement », La Presse, 20 mars 2023; Agence France Presse, « Les droits de la personne « gravement menacés » par l’intelligence artificielle », La Presse, 18 février 2023.  [retour]
  75. Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, projet de loi C-27 (deuxième lecture, Chambre des communes – 7 mars 2023) 44e légis., 1re sess., art. 4; Maya Medeiros et Jesse Beatson, « Projet de loi C-27 : première loi sur l’intelligence artificielle au Canada », Norton Rose Fulbright, 23 juin 2022. [retour]
  76. Loi édictant la Loi sur la protection de la vie privée des consommateurs, la Loi sur le Tribunal de la protection des renseignements personnels et des données et la Loi sur l’intelligence artificielle et les données et apportant des modifications corrélatives et connexes à d’autres lois, préc., note 75, art. 4, 8. [retour]
  77. Ibid., art. 5 (2). [retour]
  78. Ibid., art. 11. [retour]
  79. Ibid., art. 29, 30, 38 à 40. [retour]
  80. Karim Benessaieh, « Comité d’expert et subvention de 21 millions », La Presse, 12 avril 2023 ; Francis Halin, « Pierre Fitzgibbon veut encadrer l’intelligence artificielle : ” Il va y avoir ultimement une législation” », Le Journal de Québec, 12 avril 2023. [retour]
  81. Conseil de l’innovation du Québec, « À propos de nous » ; Gouvernement du Québec, Québec se dote d’un Conseil de l’innovation pour accompagner les entreprises, 10 décembre 2020. [retour]
  82. Francis Halin, « Pierre Fitzgibbon veut encadrer l’intelligence artificielle : ” Il va y avoir ultimement une législation ” », Le Journal de Québec, 12 avril 2023. [retour]
  83. Lord Clement-Jones, « L’influence du Parlement de Westminster sur la stratégie du Royaume-Uni en matière d’IA », dans Benjamin Prud’homme et autres (dir.), Angles morts de la gouvernance de l’IA, Paris, UNESCO, 2023, p. 203 et s. [retour]
  84. Une question posée à ChatGPT serait 300 fois plus énergivore qu’une requête Google. Nicolas Mougeot, « L’IA, un outil contre le réchauffement climatique? », Le Temps, 5 mars 2023. [retour]
  85. OpenAI, Government of Iceland: How Iceland is using GPT-4 to preserve its language, 14 mars 2023. [retour]
  86. Ibid. [retour]
  87. De Cremer et Kasparov, préc., note 38. [retour]