Guide sur l’utilisation de l’intelligence artificielle générative

Sur cette page

Vue d’ensemble

Les outils d’intelligence artificielle (IA) générative offrent de nombreux avantages potentiels aux institutions du gouvernement du Canada (GC). Les institutions fédérales devraient explorer les utilisations potentielles des outils d’IA générative afin d’appuyer et d’améliorer leurs opérations, mais ils ne devraient pas être utilisés dans tous les cas. Les institutions doivent faire preuve de prudence, et évaluer les risques avant de commencer à les utiliser. Elles devraient également limiter l’utilisation de ces outils aux situations où elles peuvent gérer les risques de façon efficace.

Le présent document sert d’orientation aux institutions fédérales afin de les aider dans leur utilisation des outils d’IA générative. Cela inclut les cas où ces outils sont déployés par les institutions fédérales. Il donne une vue d’ensemble de l’IA générative, identifie les défis liés à son utilisation, propose des principes pour l’utiliser de manière responsable, et suggère des considérations politiques et des pratiques exemplaires.

Le présent Guide vise également à sensibiliser les institutions fédérales à l’IA générative et à favoriser la coordination entre elles. Il souligne l’importance de mobiliser les principaux intervenants avant de déployer des outils d’IA générative pour un usage public et avant d’utiliser ces outils à des fins telles que la prestation de services.

Les intervenants comprennent :

  • les conseillers juridiques;
  • les experts en matière de protection de la vie privée et de sécurité;
  • le Bureau du dirigeant principal de l’information du Secrétariat du Conseil du Trésor du Canada (SCT);
  • les agents négociateurs;
  • les groupes consultatifs;
  • les clients des services du GC.

Le présent Guide complémente et appuie la conformité à plusieurs lois et politiques fédérales qui existent déjà, y compris dans les domaines de la vie privée, de la sécurité, de la propriété intellectuelle et des droits de la personne.

Cette deuxième version du Guide tient compte des commentaires des intervenants internes et des experts externes.

Le Guide sera mis à jour régulièrement afin de suivre le rythme des modifications réglementaires et technologiques.

Qu’est-ce que l’IA générative?

La Directive sur la prise de décisions automatisée définit l’IA comme la technologie de l’information qui exécute des tâches pour lesquelles il faut habituellement faire appel à l’intelligence biologique, comme comprendre le langage parlé, apprendre des comportements ou résoudre des problèmes.

L’IA générative est un type d’IA qui produit du contenu comme du texte, de l’audio, du code, des vidéos et des images.Note de bas de page 1 Ce contenu est produit sur la base des informations saisies par l’utilisateur, appelées « messages-guides », qui consistent généralement en un court texte didactique.

Exemples d’outils d’IA générative :

  • grands modèles de langage (LLM) comme ChatGPT, Copilot et LLaMA;
  • GitHub Copilot et FauxPilot, qui produisent du code à partir de messages-guides textuels;
  • DALL-E, Midjourney et Stable Diffusion, qui produisent des images à partir de messages-guides textuels ou d’images.

Ces exemples comprennent à la fois des modèles exclusifs et des modèles ouverts. Les deux types ont leurs propres avantages et inconvénients sur le plan des coûts, du rendement, de l’extensibilité, de la sécurité, de la transparence et du soutien aux utilisateurs.

En outre, les modèles d’IA générative peuvent être mis au point, ou des modèles personnalisés peuvent être entraînés et déployés pour répondre aux besoins d’une organisation. Note de bas de page 2

De nombreux modèles d’IA générative ont été formés sur de grands volumes de données, notamment des données publiques accessibles à partir d’Internet. Sur la base des données d’apprentissage, ces modèles génèrent un contenu statistiquement probable en réponse à un message-guide, Note de bas de page 3 par exemple, en prédisant le prochain mot d’une phrase. Des techniques comme la supervision humaine et l’apprentissage par renforcement peuvent également être appliquées pour améliorer les résultats, Note de bas de page 3 et les utilisateurs peuvent fournir un retour d’information ou modifier leur message-guide pour affiner la réponse. L’IA générative peut donc produire du contenu qui semble avoir été produit par un humain.

Elle peut être utilisée pour effectuer ou appuyer des tâches, notamment :

  • rédiger et modifier des documents et des courriers électroniques;
  • générer des images pour des présentations;
  • exécuter des tâches de codage comme le débogage et la création de modèles et de solutions communes;
  • résumer l’information;
  • lancer des idées;
  • rechercher, traduire et apprendre;
  • aider les clients (par exemple, répondre à leurs questions, rechercher la cause d’un problème).

Défis et possibilités

Avant que les institutions fédérales ne commencent à utiliser des outils d’IA générative, elles doivent évaluer et atténuer certains risques éthiques, juridiques et autres. Par exemple, ces outils peuvent générer du contenu inexact, amplifier les biais et porter atteinte à la propriété intellectuelle, la vie privée et d’autres lois. En outre, certains outils peuvent ne pas répondre aux exigences fédérales en matière de protection de la vie privée et de sécurité. Lorsque les institutions utilisent ces outils, elles doivent protéger les renseignements personnels et les données sensibles. De plus, comme ces outils génèrent un contenu qui peut donner l’impression d’avoir été produit par un être humain, les gens peuvent ne pas savoir avec certitude s’ils interagissent avec une personne ou un outil. L’utilisation de ces outils peut également exercer une incidence sur les compétences et le jugement des fonctionnaires et peut engendrer des coûts environnementaux. L’élaboration et les pratiques d’assurance de la qualité de certains modèles d’IA génératifs ont également été associées à des préjudices socioéconomiques, comme des pratiques de travail exploitantes. Note de bas de page 4 Par exemple, l’étiquetage ou l’annotation des données exige un apport manuel important, et ce travail est souvent externalisé dans des pays où les travailleurs touchent de très faibles salaires. Note de bas de page 5

Les outils d’IA générative s’appuient sur des modèles qui posent divers défis, notamment une transparence et une explicabilité limitées. Ils s’appuient également sur des données d’apprentissage qui sont difficiles à obtenir et à évaluer. Ces défis découlent en partie de la taille importante des modèles, des volumes élevés de données d’apprentissage et de la nature exclusive de nombreux outils. En outre, les résultats des modèles sont limités par les messages-guides entrés par les utilisateurs et les données d’apprentissage, qui peuvent manquer un contexte qui n’est pas accessible au public à partir d’Internet.

Les données d’apprentissage peuvent également être obsolètes. Par exemple, ChatGPT 3.5 est mis au point selon des données jusqu’au début de 2022, ce qui limite sa capacité à fournir des informations sur les événements ou les développements postérieurs. Note de bas de page 6 Note de bas de page 7 Les données d’apprentissage peuvent également être biaisées et ne pas présenter une diversité de points de vue, étant donné qu’Internet est souvent la source des données. Ces biais peuvent ensuite se refléter dans les résultats des outils.

Le rendement de ces outils peut également varier d’une langue à l’autre. Les modèles en anglais et dans d’autres langues qui sont bien représentées dans les données d’apprentissage donnent souvent de meilleurs résultats que les modèles dans des langues moins bien représentées. Note de bas de page 8 De plus, ces outils présentent des limites qui réduisent leur utilité à certaines fins; par exemple, ils ont tendance à avoir un rendement inégal pour les tâches liées au langage émotif ou nuancé. Note de bas de page 9 Note de bas de page 10

L’IA générative peut également présenter des risques pour l’intégrité et la sécurité des institutions fédérales, compte tenu de son utilisation malveillante potentielle par des auteurs de menace. Les institutions fédérales doivent être conscientes de ces risques et tenir compte des pratiques exemplaires recommandées par le Centre canadien pour la cybersécurité dans son document d’orientation L’intelligence artificielle générative — ITSAP.00.041.

Bien que ces outils présentent des défis et des préoccupations, ils offrent également des avantages potentiels aux fonctionnaires et aux institutions fédérales. Par exemple, ils peuvent améliorer la productivité en augmentant l’efficacité et la qualité des produits dans les tâches d’analyse et de rédaction dans plusieurs domaines. Note de bas de page 11 Note de bas de page 12 Une analyse plus poussée s’impose pour déterminer les utilisations les plus appropriées et les plus avantageuses de ces outils par les institutions fédérales. L’expérimentation, conjuguée à la mesure et à l’analyse du rendement, est nécessaire pour mieux comprendre les gains et les compromis possibles et pour éclairer l’approche du gouvernement à l’égard de l’utilisation de ces outils.

Approche recommandée

Dans cette section

Les institutions fédérales devraient étudier comment elles pourraient utiliser des outils d’IA générative afin d’appuyer leurs opérations et améliorer les résultats pour la population canadienne. Étant donné les défis et les préoccupations liés à ces outils, les institutions devraient évaluer et atténuer les risques, et les utiliser que pour les activités pour lesquelles elles peuvent gérer efficacement les risques. Compte tenu de l’adoption croissante de ces technologies dans différents secteurs et par le public, l’exploration par les institutions fédérales aidera le gouvernement à comprendre les risques et les possibilités que présentent ces outils et permettra de suivre l’évolution du paysage numérique.

Les risques liés à l’utilisation de ces outils dépendent de ce à quoi ils serviront et des mesures d’atténuation en place.

Exemples d’utilisations à faible risque :

  • rédiger un courriel pour inviter des collègues à une activité de renforcement de l’esprit d’équipe;
  • réviser l’ébauche d’un document qui fera l’objet d’examens et d’approbations supplémentaires.

Exemples d’utilisations à risque plus élevé (comme les utilisations dans la prestation de services) :

  • déployer un outil (par exemple, un robot conversationnel) à l’intention du public;
  • produire un résumé des renseignements d’un client.

Les institutions fédérales devraient expérimenter des utilisations à faible risque avant d’envisager des utilisations à risque plus élevé. Elles devraient toujours adapter les pratiques exemplaires et les mesures d’atténuation des risques à chaque utilisation.

Lorsqu’ils décident d’utiliser ou non des outils d’IA générative, les fonctionnaires doivent se référer au guide sur la prise de décisions éthiques (section 6, Les valeurs au quotidien : Guide de discussion du Code de valeurs et d’éthique du secteur public).

Pour maintenir la confiance du public et garantir une utilisation responsable des outils d’IA générative par les institutions fédérales, elles devraient s’harmoniser avec les principes « PRETES » élaborés par le SCT :

  • Pertinente : Veiller à ce que l’utilisation d’outils d’IA générative réponde aux besoins des utilisateurs et de l’organisation et contribue à améliorer les résultats pour la population canadienne; tenir compte des répercussions environnementales au moment de choisir d’utiliser un outil; déterminer les outils appropriés pour la tâche; les outils d’IA ne sont pas le meilleur choix dans toutes les situations.
  • Responsable : Assumer la responsabilité du contenu généré par ces outils et des répercussions de leur utilisation, notamment veiller à ce que le contenu généré soit exact, légal, éthique et conforme aux conditions d’utilisation; établir des mécanismes de surveillance.
  • Équitable : Veiller à ce que le contenu de ces outils ne comporte pas ou n’amplifie pas les biais et qu’il respecte les droits de la personne, l’accessibilité et les obligations en matière d’équité procédurale et de fond; mobiliser les intervenants touchés avant le déploiement.
  • Transparente : Identifier le contenu produit à l’aide de l’IA générative; informer les utilisateurs qu’ils interagissent avec un outil d’IA; fournir des informations sur les politiques des institutions, l’utilisation appropriée, les données d’apprentissage et le modèle lors du déploiement de ces outils; documenter les décisions et être en mesure de fournir des explications si des outils sont utilisés afin d’appuyer la prise de décisions.
  • Éclairée : Apprendre à connaître les points forts, les limites et l’utilisation responsable des outils; apprendre à créer des messages-guides efficaces et à relever les faiblesses potentielles des résultats.
  • Sécurisée : Garantir que l’infrastructure et les outils sont adaptés à la classification de sécurité des renseignements et que la vie privée et les renseignements personnels sont protégés; évaluer et gérer les risques liés à la cybersécurité et la fiabilité lors du déploiement d’un système.

Pour obtenir de l’aide afin de déterminer l’utilisation appropriée de ces outils, les fonctionnaires devraient consulter les intervenants pertinents, notamment :

  • les services juridiques et les experts en protection de la vie privée et sécurité de leur institution;
  • le bureau principal de l’information et le bureau principal des données de leur institution;
  • les spécialistes de la diversité et de l’inclusion de leur institution.

Les organismes suivants peuvent également fournir du soutien :

  • le Centre canadien pour la cybersécurité;
  • Statistique Canada;
  • le Bureau du dirigeant principal de l’information du Canada (qui fait partie du SCT).

Responsabilités des institutions fédérales

Les institutions fédérales devraient évaluer les outils d’IA générative en fonction de leur potentiel à aider les employés, et non à les remplacer. Elles sont encouragées à explorer de façon responsable les utilisations et à permettre aux employés d’optimiser leur travail tout en veillant à ce que toutes les utilisations de ces outils soient éthiques, en harmonie avec les principes « PRETES » et conformes aux politiques et aux lois.

Les institutions ont un certain nombre de responsabilités lorsqu’elles évaluent ces outils et explorent la façon dont elles pourraient les utiliser, notamment :

  • veiller à ce que les employés puissent accéder et suivre une formation sur l’utilisation efficace et responsable des outils d’IA générative;
  • aider les employés à améliorer leurs connaissances sur des sujets comme la détection de contenu biaisé et inexact;
  • donner accès à des outils d’IA générative sécurisés qui répondent aux exigences du gouvernement en matière d’information, de protection des renseignements personnels et de sécurité;
  • permettre l’accès aux outils d’IA générative en ligne, conformément à la Politique sur les services et le numérique (exigence 4.4.2.5) et à l’annexe A : Exemples d’utilisation acceptable des dispositifs et des réseaux (liste non exhaustive) de la Directive sur les services et le numérique;
  • mettre en œuvre des processus de supervision et de gestion du rendement afin de surveiller les répercussions de ces outils et de veiller à ce que les outils eux-mêmes et leur utilisation soient conformes aux lois et aux politiques en vigueur, et en harmonie avec les principes « PRETES », en particulier pendant le déploiement;
  • discuter avec les employés pour comprendre leurs besoins;
  • consulter les intervenants comme les utilisateurs finaux, les groupes de représentants des clients et les agents négociateurs avant les déploiements à risque plus élevé.

Les institutions devraient avoir des pratiques de gestion du changement efficaces afin d’aider les employés à améliorer leurs compétences actuelles et à en élaborer de nouvelles.

Les gestionnaires doivent comprendre à quoi ces outils peuvent et ne peuvent pas servir et avoir des attentes réalistes quant à la façon dont ils pourraient aider à améliorer la productivité des employés.

Les institutions devraient également évaluer les risques et les possibilités associés à l’utilisation de ces outils et élaborer des orientations pour leur institution qui sont conformes au présent Guide et qui sont adaptées au contexte et aux besoins de leur organisation.

Considérations politiques et pratiques exemplaires

Dans cette section

La Directive sur la prise de décisions automatisée s’applique-t-elle?

La Directive sur la prise de décisions automatisée s’applique aux systèmes automatisés utilisés pour appuyer ou prendre des décisions administratives, y compris les systèmes qui s’appuient sur l’IA. Comme les autres systèmes d’IA, les systèmes d’IA générative ont des capacités qui permettent de faire des évaluations ou des déterminations sur les clients dans le cadre du processus de prestation de services. Par exemple, un système d’IA générative pourrait être utilisé pour résumer les données d’un client ou pour déterminer s’il est admissible à un service. Note de bas de page 13 Ces utilisations administratives peuvent influer sur la manière dont un agent perçoit et décide d’un cas, ce qui entraîne des conséquences sur les droits, les intérêts et les privilèges du client.

La Directive s’applique aux systèmes d’IA générative lorsqu’ils sont utilisés pour prendre ou éclairer des décisions administratives. Les institutions doivent s’assurer de respecter les exigences de la Directive, qui comprennent l’évaluation de l’incidence algorithmique (EIA) et d’autres exigences qui appuient la transparence, l’assurance de la qualité et l’équité procédurale.

Toutefois, l’IA générative n’est peut-être pas adaptée à la prise de décisions administratives. La conception et le fonctionnement des modèles d’IA générative peuvent limiter la capacité des institutions à garantir la transparence, la responsabilité et l’équité des décisions prises par ces systèmes ou éclairées par leurs résultats. De même, les conditions d’utilisation des produits d’IA générative de nombreuses entreprises technologiques interdisent d’utiliser ces produits pour prendre des décisions à forte incidence. Par exemple, OpenAI ne permet pas l’utilisation de ses modèles pour les décisions relatives aux problèmes de santé, au crédit, à l’emploi, aux établissements d’enseignement ou aux services d’assistance publique, à l’application de la loi et à la justice pénale, ainsi qu’à l’immigration et à l’asile. Note de bas de page 14 De même, Google interdit l’utilisation de ses services d’IA générative pour prendre des « décisions automatisées dans des domaines qui affectent les droits ou le bien-être matériel ou des individus ». Note de bas de page 15 Ces limites soulignent l’importance de se conformer à l’exigence de la Directive de consulter des services juridiques pendant la phase de conception d’un projet d’automatisation. Cette exigence aide les institutions fédérales à comprendre les risques juridiques liés aux utilisations administratives des systèmes d’IA générative, tant pour eux-mêmes que pour leurs clients.

Ce ne sont pas toutes les utilisations de l’IA générative qui sont soumises à la Directive. Par exemple, l’utilisation d’outils d’IA générative dans le cadre d’une recherche ou d’un remue-méninges, d’une planification ou d’une correspondance courante n’entre pas dans la portée de la Directive. Toutefois, ces utilisations non administratives restent soumises aux lois et politiques qui régissent les institutions fédérales.

Considérations relatives à la protection de la vie privée

Tous les renseignements personnels gérés par les institutions fédérales sont soumis aux exigences de la Loi sur la protection des renseignements personnels et des instruments politiques connexes. Les renseignements personnels sont définis comme des renseignements, quels que soient leur forme et support, concernant un individu identifiable. La loi et l’ensemble de politiques sur la protection des renseignements personnels comprennent des exigences quant au moment et à la façon dont les renseignements personnels sont recueillis, créés, utilisés ou divulgués au moyen d’un système d’IA générative.

Les risques pour la protection de la vie privée dépendront de la façon dont le système d’IA générative est utilisé, de la façon dont il traite les informations sur les personnes et s’il est accessible au public en ligne ou s’il est déployé sur le réseau sécurisé du gouvernement.

Les fonctionnaires ne doivent pas entrer de renseignements personnels dans des outils d’IA générative accessibles au public en ligne. Cela constituerait une divulgation illégale des renseignements parce que le fournisseur pourrait en conserver une copie. Les fonctionnaires peuvent toutefois entrer des renseignements personnels dans des systèmes d’IA générative qui sont contrôlés ou configurés par le gouvernement lorsque les contrôles appropriés de protection de la vie privée et de sécurité sont en place. Lorsqu’ils utilisent un outil d’IA générative contrôlé par l’institution, les employés doivent respecter toutes les exigences en matière de protection des renseignements personnels, comme c’est le cas pour tout autre système.

Si les résultats d’un outil d’IA générative entraînent la création de nouveaux renseignements personnels, les institutions doivent également gérer les nouveaux renseignements conformément aux exigences en matière de protection de la vie privée. Par exemple, si une institution déploie un outil d’IA générative sur son réseau pour aider à évaluer le risque, le niveau de risque attribué aux applications individuelles constituerait des renseignements personnels. Dans un autre exemple, un résumé d’une demande de service ou de prestation produit par une IA générative pourrait constituer de nouveaux renseignements personnels. Dans ces deux exemples, le niveau de risque et le résumé exigeraient des mesures appropriées de protection de la vie privée et seraient assujettis à d’autres exigences pour le traitement des renseignements personnels.

Lorsque les institutions envisagent d’acquérir, d’élaborer ou de déployer un outil d’IA générative, les responsables de la protection de la vie privée doivent être consultés pour déterminer si une évaluation des facteurs relatifs à la vie privée est nécessaire pour déterminer et atténuer les risques liés à la vie privée avant le déploiement. Lorsque les institutions fédérales mettent en place des solutions informatiques qui utilisent l’IA générative, elles doivent veiller à ce qu’elles respectent les exigences en matière de protection de la vie privée. Le Guide sur les pratiques relatives à la vie privée numérique contient plus de renseignements sur ces exigences et sur la manière d’intégrer des conseils en matière de protection de la vie privée aux solutions informatiques qui utilisent l’IA générative.

La dépersonnalisation et l’utilisation de données synthétiques peuvent aider les institutions à réduire l’incidence et la probabilité d’atteinte à la vie privée lors de l’élaboration, du perfectionnement, de l’utilisation et de l’évaluation des résultats des outils d’IA générative. L’Avis de mise en œuvre de la protection des renseignements personnels 2023-01 : Dépersonnalisation contient de plus amples informations sur ces techniques de préservation de la vie privée. D’autres mesures de protection comme les contrôles administratifs, les droits d’accès et l’audit, sont également importantes pour réduire le risque de divulgation involontaire ou d’accès non autorisé, de repersonnalisation et d’inférence et, d’une manière générale, pour préserver la vie privée des personnes.

Exigences en matière de documentation

En vertu de la Directive sur les services et le numérique, les employés du GC sont responsables de documenter leurs activités et leurs décisions ayant une valeur opérationnelle. Par exemple, les comptes rendus des décisions relatives à l’élaboration ou au déploiement d’un outil d’IA générative et les mesures prises afin de veiller à ce que l’outil produise des résultats appropriés et exacts, et lorsque l’outil d’IA générative est utilisé d’une manière qui déclencherait la Directive sur la prise de décisions automatisée. L’annexe E (Identification et reconnaissance de l’information et des données ayant une valeur opérationnelle) de la Ligne directrice sur les services et le numérique peut aider les représentants de l’institution dans ce processus. Les outils génériques d’évaluation (OGE) de Bibliothèque et Archives Canada peuvent également être utiles lorsqu’ils couvrent une activité opérationnelle dans le cadre de laquelle l’IA générative est utilisée.

Le contexte dans lequel l’IA générative est utilisée doit être pris en compte lors de l’évaluation de la valeur opérationnelle relative des renseignements et des données connexes. La valeur opérationnelle éclairera les exigences en matière de documentation. Par exemple, l’utilisation d’outils d’IA générative pour faciliter les tâches quotidiennes comme les suivantes est plus susceptible de produire de l’information éphémère:

  • rédiger des courriels ou des documents;
  • produire des images ou aider à créer des présentations;
  • appuyer les activités de codage des programmeurs;
  • échanger des idées ou des renseignements de recherche;
  • traduire du texte entre les langues.

En vertu de la Directive sur les services et le numérique, le (la) dirigeant(e) principal(e) de l’information de l’institution, en collaboration avec d’autres responsables de l’institution, au besoin, est responsable de la gestion ouverte et stratégique des informations et des données et de la documentation de l’information institutionnelle correspondante et des pratiques de gestion du cycle de vie des données. La Ligne directrice à l’intention des employés fédéraux du gouvernement du Canada : Rudiments de la gestion de l’information (GI), l’Orientation sur la qualité des données et l’Orientation sur la gestion du cycle de vie des métadonnées offrent une orientation et des pratiques exemplaires connexes.

Lorsque les institutions déploient des outils d’IA générative pour appuyer ou prendre des décisions administratives, des exigences supplémentaires en matière de documentation liées à la transparence, à l’assurance de la qualité et à la production de rapports s’appliquent. Ces exigences sont énoncées aux paragraphes 6.2, 6.3 et 6.5 de la Directive sur la prise de décisions automatisée.

Toute la documentation entourant l’utilisation, le développement et le déploiement de systèmes d’IA générative qui relèvent d’une institution fédérale est assujettie à la Loi sur l’accès à l’information et à Loi sur la Bibliothèque et les Archives du Canada, et doit être conservée et disposée en conséquence.

Enjeux potentiels et pratiques exemplaires

La section suivante donne un aperçu de plusieurs domaines de risque et présente les pratiques exemplaires pour une utilisation responsable de l’IA générative dans les institutions fédérales. Outre les pratiques exemplaires pour tous les utilisateurs de l’IA générative au sein du gouvernement fédéral, il y a des pratiques exemplaires propres aux institutions fédérales qui développent ou déploient ces outils afin de veiller à ce que les risques soient correctement évalués et atténués, et pour faire la distinction entre les responsabilités des utilisateurs et des développeurs. Ce ne sont pas toutes les pratiques exemplaires qui s’appliquent dans toutes les situations; nous encourageons donc les institutions fédérales à adapter leur approche à chaque utilisation.

a. Protection des renseignements

Enjeu : Certains outils d’IA générative ne répondent pas aux exigences du gouvernement en matière de sécurité de l’information

La protection des renseignements personnels, classifiés, protégés et exclusifs, est essentielle lors de l’utilisation de systèmes d’IA générative. Les fournisseurs de certains outils d’IA générative peuvent inspecter les données d’entrée ou les utiliser pour perfectionner leurs modèles, ce qui pourrait entraîner des atteintes à la vie privée et à la sécurité. Des risques peuvent également découler du stockage des données d’entrée sur des serveurs non contrôlés par le gouvernement du Canada (GC), où les données peuvent être conservées plus longtemps que nécessaire, rendues accessibles, diffusées ultérieurement ou vulnérables à une violation des données. Note de bas de page 16 Certains outils, publics ou non, peuvent ne pas répondre aux exigences en matière de protection de la vie privée et de sécurité énoncées dans la loi et la politique fédérales. L’élaboration ou le déploiement de systèmes d’IA générative sur les réseaux sécurisés des institutions peuvent atténuer certains risques, et les institutions devraient demander l’approbation de leurs représentants internes, comme leur dirigeant(e) principal(e) de la sécurité, le (la) représentant(e) désigné pour la cybersécurité et le (la) dirigeant(e) principal(e) de l’information. Dans le cadre de ces approbations, une évaluation et une acceptation officielles des risques sont recommandées, car des mesures d’atténuation supplémentaires peuvent être nécessaires pour réduire les risques à un niveau acceptable.

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Ne pas saisir de renseignements sensibles ou personnels dans des outils qui ne sont pas gérés par le GC.
  • Ne pas soumettre de requêtes au moyen d’outils non gérés par le GC qui pourraient compromettre la confiance du public si ces demandes étaient divulguées. Consultez l’annexe B de la Directive sur les services et le numérique pour obtenir des exemples d’utilisations inacceptables de réseaux et de dispositifs.
  • Comprendre comment un système utilise les données d’entrée (par exemple, si elles sont utilisées comme données d’apprentissage ou si elles sont accessibles aux fournisseurs).
  • Demander aux services juridiques, au bureau principal de la sécurité de l’institution et à l’équipe responsable de la protection de la vie privée d’examiner les conditions d’utilisation, la politique sur la protection de la vie privée et les autres documents juridiques d’un fournisseur avant d’utiliser un système pour traiter des informations sensibles ou de nature exclusive.
  • Utiliser une infrastructure et des outils adaptés à la classification de sécurité des renseignements, conformément à la Directive sur la gestion de la sécurité.
  • Obtenir l’approbation du (de la) dirigeant(e) principal(e) de la sécurité de l’institution avant d’utiliser, d’acquérir ou de déployer une IA générative pour traiter des renseignements protégés ou d’autres renseignements sensibles.
  • Tenir compte des exigences relatives à la résidence des informations et des données dans la Directive sur les services et le numérique et l’orientation correspondante dans la Ligne directrice sur les services et le numérique.
  • Utiliser si possible la fonction de « non-participation » afin de veiller à ce que les messages-guides ne sont pas utilisés pour entraîner ou développer davantage un système d’IA.
Pratiques exemplaires additionnelles pour les institutions fédérales déployant un outil d’IA générative
  • Procéder à des essais réguliers avant et pendant l’exploitation du système afin de veiller à ce que les risques d’effets négatifs potentiels, ainsi que les risques associés à une utilisation inappropriée ou malveillante du système, soient cernés et atténués.
  • Appliquer des méthodes d’essai plus approfondies pour cerner et atténuer les vulnérabilités dans les cas où les systèmes seront rendus publics. Cela devrait comprendre les essais de pénétration, des essais adverses ou des essais de la méthode de l’équipe rouge.
  • Planifier des audits indépendants pour évaluer les systèmes d’IA générative par rapport aux cadres de risque et d’incidence. Tirer parti des cadres de gestion des risques existants, s’il y a lieu. Voir la ligne directrice à la page Gestion du risque.
  • Élaborer un plan pour documenter les événements et les incidents de cybersécurité et y réagir, conformément au Plan de gestion des événements de cybersécurité du gouvernement du Canada (PGEC GC). Mettre à jour le plan au besoin pour faire face à l’évolution des menaces.
  • Tenir compte des pratiques exemplaires comme les Guidelines for Secure AI System Development (disponible en anglais seulement).

b. Biais

Enjeu : Le contenu généré peut amplifier les biais ou d’autres idées nuisibles qui dominent dans les données d’apprentissage.

Les outils d’IA générative peuvent produire des contenus discriminatoires ou non représentatifs, ou qui comportent des biais ou des stéréotypes (par exemple, des biais liés à des facteurs identitaires multiples et croisés comme le sexe, la race et l’appartenance ethnique). Note de bas de page 17 Note de bas de page 18 Note de bas de page 19 De nombreux modèles d’IA générative sont formés sur de grandes quantités de données provenant d’Internet, qui est souvent la source de ces biais. Par exemple, les données d’apprentissage sont susceptibles de refléter les biais historiques prédominants et peuvent ne pas inclure des perspectives qui sont moins répandues dans les données ou qui sont apparues depuis que le modèle a été mis au point.Note de bas de page 17 D’autres sources peuvent contribuer à un contenu biaisé, notamment le filtrage des données, qui peut amplifier les biais de l’ensemble d’entraînement initial, Note de bas de page 20 le cadre des messages-guides Note de bas de page 21 et les biais du modèle. L’utilisation généralisée de ces technologies pourrait amplifier ou renforcer ces biais et les points de vue dominants, et conduire à une moindre grande diversité des idées, des perspectives et du langage, Note de bas de page 17 Note de bas de page 22 ainsi que des préjudices potentiels.

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Se renseigner sur les biais, la diversité, l’inclusion, l’antiracisme et les valeurs et l’éthique pour améliorer votre capacité à repérer le contenu biaisé, non inclusif ou discriminatoire.
  • Examiner le contenu généré afin de veiller à ce qu’il soit conforme aux engagements, aux valeurs et à l’éthique du GC et qu’il respecte les obligations légales. Cet examen comprend l’évaluation des biais ou des associations stéréotypées.
  • Formuler des messages-guides pour produire un contenu qui offre des perspectives holistiques et limite les biais.
  • S’efforcer de comprendre les données utilisées pour entraîner l’outil, par exemple leur origine, leur contenu et la manière dont elles ont été sélectionnées et préparées.
  • Indiquer clairement lorsque le contenu a été produit par l’IA générative.
Pratiques exemplaires additionnelles pour les institutions fédérales déployant un outil d’IA générative
  • Prendre en compte les biais potentiels et les approches pour les atténuer dès la phase de planification et de conception, notamment en réalisant une analyse comparative entre les sexes plus (ACS Plus) afin de comprendre comment le déploiement d’un outil d’IA générative pourrait avoir une incidence sur différents groupes de population. Ne déployez pas l’outil si vous ne pouvez pas gérer le risque de résultats biaisés.
  • Consulter des experts en matière d’ACS Plus au sein de votre organisation ainsi que les personnes qui seraient directement touchées par le déploiement de l’outil (comme les clients) aux phases de planification et de conception, ainsi qu’aux phases d’évaluation et d’audit, afin de déterminer les incidences de ces outils sur différents groupes de population et d’élaborer des mesures pour remédier à ces incidences négatives.
  • Tester les biais dans les données, le modèle et les résultats avant de déployer un outil, et le faire de manière continue.
  • Surveiller régulièrement le système pour déceler les incidences négatives après le déploiement.
  • Tenir compte de la diversité de la population lors du déploiement de robots conversationnels, par exemple, en variant le genre du robot.

c. Qualité

Enjeu : Le contenu généré peut être inexact, incohérent ou incomplet.

Les technologies d’IA générative peuvent produire un contenu qui semble bien élaboré, crédible et raisonnable, mais qui est en fait inexact, absurde ou incohérent par rapport aux données sources. Note de bas de page 23 Note de bas de page 6 Ce contenu est parfois appelé « hallucination ». En outre, le contenu généré par les outils d’IA peut ne pas fournir une vision holistique d’un problème. Au lieu de cela, il peut porter sur les perspectives prédominantes des données d’apprentissage. Note de bas de page 17 Le contenu peut ne plus être à jour en fonction de la période couverte par les données d’apprentissage et du fait que le système puisse ne pas avoir accès directement à des données récentes. Il peut également y avoir des différences dans la qualité des résultats en français et en anglais, selon le modèle, la tâche et le message-guide. La qualité des résultats dans chaque langue devrait être évaluée pour garantir le respect des exigences en matière de langues officielles.

Les risques associés à un contenu inexact varient en fonction du contexte et doivent être évalués. Par exemple, l’utilisation d’outils d’IA générative pour apprendre sur un sujet peut produire des renseignements inexacts ou des sources non existantes. Note de bas de page 24 Si les résultats étaient utilisés dans la prise de décisions, ils pourraient conduire à un traitement injuste de certaines personnes ou à une politique malavisée. En outre, lorsqu’il envisage d’utiliser ces outils pour les communications destinées au public, il est essentiel que le gouvernement ne communique pas de renseignements inexacts, ce qui contribuerait à la désinformation et à l’érosion de la confiance du public.

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Indiquer clairement que vous avez utilisé l’IA générative pour élaborer du contenu.
  • Ne pas considérer le contenu généré comme faisant autorité. Vérifier l’exactitude des faits et du contexte, par exemple en les comparant à des renseignements provenant de sources fiables ou en demandant à un collègue ayant de l’expertise d’examiner la réponse.
  • Vérifier les renseignements personnels créés à l’aide de l’IA générative afin de veiller à ce qu’ils soient exacts, à jour et complets.
  • Évaluer l’incidence des résultats inexacts. Ne pas utiliser l’IA générative lorsque l’exactitude des faits ou l’intégrité des données est nécessaire.
  • S’efforcer de comprendre la qualité et la source des données d’apprentissage.
  • Penser à votre capacité à relever les contenus inexacts avant d’utiliser l’IA générative. Ne pas l’utiliser si vous ne pouvez pas confirmer la qualité du contenu.
  • Apprendre à créer des messages-guides efficaces et à fournir un retour d’information pour affiner les résultats afin de limiter la production de contenu inexact.
  • N’utilisez pas d’outils d’IA générative comme moteurs de recherche à moins que des sources soient fournies pour que vous puissiez vérifier le contenu.
Pratiques exemplaires additionnelles pour les institutions fédérales déployant un outil d’IA générative
  • Tester le rendement et la fiabilité dans une variété d’utilisations avant le déploiement. Cela comprend de veiller à ce que la qualité des outils et des résultats réponde aux exigences en matière de langues officielles.
  • Évaluer la qualité des données d’apprentissage lors de l’amélioration des modèles.
  • Utiliser l’ancrage et l’ingénierie de requête afin que les modèles construisent des réponses uniquement à partir des informations que vous fournissez et contrôlez.
  • Aviser les utilisateurs qu’ils interagissent avec l’IA générative.
  • Lorsque le contenu est généré par l’IA, inclure des liens vers des sources faisant autorité pour fournir aux utilisateurs un contexte supplémentaire et favoriser la transparence.
  • Fournir des renseignements sur l’utilisation appropriée des outils, les capacités et les limites du système, les mesures d’atténuation des risques, la source des données d’apprentissage et sur la manière dont les modèles ont été élaborés.
  • Surveiller le rendement des outils d’IA générative de façon continue pour comprendre les répercussions potentielles et veiller à ce qu’ils atteignent les cibles de rendement. Documenter les problèmes, interrompre le déploiement et mettre à jour l’outil si les niveaux de rendement ne sont pas atteints.

d. Autonomie des fonctionnaires

Enjeu : Une confiance excessive dans l’IA pourrait nuire grandement au jugement, étouffer la créativité et éroder les capacités de l’effectif.

Une confiance excessive dans les outils d’IA générative pourrait nuire à l’autonomie et au jugement. Par exemple, certains utilisateurs peuvent être enclins à accepter sans esprit critique les recommandations du système ou d’autres résultats, qui peuvent être inexacts. Note de bas de page 25 Note de bas de page 26 Une confiance excessive dans les systèmes d’IA peut être le signe d’un biais d’automatisation, c’est-à-dire la tendance à favoriser les résultats générés par des systèmes automatisés, même en présence de renseignements contradictoires provenant de sources non automatisées. Note de bas de page 25 De même, le biais de confirmation pourrait contribuer à une confiance excessive, Note de bas de page 25 car les résultats des systèmes d’IA générative peuvent renforcer les idées préconçues d’un utilisateur, en particulier lorsque les messages-guides sont rédigés d’une manière qui reflète ses hypothèses et ses croyances. Note de bas de page 27 Une confiance excessive dans les systèmes d’IA peut entraîner une baisse de l’esprit critique. Cela pourrait limiter la diversité des pensées, étouffer la créativité et l’innovation, et aboutir à des analyses partielles ou incomplètes. Une confiance excessive dans l’IA peut ainsi entraver la capacité des employés à acquérir et à entretenir les compétences dont ils ont besoin pour accomplir les tâches confiées aux systèmes d’IA générative, ce qui pourrait potentiellement éroder les capacités de l’effectif.

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Déterminer si vous devez utiliser l’IA générative pour répondre aux besoins des utilisateurs et de l’organisation.
  • Tenir compte des capacités et des limites de l’IA générative lors de l’attribution des tâches et de l’examen des résultats du système.
  • Perfectionner vos connaissances en matière d’IA afin de pouvoir évaluer de manière critique ces outils et leurs résultats.
  • Utiliser les outils d’IA générative pour vous aider et non pour remplacer votre jugement. Ne pas externaliser une compétence que vous ne comprenez pas ou que vous ne possédez pas.
  • Former votre propre opinion avant de chercher des idées ou des recommandations à l’aide des outils d’IA.
  • Utiliser un libellé neutre lorsque vous formulez des messages-guides pour minimiser les résultats biaisés.
  • Toujours examiner le contenu généré par l’IA, même si le système semble fournir des réponses précises.

e. Risques juridiques

Enjeu : L’IA générative présente des risques pour les droits de la personne, la vie privée, la protection de la propriété intellectuelle et l’équité procédurale.

L’utilisation par le gouvernement de systèmes d’IA générative présente des risques pour les droits et obligations juridiques des institutions fédérales et de leurs clients. Ces risques découlent des données utilisées pour entraîner les modèles d’IA, de la manière dont les systèmes traitent les données d’entrée et de la qualité des résultats des systèmes.

L’utilisation de documents protégés par le droit d’auteur comme des articles, des livres, du code, des peintures ou de la musique par des fournisseurs ou des institutions fédérales pour entraîner des modèles d’IA peut porter atteinte aux droits de propriété intellectuelle. L’utilisation ou la reproduction des résultats générés par ces modèles pourrait également porter atteinte à de tels droits, s’ils contiennent des renseignements qui sont identiques ou substantiellement semblables à des travaux dont les droits d’auteur sont déjà protégés. En outre, la propriété du contenu créé par ou avec l’aide de l’IA générative est incertaine. Le droit à la vie privée pourrait également être menacé parce que les données utilisées pour entraîner les modèles d’IA générative pourraient inclure des renseignements personnels recueillis ou utilisés de manière illégale, notamment des renseignements personnels obtenus à partir de sources en ligne accessibles au public.

Des risques pourraient également découler de l’opacité des modèles d’IA générative et de leur capacité à produire des résultats inexacts, biaisés ou incohérents. Cette opacité rend difficiles la traçabilité et la compréhension de la manière dont le système d’IA produit des résultats, ce qui peut nuire à l’équité procédurale dans les cas où une institution fédérale est tenue de fournir à ses clients les raisons de ses décisions administratives comme les décisions de refus de prestations. La qualité des résultats de l’IA peut également avoir une incidence sur les droits juridiques des personnes. Par exemple, des résultats biaisés pourraient conduire à une discrimination dans les services, ce qui pourrait constituer une violation des droits de la personne.

Ces risques vont au-delà des scénarios de prise de décisions. Lorsque les institutions fédérales utilisent des outils d’IA générative pour aider le public à trouver des renseignements (par exemple, des robots conversationnels sur les sites Web de l’institution) ou pour rédiger des communications publiques, il existe un risque que ces outils génèrent un contenu inapproprié ou des renseignements erronés qui pourraient contribuer ou causer un préjudice pour lequel le gouvernement pourrait être tenu responsable.

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Consulter les services juridiques de votre institution sur les risques juridiques liés au déploiement d’outils d’IA générative ou à leur utilisation dans la prestation de services. La consultation pourrait comprendre un examen des conditions d’utilisation, de la politique sur les droits d’auteur, de la politique de confidentialité et d’autres documents juridiques du fournisseur.
  • Se conformer à la Directive sur la prise de décisions automatisée lors de l’utilisation de l’IA générative dans la prise de décisions administratives.
  • Vérifier si les résultats du système sont identiques ou substantiellement semblables au matériel protégé par le droit d’auteur (consulter la FAQ pour en savoir plus sur la façon de procéder). Attribuer les droits là où il se doit, ou supprimer le matériel problématique afin de minimiser le risque d’atteinte aux droits de propriété intellectuelle.
  • Consulter les fonctionnaires désignés pour l’octroi de licences et la gestion du droit d’auteur de la Couronne si vous prévoyez d’inclure des résultats dans des communications publiques, conformément aux Procédures sur l’édition.
  • Évaluer les résultats des systèmes pour détecter les inexactitudes factuelles, les biais ou les idées nuisibles qui peuvent être en conflit avec les valeurs du GC.
  • Se tenir au courant des développements juridiques et politiques liés à la réglementation de l’IA.
Pratiques exemplaires additionnelles pour les institutions fédérales déployant un outil d’IA générative
  • Vérifier la légalité de la méthode utilisée pour obtenir les données nécessaires à l’entraînement des modèles d’IA, et veiller à ce que vous ayez l’autorisation d’utiliser les données à cette fin.
  • Documenter la provenance des données et indiquer que vous avez l’autorisation du titulaire du droit d’auteur.
  • Dans la mesure du possible, entraîner votre modèle à l’aide des données de sources ouvertes que vous avez confirmé pouvoir utiliser de cette façon.
  • Être transparent quant à l’utilisation de l’IA générative. Par exemple, informer les utilisateurs qu’ils interagissent avec un système plutôt qu’avec un être humain. Le cas échéant, inclure un avis de non-responsabilité afin de réduire au minimum les risques de responsabilité et d’accroître la transparence.

f. Distinguer les êtres humains des machines

Enjeu : Les gens peuvent ne pas savoir qu’ils interagissent avec un système d’IA ou ils peuvent supposer à tort que l’IA est utilisée.

Les agents ou robots conversationnels qui utilisent l’IA générative peuvent produire des réponses qui ressemblent tellement à des réponses d’êtres humains qu’il peut être difficile d’en faire la distinction. Note de bas de page 28 En conséquence, les clients peuvent penser qu’ils interagissent avec un être humain. De même, les clients peuvent penser qu’un courriel qu’ils ont reçu a été écrit par une personne alors qu’il a été généré par un outil d’IA. Par ailleurs, les clients peuvent penser qu’ils interagissent avec un outil d’IA alors qu’ils ont en fait affaire à un être humain. La transparence sur la question de savoir si un client interagit avec une personne ou un robot conversationnel est essentielle afin de veiller à ce que le client ne soit pas induit en erreur, et pour maintenir la confiance à l’égard du gouvernement.

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Communiquer clairement quand et comment vous utilisez l’IA dans vos interactions avec le public.
  • Informer les utilisateurs lorsque les messages texte, audio et visuels qui leur sont adressés sont générés par l’IA.
Pratiques exemplaires additionnelles pour les institutions fédérales déployant un outil d’IA générative
  • Offrir d’autres moyens de communication non automatisés.
  • Utiliser des filigranes pour déterminer le contenu généré par l’IA.
  • Publier des renseignements sur le système comme une description en langage clair de son fonctionnement, des raisons de son utilisation par votre institution et des mesures prises pour assurer la qualité des résultats.

g. Incidences sur l’environnement

Enjeu : Le développement et l’utilisation de systèmes d’IA générative peuvent avoir des coûts environnementaux significatifs.

Le développement et l’utilisation de systèmes d’IA générative peuvent être une source importante d’émissions de gaz à effet de serre (GES) et de consommation d’eau. Ces émissions proviennent du calcul utilisé pour entraîner et exploiter les modèles d’IA générative et de la production et du transport des serveurs qui appuient les programmes d’IA. De plus, les centres de données sont énergivores et consomment de grandes quantités d’eau pour le refroidissement sur place et la production d’électricité hors site. Note de bas de page 29 Bien que l’IA générative puisse contribuer à la lutte contre les changements climatiques, son utilisation doit être mise en équilibre avec la nécessité de prendre des mesures rapides et radicales pour réduire les émissions mondiales de gaz à effet de serre et éviter des dommages irréversibles à l’environnement. Note de bas de page 30

Pratiques exemplaires pour tous les utilisateurs de l’IA générative dans les institutions fédérales
  • Utiliser des outils d’IA générative hébergés dans des centres de données à consommation énergétique nette zéro ou carboneutres.
  • N’utiliser les outils d’IA générative que lorsqu’ils sont pertinents pour les objectifs du programme et les résultats escomptés.
  • Comprendre que l’impact environnemental de l’IA générative découle non seulement de son utilisation, mais aussi de l’entraînement des modèles et de la fabrication des composants matériels qui font fonctionner les centres de données, ainsi que de l’exploitation minière, de la fabrication, de l’assemblage, leur transport et leur élimination.
Pratiques exemplaires additionnelles pour les institutions fédérales déployant un outil d’IA générative
  • Découvrir si votre fournisseur d’IA s’est fixé des objectifs de réduction des gaz à effet de serre. Note de bas de page 31
  • Réaliser une évaluation de l’incidence sur l’environnement dans le cadre de la proposition de développement ou d’acquisition d’outils d’IA générative. Veiller à ce que toute décision d’acquisition de ces outils soit prise conformément à la Politique d’achats écologiques.
  • Encourager les développeurs à faire preuve de transparence en matière de durabilité en accordant la préférence à ceux qui communiquent clairement les répercussions environnementales de leurs systèmes d’IA au moyen de rapports sur la conformité aux protocoles de GES. Note de bas de page 32
  • Utiliser des outils de sensibilisation au carbone pour estimer l’empreinte carbone des systèmes avant la formation ou la production. Note de bas de page 33

Utilisation du présent Guide

Les institutions fédérales sont encouragées à utiliser le présent Guide alors qu’elles continuent d’élaborer leurs propres orientations sur l’utilisation de l’IA générative. Le présent Guide et la collectivité continueront d’évoluer.

Soutien supplémentaire

Informations et conseils sur les utilisations spécifiques de l’IA générative

Cours et événements

L’École de la fonction publique du Canada offre différents cours et événements sur l’IA, notamment Utiliser l’IA générative au gouvernement du Canada.

Ressources supplémentaires

Les institutions fédérales peuvent également communiquer avec les organismes suivants pour obtenir du soutien supplémentaire :

  • le Centre de la sécurité des télécommunications (notamment le Centre canadien pour la cybersécurité);
  • Statistique Canada.

Foire aux questions

Puis-je utiliser l’IA générative pour rédiger des courriels ou des notes d’information?

Oui. Selon le contexte. Si vous utilisez un outil d’IA générative pour rédiger un courriel ou une note d’information, vous devez veiller à ce que :

  • les données que vous entrez dans l’outil ne comprennent pas de renseignements personnels, protégés, classifiés ou sensibles, à moins que vous ayez confirmé que l’outil convient à la classification de sécurité des renseignements;
  • le contenu généré soit exact, non partisan et non biaisé et qu’il ne porte pas atteinte aux lois sur la propriété intellectuelle;
  • vous informez la direction que vous avez utilisé un outil d’IA générative dans le processus de rédaction.
Puis-je utiliser l’IA générative pour élaborer du contenu pour les communications publiques (par exemple, des publications Web, les médias sociaux)?

Faites preuve de prudence.

Lorsque vous utilisez l’IA générative pour élaborer du contenu, vous devez veiller à ce que :

  • le contenu soit exact, clair, non partisan et non biaisé;
  • vous avez les autorisations nécessaires pour reproduire, adapter, traduire ou publier du matériel de tiers;
  • le contenu est conforme aux lois sur la propriété intellectuelle;
  • vous avez informé le public de toute utilisation importante de l’IA générative dans la production de contenu;
  • les résultats sont fiables, compte tenu de la portée et de l’incidence possibles des communications publiques.
Puis-je utiliser l’IA générative pour des tâches de programmation?

Oui, mais vous devez tenir compte de la classification de sécurité du code. De même, en ce qui concerne la génération du code, certains outils d’IA générative peuvent produire un contenu qui porte atteinte aux licences de logiciels libres du code source à partir duquel il a été mis au point. Pour résoudre cet enjeu, utilisez les outils pour trouver les correspondances potentielles dans les répertoires de code publics ou limitez l’utilisation de l’IA générative à des tâches comme le débogage ou l’explication de code.

Puis-je utiliser l’IA générative au moment d’élaborer des politiques?

Oui, mais soyez conscient(e) des forces et des limites des outils d’IA générative et adaptez les tâches que vous leur attribuez en conséquence. Vous pouvez utiliser ces outils pour faciliter le remue-méninges lors de l’élaboration de la politique, mais faites preuve de prudence et validez le contenu généré si vous l’utilisez comme preuve. N’utilisez pas d’outils d’IA générative pour recommander, élaborer ou interpréter une politique.

Lorsque vous prenez des décisions portant sur des positions de politiques, portez votre propre jugement de valeur, en consultation avec les intervenants concernés et dans le respect des lois applicables. Soyez transparent(e) et vigilant(e) quant à toute utilisation significative de l’IA générative au cours du processus d’élaboration des politiques, notamment dans le cadre de la recherche et de l’engagement des intervenants. Veillez à ce que les messages-guides formulés dans ce contexte n’incluent aucune information qui présenterait des risques juridiques ou d’atteinte à la réputation du gouvernement.

Puis-je utiliser l’IA générative pour automatiser les évaluations, les recommandations ou les décisions concernant les clients?

Faites preuve de prudence.

L’utilisation de l’IA générative pour prendre ou éclairer des décisions doit être conforme à la Directive sur la prise de décisions automatisée, qui vise à garantir la transparence, la responsabilité et l’équité des décisions prises ou éclairées par des systèmes automatisés comme ceux qui utilisent l’IA générative.

Si vous envisagez d’utiliser l’IA générative dans la prise de décisions administratives, consultez les intervenants dans votre institution, y compris les personnes suivantes, à la phase de planification et de conception :

  • l’équipe des services juridiques;
  • les bureaux principaux de la sécurité, de l’information et des données;
  • les experts en matière d’ACS Plus;
  • l’équipe responsable de la protection de la vie privée.

Elles vous aideront à veiller à ce que vous puissiez utiliser l’IA générative aux fins déterminées et à cerner et à atténuer les risques.

Assurez-vous également de :

  • comprendre comment l’outil produit ses résultats, et peut trouver les données sur lesquelles il s’appuie;
  • évaluer les résultats en fonction de l’exactitude des faits et de toute indication de biais à l’égard des clients;
  • tenir compte des variations potentielles dans les résultats obtenus en réponse à des messages-guides similaires, ce qui pourrait entraîner des inégalités dans le traitement des clients;
  • déterminer comment vous respecterez les exigences en matière de transparence et d’explication.
Comment puis-je vérifier si les résultats du système sont identiques ou substantiellement similaires au matériel protégé par le droit d’auteur?

Vous pouvez vérifier cela en effectuant une recherche sur Internet pour comparer les résultats de l’outil d’IA générative aux documents déjà publiés. Le risque de problèmes liés au droit d’auteur dépend de ce que vous demandez au système d’IA générative de faire, du sujet et de la façon dont vous utiliserez les résultats.

Vous pouvez réduire le risque d’avoir un problème en :

  • utilisant l’IA générative pour des tâches qui sont moins susceptibles d’inclure des renseignements protégés par le droit d’auteur, comme la révision de contenu que vous avez rédigé vous-même plutôt que la production de nouveau contenu;
  • utilisant des documents pour lesquels il est peu probable que des problèmes liés au droit d’auteur soient présents, par exemple, une image dans le domaine public ou qui est disponible publiquement sous une licence permissive, ou une image de stock payée, plutôt que d’utiliser l’IA générative;

Votre niveau de diligence afin de veiller à ce que vous n’ayez pas de problème lié au droit d’auteur dépend également de ce que vous demandez au système d’IA générative de faire, du sujet et de la façon dont vous utiliserez les résultats. Si les résultats sont rendus publics, vous devez faire preuve d’une grande vigilance pour vérifier qu’il n’y a pas de problème lié au droit d’auteur. Vous voudrez peut-être consulter les services juridiques de votre institution pour obtenir des conseils adaptés à vos besoins opérationnels.

Que dois-je inclure lorsque j’avise les gens que j’ai utilisé un système d’IA générative?

Ce que vous direz exactement aux gens dépendra du contexte. Par exemple :

  • Qui est le public?
  • Comment le système est utilisé?
  • Quel est le format du contenu généré (texte, images ou code, par exemple)?
  • Quelle proportion du contenu de l’IA générative a été incluse dans le produit final?

Au minimum, dites aux gens quel système et quelle version vous avez utilisés. De plus, vous voudrez peut-être inclure les renseignements suivants :

  • le but de son utilisation;
  • si et dans quelle mesure vous avez révisé, validé ou modifié le résultat.

Lorsque vous utilisez l’IA générative dans votre travail, informez-en votre gestionnaire.

Le tableau suivant contient quelques scénarios où vous pourriez utiliser un outil d’IA générative et des suggestions d’information que vous pourriez fournir.

Scénario Renseignements que vous pourriez fournir

Utiliser un outil d’IA générative pour résumer les renseignements destinés à votre directeur afin de le préparer à une réunion.

Une note rapide au bas du courriel disant :

  • quel outil d’IA générative vous avez utilisé pour résumer les renseignements;
  • que vous avez vérifié l’exactitude du contenu.

Utiliser un outil d’IA générative dans la préparation d’une présentation.

Une note sur une diapositive indiquant quel outil d’IA générative vous avez utilisé et que vous l’avez utilisé pour organiser les diapositives, générer des images et suggérer les prochaines étapes.

Déploiement d’un outil d’IA générative accessible au public, comme un robot conversationnel.

Une note dès le départ indiquant aux clients :

  • qu’ils n’interagissent pas avec un humain;
  • comment utiliser l’outil;
  • à quels types de réponses ils devraient s’attendre;
  • un rappel de ne pas entrer des renseignements personnels ou sensibles.

En plus d’informer les clients dès le départ, vous devriez prendre d’autres mesures de transparence, comme la publication de renseignements sur :

  • les capacités et les limites de l’outil;
  • les mesures d’atténuation des risques qui ont été prises;
  • la source des données d’apprentissage;
  • le modèle qui est utilisé et comment il a été élaboré.

Utiliser un outil d’IA générative pour résumer les articles d’un bulletin mensuel publié sur un site collaboratif.

  • quel outil d’IA générative vous avez utilisé pour créer le résumé;
  • quelle partie du résumé final provient de l’outil d’IA;
  • les mesures que vous avez prises afin de veiller à ce que le contenu final soit exact, à jour, complet, valide, non biaisé et non partisan.

Utiliser un outil d’IA générative dans la rédaction d’un document de recherche.

  • Suivre les guides de style et les exigences de publication de la revue pour déterminer si ces outils peuvent être utilisés et le format de ces citations.
Dois-je enregistrer mon utilisation des outils d’IA générative?

Ça dépend. Si votre utilisation de ces outils est une activité ayant une valeur opérationnelle, vous devez la documenter. Le contexte dans lequel vous utilisez les outils vous indiquera si la documentation est nécessaire et pendant combien de temps la documentation doit être conservée.

Si vous envisagez d’utiliser ces outils pour prendre des décisions administratives ou effectuer des évaluations connexes, vous devez vous satisfaire aux exigences en matière de documentation de la Directive sur la prise de décisions automatisée.

Si vous utilisez ces outils pour des tâches quotidiennes telles que le remue-méninges, la traduction ou la rédaction et la révision de documents, vous n’aurez peut-être pas besoin de documenter leur utilisation, car les renseignements générés seront probablement éphémères.

Même si les outils produisent des renseignements éphémères, vous devez tout de même aviser votre gestionnaire de toute utilisation importante.

Votre institution peut également avoir des orientations sur ce qui doit être documenté. Vérifiez auprès du bureau principal de l’information et du bureau principal des données de votre institution pour savoir s’il existe des orientations propres à l’institution.

Dois-je utiliser une adresse courriel personnelle ou professionnelle pour m’inscrire aux outils d’IA?

Lorsque vous utilisez des outils d’IA générative pour les activités du GC, vous devez utiliser une adresse courriel professionnelle officielle. Une adresse courriel professionnelle :

  • contribue à assurer la transparence et la responsabilisation;
  • aide à veiller à ce que les décisions soient correctement consignées et transférées aux dépôts ministériels, le cas échéant.

Autres recommandations lors de l’inscription aux outils d’IA :

  • Utilisez un mot de passe solide et unique qui est différent et non une variante des mots de passe que vous utilisez sur un appareil du gouvernement ou un autre service.
  • Dans la mesure du possible, utilisez l’authentification à deux facteurs pour les services de tiers.
Comment rédiger des messages-guides efficaces?

La façon dont vous demandez à un système d’IA générative de produire du contenu influe sur les résultats générés.

Lorsque vous rédigez des messages-guides, soyez aussi clair(e) et précis(e) que possible, et fournissez le contexte.

Par exemple, vous pouvez :

  • fournir des renseignements généraux;
  • identifier le public;
  • préciser la longueur et la tonalité du résultat escompté.

Vous pouvez même donner à l’outil quelques exemples d’entrées possibles et les résultats correspondants que vous recherchez, puis lui demander de reproduire l’approche pour les nouvelles entrées. Une fois que vous avez un résultat, vous pouvez répondre avec des messages-guides supplémentaires pour l’aider à affiner le résultat initial.

Lorsque vous élaborez des messages-guides, tenez compte de vos propres points de vue et préjugés et écrivez des messages-guides qui fournissent des résultats holistiques et impartiaux.

Vous pouvez également demander au système de générer des réponses uniquement en fonction de certaines sources ou des données que vous lui fournissez. Par exemple, vous pourriez copier des renseignements dans le message-guide et demander au système de générer un sommaire pour votre cadre supérieur. Vous pouvez aussi inclure le contenu d’une prochaine présentation et demander au système de créer des messages d’introduction intéressants en fonction de la présentation.

De nombreuses autres techniques relatives aux messages-guides ne sont pas abordées ici, et les pratiques exemplaires peuvent varier selon le modèle utilisé.

Expérimentez avec vos messages-guides et votre langage et suivez une formation sur les techniques efficaces relatives aux messages-guides. L’École de la fonction publique du Canada offre des produits d’apprentissage sur l’IA, notamment Utiliser l’IA générative au gouvernement du Canada et Série travailler à l’aide de l’intelligence artificielle : Inciter les outils d’intelligence artificielle à rédiger en langage inclusif. Quelle que soit la technique relative aux messages-guides que vous utilisez, suivez les principes « PRETES » et les pratiques exemplaires fournies dans le cadre du présent Guide.

Détails de la page

Date de modification :