Appeler à l'hôtel de ville 450 534-2021
Demandes en ligne

Intelligence artificielle

Le Conseil municipal de la Ville de Bromont a adopté le 2 février 2026 sa Politique des usages responsables de l’intelligence artificielle. Cette Politique s’inspire des nouvelles exigences gouvernementales en matière d’usage responsable de l’IA dans les organismes publics. Elle veut encadrer les usages actuels de l’IA à la Ville de Bromont afin de soutenir l’amélioration des services, tout en protégeant les renseignements personnels et en assurant la primauté du jugement humain. 

Notre cheminement

Un cadre clair pour innover de façon responsable

L’intelligence artificielle (IA) occupe une place croissante dans les organisations publiques. À Bromont, l’IA est considérée avant tout comme un outil d’aide à la décision, d’aide à la rédaction et de traitement des données: elle peut soutenir le travail des équipes municipales, sans se substituer à l’expertise et à la responsabilité humaine. 

Nos équipes municipales se sont appuyées notamment sur les 12 énoncés de principes diffusés par voie d’arrêté ministérielle par le Gouvernement du Québec, en décembre 2025 

Qu’est-ce que « l’IA responsable »?

À la Ville de Bromont, l’IA responsable désigne une manière d’utiliser et d’encadrer l’IA pour qu’elle serve l’intérêt public tout en réduisant au maximum les risques pour les personnes. Concrètement, cela signifie notamment: 

  • la primauté de la supervision humaine et de sa pleine responsabilité d’abord;
  • la protection de la vie privée et la sécurité de l’information;
  • une gestion proactive des risques (biais, erreurs, hallucinations, cybersécurité, etc.);
  • la transparence et la traçabilité des usages lorsque pertinent;
  • l’équité, l’inclusion et la non-discrimination (La fracture numérique, on s’en occupe!);
  • une attention à la souveraineté numérique et à la maîtrise des données au Canada et au Québec;
  • l’amélioration continue (formation, signalement, correction, mise à jour) de ses employé(e)s et de ses dispositifs.

Ce que la Politique prévoit concrètement

Un outil d’IA autorisé, dans un cadre contrôlé

La Ville autorise l’utilisation d’un outil d’IA dans un cadre contrôlé. Tout autre outil ou système d’IA est interdit, sauf autorisation conforme au processus établi dans la Politique. 

De manière transparente, la Ville de Bromont a effectué un partenariat avec un fournisseur de service qui propose un outil complet regroupant plusieurs moteurs d’IA nommé Munia. Il s’agit d’une plateforme autorisée par la Ville de Bromont dont l’évaluation des facteurs de risque liés à la vie privée (ÉFVP) a démontré un risque faible de son usage par les équipes municipales. Munia est spécialisé dans le traitement des données municipales et respecte, en fonction de ses propres politiques aussi, les normes de sécurité informatique et informationnelle en vigueur. 

Des règles strictes sur les renseignements personnels

La Politique impose des pratiques de minimisation et de dépersonnalisation avant l’utilisation de l’IA. Certains renseignements ne doivent jamais être saisis dans l’outil d’IA, notamment: 

  • mots de passe et informations d’authentification; 
  • identifiants gouvernementaux; 
  • informations médicales; 
  • informations financières hautement sensibles; 
  • informations concernant des mineurs. 
  • Etc. 
Validation humaine obligatoire pour les décisions sensibles

La Politique confirme qu’aucune décision ayant un effet juridique, administratif, financier, disciplinaire ou portant atteinte à des droits ne peut être prise exclusivement sur la base d’un résultat généré par l’IA. Une validation humaine est obligatoire.

Une gouvernance et des mécanismes de signalement

La Politique prévoit une gouvernance structurée, incluant un Comité interne sur l’intelligence artificielle (ComitIA), un référent IA, ainsi que le rôle du responsable de la protection des renseignements personnels (RPRP). Des mécanismes sont aussi prévus pour poser des questionssignaler une erreur, un biais ou une situation problématique, notamment via la procédure interne OUPS-IA. 


Documentation

Foire aux questions

C’est quoi, l’intelligence artificielle (IA), pour la Ville?

L’IA est un outil informatique qui peut aider à rédiger, résumer, classer de l’information ou analyser des données pour soutenir le travail municipal. À Bromont, l’IA est considérée comme un outil d’aide, et non comme un décideur.

Qu’est-ce que ça veut dire « IA responsable »?

À la Ville de Bromont, l’IA responsable désigne une façon d’utiliser et d’encadrer l’IA pour qu’elle serve l’intérêt public tout en réduisant au maximum les risques pour les personnes. Concrètement, cela signifie:

  • réflexion et responsabilité humains d’abord (l’IA aide, mais ne décide pas seule); 
  • protection de la vie privée et sécurité (minimisation et dépersonnalisation des données, contrôles d’accès); 
  • gestion proactive des risques (biais, erreurs, hallucinations, cybersécurité) et conformité aux lois; 
  • transparence et traçabilité (on comprend ses limites et l’usage est encadré); 
  • équité, inclusion et non-discrimination; 
  • souveraineté numérique et maîtrise des données; 
  • amélioration continue (formation, signalement, correction et mise à jour de la politique).

Pourquoi Bromont adopte une politique sur l’IA?

Parce que l’IA évolue vite. La Politique sert à établir des règles claires pour: 

  • protéger les renseignements personnels; 
  • éviter les usages risqués ou improvisés; 
  • assurer la transparence; 
  • confirmer que le jugement humain demeure central. 

Est-ce que l’IA va remplacer des employés municipaux?

Non. La Politique vise surtout à aider les équipes avec des tâches répétitives ou techniques (ex.: brouillons, synthèses, organisation d’information). Les services municipaux demeurent basés sur l’expertise humaine, l’écoute et le professionnalisme. 

Est-ce que l’IA va prendre des décisions à ma place (permis, amendes, taxes, etc.)?

Non. La Politique est très claire: aucune décision ayant un effet juridique, administratif, financier, disciplinaire ou portant atteinte à des droits ne peut être prise exclusivement à partir d’un résultat d’IA. Une personne autorisée doit analyser, valider et décider. 

Est-ce que la Ville mettra mes renseignements personnels dans l’IA?

La Ville interdit l’intégration des renseignements personnels dans les outils et les systèmes d’IA qu’elle exploite. Aussi, elle précise que les usagers doivent limiter la collecte et l’utilisation au strict nécessaire et respecter les lois applicables (notamment la Loi sur l’accès et la protection des renseignements personnels et la Loi 25). 
Pour certains usages impliquant vos renseignements personnels, la politique prévoit un consentement clair et éclairé et une information sur la finalité. 

Concrètement, c’est quoi « dépersonnaliser »?

C’est retirer ce qui permet d’identifier une personne (nom, courriel, téléphone, adresse complète, numéros de dossier, etc.) et garder uniquement l’information utile à la tâche. Exemple: remplacer “Julie Tremblay, 123 rue X” par “Citoyenne A”. 

Concrètement, c’est quoi « minimiser »?

C’est un principe selon lequel nous n’utilisons que les informations nécessaires à notre tâche administrative. 

Qu’est-ce qui est interdit d’entrer dans l’outil d’IA?

Avant dépersonnalisation, il est interdit d’entrer notamment: 

  • mots de passe, codes d’accès, réponses de sécurité; 
  • informations financières hautement sensibles (ex.: infos bancaires); 
  • identifiants gouvernementaux (ex.: NAS/NSS, numéros de permis/assurance); 
  • informations médicales;
  • informations concernant des mineurs; 
  • dossiers sensibles (ex.: évaluations disciplinaires nominatives).

Est-ce que la Ville utilise n’importe quel outil d’IA (ex.: applications publiques)?

Non. La Politique prévoit que la Ville autorise uniquement les outils ou systèmes d’IA qui ont été validé par un processus formel. Les autres outils sont interdits. 

Est-ce que l’outil apprend à partir des données de la Ville?

La Politique prévoit des exigences de gouvernance, dont un engagement écrit lié au non-entraînement des modèles sur les données ou contenus de la Ville. L’objectif est de maintenir les données utilisées dans un environnement qui est hautement protégé et qui fait l’objet d’une veille régulière.

Où sont hébergées les données? Est-ce que ça sort du Québec?

La Politique adopte un principe de souveraineté numérique: la Ville privilégie, lorsque possible et selon une analyse de risques, des solutions qui favorisent l’hébergement au Québec (ou dans une juridiction offrant une protection adéquate), limitent les transferts de données hors Canada et exigent de la transparence sur la sous-traitance. 

Est-ce que la Ville pourrait utiliser l’IA pour répondre automatiquement aux citoyens?

La Politique permet certains usages d’IA pour soutenir la communication (ex.: propositions de réponses, FAQ, contenus informatifs, assistants virtuels dans certains contextes). Dans tous les cas, ces usages doivent rester encadrés, prudents, transparents et alignés sur la protection des renseignements personnels. 

Si je parle à un outil (ex.: formulaire, assistant), comment saurai-je que l’IA est impliquée?

La Politique mise sur la transparence. Lorsque pertinent, surtout si l’IA est utilisée de manière significative dans un contenu ou un service, la Ville peut indiquer qu’un contenu a été produit avec l’appui de l’IA et validé par une personne. 

L’IA peut-elle se tromper?

Oui. La Politique reconnaît les limites possibles (erreurs, biais, imprécisions, omissions, “hallucinations”). C’est pourquoi la Ville impose: 

  • une validation humaine; 
  • une gestion proactive des risques; 
  • des mécanismes de signalement et de correction. 

Qu’est-ce qu’une « hallucination » d’IA?

C’est quand l’IA génère une information incorrecte ou inventée, mais présentée comme vraie. La Politique prévoit que les résultats doivent être revus avec esprit critique et validés avant utilisation. 

Est-ce que l’IA peut être biaisée ou discriminatoire?

Oui, c’est un risque connu. La Politique engage la Ville à la non-discrimination, à l’équité et à l’identification/correction proactive des biais. 

Qui est responsable si l’IA propose quelque chose d’inexact?

La Politique affirme la primauté de la responsabilité humaine: l’IA ne remplace pas l’imputabilité. Les résultats doivent être relus, validés et, au besoin, corrigés avant diffusion ou décision. En Cas d’inexactitude, l’usager est invité à informer la Ville via comitia@bromont.com. 

Est-ce que la Ville garde l’historique des conversations avec l’IA?

La Politique traite les conversations comme des documents de travail et prévoit des exigences de gouvernance (durée de rétention, suppression/purge, journaux minimisés, contrôles d’accès). Elle recommande aussi, lorsque disponible, des modes sans historique ou la suppression des conversations sensibles. 

Et s’il y a une fuite de données ou un incident?

La Politique prévoit une procédure spécifique (OUPS-IA) pour consigner et gérer les brèches liées à l’IA. Si un incident touche des renseignements personnels et présente un risque de préjudice sérieux, la Ville doit aviser les personnes concernées et lorsqu’il s’agit d’un renseignement personnel, suivre la procédure prescrite par la Loi sur l’accès aux documents des organismes publics et sur la protection des renseignements personnels (A-2.1) en informant notamment la Commission d’accès à l’information. 

Est-ce que je peux demander l’accès, la rectification ou la suppression de mes renseignements personnels?

Oui. Les droits d’accès et de rectification s’appliquent conformément à la Loi sur l’accès. La Politique rappelle que la Ville doit encadrer la collecte, l’utilisation, la communication, la conservation et la destruction des renseignements personnels. 

Est-ce que cette politique autorise la reconnaissance faciale ou des technologies du genre?

La Politique n’autorise pas automatiquement n’importe quelle technologie. Elle impose un cadre: évaluation des risques, conformité, transparence, gouvernance et principe de proportionnalité avant tout usage. 

Est-ce que la Politique va changer la façon dont je reçois les services municipaux?

À court terme, l’objectif est surtout l’encadrement et la prudence. Si des usages qui touchent directement les citoyens sont mis en place, ils devront respecter les principes: protection des données, transparence, équité et supervision humaine. 

Qui supervise l’application de la Politique?

La Politique prévoit une gouvernance incluant: 

  • le ComitIA (comité interne); 
  • un référent IA; 
  • le responsable de la protection des renseignements personnels (RPRP); 
  • la contribution des TI et des directions. 

Est-ce que la Politique va évoluer?

Oui. La Politique est “vivante”: elle est réévaluée au moins une fois par année et au besoin. La Ville prévoit aussi un audit annuel indépendant pour maintenir des pratiques à jour. 

Mention IA responsable : « Ce document a été réalisé et piloté par la Ville de Bromont et propulsé par l’intelligence artificielle. Mention IA responsable : « Ce document a été réalisé et piloté par La Ville de Bromont et propulsé par l’intelligence artificielle. »