Rechercher

La Suisse cherche un juste milieu dans la réglementation de l’IA

L'intelligence artificielle présente des risques. Cependant, une réglementation trop stricte pourrait freiner l’innovation. Le Conseil fédéral propose donc une voie médiane pragmatique.
Taille de la police
100%

Les réglementations actuelles sont-elles suffisantes lorsque l’IA traite des données de santé sensibles? Analyse d’un échantillon biologique dans un laboratoire de pathologie numérique. (Image: Keystone)

Véhicules autonomes, diagnostics médicaux automatisés et créations musicales: aucun domaine ou presque ne semble échapper à l’intelligence artificielle (IA). Bien que celle-ci soit un objet d’études depuis des décennies, la population et le monde politique n’ont découvert que récemment les potentiels de cette technologie. Il n’en reste pas moins que l’IA est déjà largement utilisée, et avec profit, en Suisse comme ailleurs, pour la traduction de documents ou la reconnaissance vocale par exemple. La Confédération y a également recours, notamment pour automatiser le réseau de mesure du pollen ou pour prévoir la consommation finale d’électricité en Suisse.

En dépit des opportunités qu’elle offre, l’IA n’est toutefois pas dénuée de risques: des processus automatisés biaisés peuvent favoriser des décisions discriminatoires, par exemple lorsque l’évaluation des candidatures à un poste ou la vérification du droit à des prestations sociales sont confiées à un système d’IA[1]. Ce à quoi il faut ajouter la désinformation et les deep-fakes générés par l’IA, soit des photos, des vidéos ou des documents audios truqués, qui peuvent miner la confiance dans les processus démocratiques. Ces risques placent les droits fondamentaux et les valeurs essentielles de l’État de droit et de la démocratie au centre de notre attention.

Faut-il aménager le cadre réglementaire en vigueur pour tenir compte de l’évolution et de l’utilisation de l’IA en Suisse? Et si oui, jusqu’où aller? L’enjeu est de ne pas brider l’innovation par des règles excessives, tout en protégeant les valeurs fondamentales de l’État de droit. C’est précisément l’objectif de la Convention du Conseil de l’Europe sur l’IA[2]. Premier instrument international contraignant dans ce domaine, cette convention entend garantir que les systèmes d’IA respectent les droits de l’homme, la démocratie et l’État de droit, sans freiner outre mesure les progrès technologiques. Elle pose pour ce faire un cadre légal général et aborde les principaux enjeux juridiques en la matière (voir encadré).

Des lacunes mises au jour par une analyse juridique

En février 2025, le Conseil fédéral a pris connaissance d’un état des lieux sur les approches possibles en matière de réglementation de l’IA[3], qui vont de solutions purement sectorielles (pour les véhicules autonomes ou les deep-fakes sur les réseaux sociaux, p. ex.) à l’adoption de règles transversales plus poussées, notamment relatives à la protection des droits fondamentaux ou la transparence.

L’Office de la justice (OFJ) a contribué à l’élaboration de cet état des lieux en réalisant une analyse juridique générale du sujet[4] dans le but d’identifier les lacunes du droit suisse, en particulier dans la perspective de la ratification par la Suisse de la Convention du Conseil de l’Europe sur l’IA. Il a mis l’accent sur les domaines suivants qui, si cette réglementation était adoptée, pourraient concerner aussi bien les particuliers que l’administration publique, le cas échéant de manière différenciée:

  • Transparence et traçabilité: les utilisatrices et utilisateurs doivent savoir à quel moment et de quelle façon un système d’IA est utilisé, en particulier dans le secteur public. En outre, il faut des mécanismes leur permettant de vérifier a posteriori les décisions basées sur l’IA afin d’éviter que ces dernières ne deviennent une «boîte noire».
  • Égalité et non-discrimination: il convient d’éviter que les décisions prises de façon automatisée génèrent des discriminations, en particulier dans des domaines sensibles comme la santé, mais aussi dans les relations commerciales lorsque des droits fondamentaux sont en jeu.
  • Contrôle et application du droit: il faut définir qui est responsable des erreurs qui surviennent. Les pouvoirs publics doivent encadrer de façon particulièrement attentive le recours à l’IA par leurs services. Il convient aussi de mettre sur pied un dispositif de surveillance efficace pour vérifier le respect des dispositions légales.

 

L’analyse de l’OFJ confirme qu’aujourd’hui déjà, les systèmes d’IA n’opèrent pas dans un vide juridique, car ils sont soumis aux lois en vigueur, telles que la loi sur la protection des données ou la loi sur l’égalité. Le droit suisse présente néanmoins des lacunes pour certaines questions en lien avec l’IA, de sorte que pour atteindre les objectifs de la Convention du Conseil de l’Europe, il faudra préciser ou compléter le cadre réglementaire existant.

L’approche réglementaire suisse

Sur la base de cet état des lieux, le Conseil fédéral a décidé que la Suisse devrait ratifier la Convention sur l’IA, avec une mise en œuvre sous forme de scénario minimal[5] axé sur les principaux défis: transparence, protection des données, non-discrimination, analyse d’impact et contrôle effectif. En premier lieu, le Conseil fédéral souhaite réglementer en priorité le secteur public. Néanmoins, il entend aussi imposer des obligations aux acteurs privés si nécessaire, notamment lorsque des droits fondamentaux sont en jeu – par exemple quand il en va de l’égalité entre femmes et hommes – le cas échéant en adoptant des mesures moins incisives. Ce «scénario minimal» n’est pas pour autant synonyme de «programme minimal», loin de là: l’idée est plutôt d’aménager le cadre légal de manière à pouvoir atteindre les objectifs de la Convention sur l’IA, même si pouvoirs publics et acteurs privés ne sont pas soumis aux mêmes dispositions.

«Tout cela est-il vraiment nécessaire?», se demanderont d’aucuns. Des participants au Sommet mondial pour l’action sur l’Intelligence Artificielle, qui s’est tenu à Paris en février 2025, ont exprimé leur inquiétude de voir le développement de l’IA freiné par un excès réglementaire. Or, une réglementation visant au respect des droits fondamentaux présente aussi des avantages pour l’économie: chaque scandale – dû à une manipulation ou à une discrimination – ne fait que saper la confiance envers les nouvelles technologies. Un cadre juridique stable permet non seulement de protéger les citoyennes et citoyens, mais aussi d’encourager l’innovation en créant des règles du jeu claires. La confiance des investisseuses et investisseurs, des entreprises et du public s’en trouve renforcée, ce qui profite en particulier à ceux qui misent sur la transparence et le respect des droits fondamentaux.

En matière de réglementation, la Suisse opte pour une voie médiane. Contrairement au règlement de l’UE sur l’intelligence artificielle[6] qui, visant une réglementation complète de tous les aspects de la question, traite les systèmes d’IA comme des produits et conditionne leur accès au marché à des exigences complexes, la Suisse se concentre sur les risques pour les droits fondamentaux. En outre, la densité normative de ce règlement ne correspondrait pas à la tradition législative suisse. De plus, une approche plus souple et moins restrictive est un atout pour la place économique suisse, qui se situe à la pointe dans le domaine de la numérisation.

Un projet sera mis en consultation

D’ici fin 2026, le Département fédéral de justice et police (DFJP) élaborera un projet de consultation qui met en œuvre la Convention de l’IA du Conseil de l’Europe, en collaboration avec le Département de l’environnement, des transports, de l’énergie et de la communication (Detec), le Département fédéral des affaires étrangères (DFAE) et d’autres services fédéraux. Il s’agit d’approfondir certaines des questions soulevées par l’analyse juridique, telles que le degré de transparence nécessaire, l’alignement des systèmes d’IA sur le cadre légal en vigueur – comme la législation sur la protection des données – et le dispositif à mettre en place pour assurer l’efficacité du contrôle. Une analyse d’impact de la réglementation devra en outre clarifier les conséquences économiques du projet législatif sur les acteurs privés.

En parallèle, le Detec prépare, en collaboration avec le DFJP, le DFAE et le Département de l’économie, de la formation et de la recherche (DEFR), un plan de mise en œuvre de mesures non juridiques, comprenant des lignes directrices, des déclarations d’autoréglementation et des solutions sectorielles pour le secteur privé. Le but est ici d’éviter de freiner le développement de l’IA tout en s’assurant que l’approche de la Suisse reste compatible avec celles de ses principaux partenaires commerciaux.

Une réglementation axée sur les droits fondamentaux, la démocratie et l’État de droit n’est pas un corset pour le secteur technologique, au contraire: elle crée un terreau fertile pour l’innovation. En choisissant un «scénario minimal» sur mesure pour mettre en œuvre la Convention du Conseil de l’Europe sur l’IA, la Suisse renforce la confiance de tous les acteurs et pose un cadre souple qui permettra à l’IA de se développer de façon durable, utile à l’économie et acceptée par la société.

  1. Ces exemples ainsi que d’autres sont expliqués en détail dans Office fédéral de la justice (2024), pp. 46 à 48. []
  2. Sur ce sujet, voir aussi l’article de Thomas Schneider (Ofcom) dans ce dossier. []
  3. Voir Office fédéral de la communication, Intelligence artificielle[]
  4. Voir Office fédéral de la justice (2024). []
  5. Voir Conseil fédéral (2025). []
  6. Voir également l’article de Thomas Schneider (Ofcom) dans ce dossier. []

Bibliographie

Proposition de citation: Kuster, Susanne; Zaugg, Jonas (2025). La Suisse cherche un juste milieu dans la réglementation de l’IA. La Vie économique, 15 avril.

La convention sur l’IA en bref

Depuis qu’elle a été ouverte à la signature le 5 septembre 2024, la Convention du Conseil de l’Europe sur l’IA a été signée par 41 États, dont la Suisse. Son but est de concilier l’IA, d’une part, et les droits de l’homme, la démocratie et l’État de droit, d’autre part. Elle contraint les États signataires à prendre des mesures pour garantir que les systèmes d’IA soient transparents, non-discriminatoires et respectent la vie privée, dès leur conception et jusqu’à leur mise hors service. La convention porte sur le secteur public, ainsi que sur le secteur privé dans la mesure où des droits fondamentaux pourraient être concernés. Elle laisse aux États une grande marge de manœuvre dans le choix des mesures, de nature juridique ou autre, permettant d’atteindre le but énoncé, en particulier dans le secteur privé.