
La présidente de la Commission européenne Ursula von der Leyen et le vice-président américain J. D. Vance, ici lors du «Sommet pour l’action sur l’intelligence artificielle» en février 2025 à Paris, ont des opinions divergentes sur la manière de réglementer les risques de l’IA. (Image: Keystone)
La course à l’IA est «hors de contrôle» avertissaient en mars 2023, dans une lettre ouverte, près de 1000 entrepreneurs, scientifiques et autres personnalités de l’IA, au premier rang desquels Elon Musk et Steve Wozniak, le cofondateur d’Apple. Ils exhortaient le monde à faire une pause de six mois dans le développement de systèmes plus «puissants» que ChatGPT 4.
Il y a deux ans, les mauvaises langues prétendaient que certains signataires n’entendaient pas freiner le développement de l’IA mais voulaient surtout placer cette technologie tout en haut de l’agenda politique, afin d’attirer davantage d’investissements et de se positionner comme des experts capables de conjurer le «plus grand danger pour l’humanité».
Premières analyses de risques
La majorité des citoyennes et citoyens et des acteurs politiques n’ont pris conscience de l’immense potentiel des systèmes d’IA qu’avec l’arrivée de ChatGPT, alors que les experts du monde entier étudiaient les risques et les opportunités de cette technologie depuis des années déjà. De grands groupes technologiques comme Google[1] s’imposaient des principes d’utilisation de l’IA et les organisations internationales avaient commencé à en analyser les possibilités et les dangers. Dès 2018, le Conseil de l’Europe[2] et l’OCDE[3]formulaient des recommandations censées garantir des systèmes d’IA stables, sûrs, justes et fiables.
C’est toujours à cette époque que de nombreux pays se sont mis à élaborer des stratégies nationales, demandant à des experts d’établir des rapports en matière d’IA. En Suisse, un groupe interdépartemental était chargé de cette tâche à l’automne 2018.
Les risques de l’IA au premier plan
Si, à tous les niveaux, il était mis en avant qu’une éventuelle réglementation de l’IA devrait également favoriser l’innovation, la gestion des risques liés à l’IA a nettement cristallisé l’attention à compter de 2020. La législation sur l’IA élaborée par l’UE entre 2021 et 2024 et son «approche fondée sur les risques», qui combine des dispositions et des mesures plus ou moins strictes visant à limiter les risques et interdire les applications trop risquées, ont joué un rôle majeur à cet égard.
L’Organisation des Nations Unies pour l’éducation, la science et la culture (Unesco) a signé un succès mondial en publiant la «Recommandation sur l’éthique de l’intelligence artificielle»[4]. Fin 2021, ses 193 États membres ont décidé, à l’unanimité et à la surprise quasi générale, qu’en matière d’IA, les droits fondamentaux devaient non seulement être protégés, mais aussi encouragés. De plus, l’IA ne devait pas être utilisée à des fins de surveillance de masse ou de notation sociale. En 2023, le G7 a, à son tour, élaboré un cadre réglementaire doté de lignes directrices et d’un code de conduite non contraignant pour une IA sûre et fiable.[5].
La Suisse ratifie la convention du Conseil de l’Europe
Concernant la Suisse, c’est avant tout la Convention du Conseil de l’Europe sur l’intelligence artificielle[6], dont la Confédération est également membre, qui est importante. Cette convention vise à garantir le niveau de protection existant des droits humains, de la démocratie et de l’État de droit, également en matière d’IA, tout en favorisant l’innovation. En mars 2024, 56 pays, dont l’ensemble des pays du G7[7], ont adopté à l’unanimité le texte de cette convention[8]. Leurs autorités publiques se sont ainsi engagées à appliquer toute une série de principes afin de protéger les trois piliers ci-dessus. En outre, les pays signataires sont tenus de prendre des mesures pour contrôler les risques liés à l’IA émanant des acteurs privés, conformément aux objectifs de la Convention. Si les parties contractantes sont libres de choisir les mesures permettant d’atteindre ces objectifs, elles sont en revanche tenues de rendre régulièrement compte de la situation. Elles doivent en outre introduire des mécanismes leur permettant d’identifier les risques liés à l’IA et prendre des mesures appropriées pour en éviter ou limiter les effets négatifs. Le Conseil fédéral entend ratifier la convention sur l’IA et élaborer un projet de consultation d’ici fin 2026.
Ces dernières années, un consensus mondial a émergé en de nombreux endroits: celui de profiter des opportunités offertes par l’IA, tout en prenant au sérieux les risques qui y sont associés et en les limitant grâce à des mesures efficaces. En parallèle, des différences sont apparues dans la manière dont les différents pays ont procédé pour atteindre ces objectifs. Tandis que l’UE s’est dotée avec la législation sur l’IA d’une législation globale et horizontale (c’est-à-dire concernant tous les secteurs), l’administration américaine du président Joe Biden a opté pour la responsabilisation du secteur de la technologie au moyen d’«engagements volontaires». En Suisse, le Conseil fédéral a également fait le choix d’une approche la plus sectorielle possible, incluant des solutions de branches volontaires.
De l’évitement à la course à l’investissement
Les premières semaines de l’année 2025 ont vite bouleversé les débats à l’échelle mondiale, en raison notamment du changement de trajectoire du gouvernement américain, qui se livre à une concurrence accrue avec la Chine pour exercer le rôle de leader dans le secteur du numérique. Ces ambitions ont encore été renforcées par la présentation de l’agent conversationnel DeepSeek, qui a mis en lumière de manière frappante les performances chinoises en matière d’IA. Parmi les dernières mesures de son mandat, l’administration Biden a annoncé limiter l’exportation de puces d’IA vers les pays ne pouvant pas apporter de preuves suffisantes que celles-ci n’allaient finalement pas être utilisées par des pays ennemis tels que la Chine ou la Russie.
Dès les premiers jours de son second mandat, Donald Trump a annoncé que les principales entreprises américaines de l’IA investiraient plusieurs centaines de milliards de dollars dans le développement de systèmes d’IA, dans le cadre du projet «Stargate». En parallèle, il a révoqué le décret de Joe Biden datant de 2023 qui limitait les risques de l’IA, arguant vouloir ainsi lever les obstacles qui empêchaient les États-Unis de conserver leur rôle de leader en matière d’IA[9]. Dans son discours donné à l’occasion du «Sommet pour l’action sur l’intelligence artificielle» à Paris, le vice-président américain J. D. Vance a en outre clairement annoncé que Washington mettrait tout en œuvre pour garder la pole position dans ce domaine[10].
À la suite de ces déclarations, la question de savoir comment maîtriser les risques de l’IA a quasiment disparu des débats, que ce soit à Paris ou dans les médias, les chefs d’État rivalisant de promesses d’investissements considérables pour faire de leur pays une nation leader dans le domaine de l’IA. L’UE s’en est certes tenue à sa législation sur l’IA, tout en soulignant cependant qu’elle s’efforcerait de la rendre la moins bureaucratique et la plus favorable à l’économie possibles.
L’avenir nous dira dans quelle mesure la nouvelle politique des États-Unis aura des effets sur les efforts mondiaux de réglementation. Le gouvernement américain a annoncé une stratégie plus détaillée en matière d’IA pour l’été 2025. La course à l’investissement pourrait néanmoins encore s’intensifier, tout comme la propension des pays à prendre davantage de risques dans le développement et l’utilisation de l’IA.
Les véritables intentions d’une partie des signataires de la lettre qui demandait il y a deux ans une mise à l’arrêt du développement de puissants systèmes d’IA resteront un mystère. En revanche, il est évident que l’IA s’est installée pour de bon tout en haut de l’agenda politique et que des moyens et des investissements sans précédent sont désormais consacrés au développement et à l’utilisation de cette technologie.
- Voir Pichai (2018). []
- Voir Conseil de l’Europe (2019) et Conseil de l’Europe: Textes adoptés par le Comité des Ministres. []
- Voir OCDE: Principes de l’IA. []
- Voir Unesco (2021). []
- Voir «Processus d’IA Hiroshima» []
- Voir également l’article de Susanne Kuster et Jonas Zaugg (Office fédéral de la justice) dans le présent dossier. []
- Outre les 46 membres du Conseil, ont pris part aux négociations les pays suivants: Argentine, Australie, Canada, Costa Rica, États-Unis, Israël, Japon, Mexique, Pérou, Uruguay et le Vatican. []
- Voir Conseil de l’Europe: La Convention-cadre sur l’intelligence artificielle. []
- Voir The White House (2025). []
- Voir Reuters (2025) []
Bibliographie
- Conseil de l’Europe (2019). Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. Commission européenne pour l’efficacité de la justice (CEPEJ).
- Pichai S. (2018). AI at Google: our principles (en anglais). 7 juin
- Reuters (2025). Verbatim issu du discours du vice-président américain J. D. Vance lors du Sommet sur l’IA à Paris. 11 février.
- The White House (2025). Removing Barriers to American Leadership in Artificial Intelligence, 23 janvier.
- Unesco (2021). Recommandation sur l’éthique de l’intelligence artificielle.
Bibliographie
- Conseil de l’Europe (2019). Charte éthique européenne d’utilisation de l’intelligence artificielle dans les systèmes judiciaires et leur environnement. Commission européenne pour l’efficacité de la justice (CEPEJ).
- Pichai S. (2018). AI at Google: our principles (en anglais). 7 juin
- Reuters (2025). Verbatim issu du discours du vice-président américain J. D. Vance lors du Sommet sur l’IA à Paris. 11 février.
- The White House (2025). Removing Barriers to American Leadership in Artificial Intelligence, 23 janvier.
- Unesco (2021). Recommandation sur l’éthique de l’intelligence artificielle.
Proposition de citation: Schneider, Thomas (2025). Réglementation de l’IA: une issue incertaine. La Vie économique, 14 avril.