La Vie économique

Plateforme de politique économique

Intelligence artificielle : comment réagit la Confédération ?

Voitures autonomes, données de patients et cybersécurité : les conditions-cadres suffisent-elles face à l’utilisation croissante de l’intelligence artificielle ? Pour la Confédération, un besoin de clarification et – dans certains cas – d’intervention s’impose.

Quelle réglementation est nécessaire lorsque les machines infligent elles-mêmes les amendes ? Un radar sur l’A9, sur les rives du lac Léman. (Photo: Keystone)

Lire l'abrégé...

L’intelligence artificielle (IA) a de nombreuses applications spectaculaires, que ce soit dans les domaines du diagnostic médical, de la mobilité ou de la traduction automatique. Un rapport commandé par le Conseil fédéral au Groupe de travail interdépartemental sur l’intelligence artificielle montre que la Suisse est généralement bien préparée pour les applications et les défis de l’IA. Un besoin de clarification et – dans certains cas – d’intervention existe néanmoins dans plusieurs secteurs. La Confédération l’a reconnu et traite déjà largement cette question.

Aujourd’hui, l’intelligence artificielle (IA) reconnaît des objets et des visages sur des images, rédige des nouvelles, conduit seule des véhicules, traduit des textes et joue aux échecs ou au go. Ces performances peuvent donner l’impression qu’elle est proche de l’intelligence humaine, voire en passe de la supplanter. Est-ce vraiment le cas ?

L’analogie entre l’intelligence humaine et l’IA nourrit souvent des malentendus et de fausses attentes : cette dernière repose essentiellement sur des systèmes statistiques hautement spécialisés, développés et optimisés en vue de tâches particulières. Pour créer des dispositifs d’IA fonctionnant à satisfaction face à des problèmes complexes, un apport humain important reste nécessaire.

L’IA n’est donc toujours pas comparable à l’intelligence humaine. Malgré des applications impressionnantes, les systèmes d’IA échouent souvent devant des tâches très simples que l’intuition humaine résout sans peine.

Ces systèmes n’en sont pas moins dotés de capacités débouchant sur des applications entièrement nouvelles. Ils peuvent notamment traiter des masses de données complexes sous une forme et pour un résultat qui seraient hors de portée d’un autre dispositif. Ils peuvent également imiter des capacités cognitives humaines comme la reconnaissance vocale ou visuelle[1]. Cela leur permet, jusqu’à un certain point, de prendre des décisions et d’agir de manière autonome. Des activités précédemment réservées aux humains peuvent ainsi être automatisées.

Bien que les bases mathématiques de l’IA aient été développées il y a des décennies, c’est la mise à disposition d’énormes quantités de données et le développement fulgurant de la puissance de calcul qui ont permis l’exploitation commerciale des données par les techniques de l’IA. Celle-ci a ainsi fait son entrée dans la vie quotidienne depuis fort longtemps, le plus souvent de manière insensible. Elle est chaque jour au service de milliards d’utilisateurs de téléphones mobiles multifonctions : la traduction et la reconnaissance d’images sont par exemple basées sur des algorithmes développés notamment en Suisse.

Quels sont les défis et les opportunités liés à l’IA pour la Suisse ? Un rapport du Groupe de travail interdépartemental sur l’intelligence artificielle adressé au Conseil fédéral pointe deux défis majeurs : d’une part, la Confédération doit veiller à ce que les compétences nécessaires au traitement des nouvelles technologies soient disponibles ; d’autre part, les répercussions juridiques et sociales de l’application de ces technologies doivent être clarifiées[2].

Renforcer les compétences

L’IA trouve une variété d’applications dans l’industrie et les services. La formation, la recherche et l’innovation ont un rôle central à jouer pour maintenir la compétitivité et relever les défis associés à l’IA, en particulier face aux bouleversements du marché du travail liés aux changements structurels.

La Suisse est dans l’ensemble bien positionnée à cet égard. Le système suisse de formation, de recherche et d’innovation – qui confère une grande autonomie aux acteurs – a fait ses preuves, précisément dans l’environnement technologique en mutation rapide de la numérisation, dont l’évolution n’est que partiellement prévisible pour l’État. En matière de recherche comme du point de vue des applications, la Suisse fait partie des leaders mondiaux dans le domaine de l’IA (voir illustrations).

Ill. 1. Impact des publications dans le domaine de l’intelligence artificielle, par pays (top-10, 2011–2015)

Remarque : L’impact est calculé sur la base du nombre de citations touchant à l’IA.

Source : Elsevier (2018) / La Vie économique

Ill 2. Nombre de brevets de classe mondiale par million d’habitants dans le domaine de l’intelligence artificielle (2018)

Econsight (2019) / La Vie économique

Malgré cette situation de départ favorable, la rapidité de l’évolution impose de veiller à ce que la formation et la recherche suivent le rythme et soient renforcées de manière ciblée. Dans cette optique, le Département fédéral de l’économie, de la formation et de la recherche (DEFR) a lancé en 2017 le plan d’action « Numérisation pour le domaine FRI ». Le renforcement des compétences numériques constitue également un thème important du message du Conseil fédéral relatif à l’encouragement de la formation, de la recherche et de l’innovation pour les années 2021 à 2024.

Des conditions-cadres adaptées

L’IA touche beaucoup d’activités économiques et de domaines de la vie. La Confédération doit vérifier si les conséquences de l’application concrète de l’IA nécessitent un ajustement réglementaire. En aménageant les conditions-cadres, il s’agit de trouver un équilibre qui, d’une part, garantisse le développement de nouvelles technologies et, d’autre part, atténue ou évite leurs effets indésirables.

Les capacités de l’IA à intégrer et interconnecter de façon autonome de grandes quantités de données posent des difficultés particulières : il n’est notamment souvent plus possible de comprendre comment certains résultats ont été obtenus, ou de repérer des corrélations de données incorrectes qui sont ainsi perpétuées (erreurs systématiques ou biais). Un grand groupe technologique utilisait par exemple un système de sélection de candidats fondé sur l’IA qui, sans qu’on s’en aperçoive au départ, retenait de préférence des postulations masculines. Le « biais » provenait de l’entraînement du système, qui avait été mené avec des données historiques faussées.

Les défis techniques peuvent donc conduire à des résultats problématiques dans certains domaines d’application, également d’un point de vue social ou juridique, par exemple si des groupes de personnes font systématiquement l’objet d’une discrimination inadmissible à cause de décisions d’IA ou si les résultats d’une analyse dans des domaines sensibles ne peuvent s’expliquer. Ainsi, si le risque de récidive de délinquants est évalué par l’IA, le caractère inexplicable des résultats peut être totalement en conflit avec le droit à un procès équitable, avec la liberté individuelle ou avec l’interdiction de l’arbitraire. Enfin, la capacité toujours plus grande des systèmes d’IA à agir de manière autonome met à l’épreuve le cadre juridique existant sous l’angle de la responsabilité et de la responsabilisation.

Même si de tels problèmes en lien avec l’IA peuvent s’aggraver, le rapport du groupe de travail interdépartemental conclut que le cadre juridique général de la Confédération est en l’état convenablement adapté pour répondre aux défis des applications de l’IA comme à ceux de la responsabilité, de la traçabilité et de la discrimination des systèmes d’IA. Sur le plan technologique, les principes juridiques pertinents sont généralement formulés de manière neutre, de sorte qu’ils peuvent s’appliquer également aux systèmes d’IA. On ne peut cependant pas exclure que cette évaluation puisse également rapidement changer au regard de la dynamique technologique.

Réexaminer les réglementations

Un potentiel d’amélioration existe toutefois en ce qui concerne la transparence des décisions individuelles automatisées fondées sur l’IA, prises par une machine sans intervention humaine. Songeons par exemple à une amende infligée automatiquement pour excès de vitesse sur la seule base de données (photographie, reconnaissance faciale, registre du véhicule, etc.). Le projet de révision de la loi sur la protection des données tient compte de l’exigence de transparence et de traçabilité, et prévoit diverses obligations à cet égard. Une personne concernée par une décision automatique doit ainsi être informée de la nature de cette décision si celle-ci s’accompagne de conséquences juridiques pour elle ou l’affecte de manière importante. Elle peut également exiger le réexamen de la décision par une personne physique et une explication de la logique sur laquelle repose la décision. Des exigences particulières sont également prévues lorsque les autorités se basent sur l’IA pour prendre une décision individuelle concernant le statut juridique d’une personne.

Fondamentalement, le cadre juridique général convient également pour l’IA. Mais les applications de l’IA ont pour conséquence que des réglementations spécifiques doivent être revues dans divers domaines et, le cas échéant, adaptées. Par exemple, bien que les réglementations civiles et pénales générales en matière de responsabilité prennent déjà en compte les véhicules entièrement automatisés, des ajustements concrets s’imposent encore, notamment pour l’immatriculation de ces véhicules ou l’échange de données entre usagers de la route.

Le rapport passe en revue ces défis spécifiques dans tous les domaines politiques de l’administration fédérale ainsi que les besoins d’adaptation éventuels sur le plan fédéral. Surgit du même coup un large éventail de questions, dont certaines exigent des clarifications. Par exemple, l’utilisation de logiciels d’IA dans le domaine médical est assujettie à la loi sur les produits thérapeutiques, mais que signifie l’IA pour l’autorisation de commercialisation et la surveillance du marché ?

Des mesures sont déjà prises

Par ailleurs, les intermédiaires de l’information comme Google ou Facebook pourraient instrumentaliser les applications d’IA à des fins commerciales ou politiques ou être eux-mêmes instrumentalisés, ce qui peut influencer la formation de l’opinion et de la volonté publiques. Des clarifications en profondeur sont donc nécessaires pour savoir comment traiter cette problématique. Dans le cas des compagnies d’assurance, un recours inconsidéré à l’IA et aux données pourrait aboutir à des discriminations. Comment la surveillance des compagnies d’assurance privées agréées par l’État doit-elle donc évoluer ?

Des bases doivent également être posées pour l’introduction de l’IA dans le secteur de l’énergie, notamment pour la planification des réseaux ou les prévisions de consommation et de production, dans un système énergétique toujours plus fragmenté et complexe. Enfin, la politique de sécurité et la cybersécurité sont confrontées à de nouvelles menaces, l’IA pouvant être utilisée pour des cyberattaques d’un nouveau type et pour des systèmes d’armes qui modifient la manière de mener une guerre.

Le rapport montre que les offices fédéraux concernés ont déjà largement relevé ces défis et pris de nombreuses mesures. Le groupe de travail interdépartemental estime toutefois que certains des défis présentés doivent être abordés plus intensivement. Il s’agit désormais de les poursuivre en accord avec les autres activités de la Confédération en lien avec la numérisation. Sur la base du rapport, le groupe de travail soumettra dans ce but au Conseil fédéral des lignes stratégiques afin d’encadrer l’utilisation de l’IA au niveau fédéral. Il s’agit également d’améliorer la coordination au niveau supérieur, en particulier dans le contexte international, ainsi que pour les applications de l’IA dans l’administration fédérale. En conclusion, il est clair que la Confédération continuera de suivre de près l’évolution de l’IA.

  1. Les systèmes d’IA peuvent par exemple reconnaître de manière autonome des objets dans une image. Voir à ce propos Krause (2019). []
  2. Groupe de travail interdépartemental « Intelligence artificielle » (2019). []

Conseiller scientifique, secteur Innovation, Secrétariat d’État à la formation, à la recherche et à l’innovation (Sefri), Berne

Bibliographie

Conseiller scientifique, secteur Innovation, Secrétariat d’État à la formation, à la recherche et à l’innovation (Sefri), Berne