
En 1997, l’ordinateur «Deep Blue» d’IBM a remporté une partie d’échecs contre le champion du monde Garri Kasparov en utilisant des méthodes logiques. Les modèles d’IA actuels ne sont toutefois pas uniquement basés sur la logique. (Image: Keystone)
Objectivement parlant, l’intelligence artificielle (IA) comporte deux facettes: d’un côté, c’est un instrument puissant que l’on peut comprendre, appréhender scientifiquement et utiliser de manière avantageuse; de l’autre côté, il s’agit d’un terme accrocheur, emprunté à la science-fiction, qui attisent les passions et, selon les visions du monde, suscite des peurs ou nourrit des utopies. Ces deux aspects ont leur importance car ils influencent notre réalité économique, privée et sociale.
Un slogan publicitaire nourrit l’imagination
Les origines de l’IA en tant que domaine scientifique remontent aux années 1950, dans les milieux universitaires de la côte Est des États-Unis. Après avoir travaillé pendant deux mois sur des sujets tels que la traduction automatique, la reconnaissance d’images ou les jeux de société stratégiques, les chercheurs réunis dans le cadre de la Conférence de Dartmouth, souvent considérée comme l’événement fondateur de l’IA, choisirent le terme d’«artificial intelligence» pour désigner ce nouveau domaine. Ce choix répondait à des considérations pécuniaires, les chercheurs espérant obtenir des subventions grâce à ces nouvelles «applications informatiques complexes». Aujourd’hui encore, le terme retenu suscite des émotions plus fortes et un plus grand écho médiatique que ce auquel la science est habituée, car l’intelligence est intimement liée à l’être humain.
Après avoir connu des hauts et des bas, la recherche sur l’IA a connu un réel essor au milieu des années 2010 seulement. Selon une étude, seuls quelques groupes de recherche en Suisse s’intéressaient alors à ce sujet en 2014. Pourtant, à l’époque, ce que l’on appelle «l’apprentissage automatique» avait déjà fait son entrée dans les entreprises, porté par son utilité. Cette dernière reflète l’évolution constante d’un domaine scientifique qui est par nature axé sur les applications. Rien qu’à Winterthour, des douzaines de spécialistes œuvrent actuellement au transfert des connaissances dans la pratique, au sein du centre consacré à l’IA de la Haute école zurichoise des sciences appliquées (ZHAW).
Les craintes et l’enthousiasme suscités par l’IA reflètent les attentes extrêmes que les personnes et la société projettent en elle en raison de son anthropomorphisation.
Une base scientifique
L’IA est le domaine scientifique consacré au développement, au moyen de l’ordinateur, de comportements capables de simuler l’intelligence humaine. Elle fait donc partie de l’informatique. Alors que l’être humain est souvent le modèle de référence lorsqu’il s’agit de mesurer la qualité des résultats, l’IA ne simule pas de processus biologiques et n’est pas non plus basée sur une théorie d’intelligence unique. Il s’agit plutôt d’une boîte à outils méthodologique regroupant des procédés très divers, qui exploitent les atouts des ordinateurs modernes.
Historiquement, cette boîte à outils qu’est l’IA se subdivise en deux grands compartiments: le premier contient des méthodes basées sur les connaissances et dont l’objectif est de traiter logiquement des informations dans le but de générer de nouvelles connaissances sur le monde. On peut considérer que la tentative de ramener tout comportement intelligent à la seule logique a échoué. Néanmoins, les méthodes sous-jacentes à cette approche sont appliquées des millions de fois chaque jour: la recherche rapide de combinaisons de coups a contribué en 1997 à la victoire de l’ordinateur d’IBM appelé «Deep Blue» contre le champion du monde d’échecs Garri Kasparov et permet aujourd’hui encore aux systèmes de navigation de s’orienter.
L’essor de l’IA repose sur le deuxième compartiment de la boîte à outils: la plupart des systèmes d’IA qui font actuellement l’objet de débats publics, notamment les systèmes d’IA générative comme ChatGPT, reposent sur des méthodes d’apprentissage automatique. Il s’agit de procédés permettant de saisir le lien entre une ressource le plus souvent sensorielle (des images ou d’autres signaux physiques) et un résultat souhaité, lien que l’on ne pourrait jamais décrire de manière satisfaisante à l’aide de règles logiques, mais qu’il est possible d’illustrer à travers des exemples. Il est ainsi difficile d’établir un ensemble de règles qui décrivent clairement les différences entre chiens et chats afin de les distinguer sur des photos. En revanche, on peut facilement constituer un jeu de données à partir duquel une personne serait capable de faire cette distinction. Dans l’apprentissage automatique, c’est l’ordinateur qui se charge de cet entraînement: après avoir reçu des images dans un format approprié ainsi qu’une fonction adaptable (voir exemple ci-après), il ajuste progressivement les paramètres de cette fonction de sorte que l’écart entre le résultat prédit et le résultat correct soit réduit à un minimum pour toutes les paires de données.
Un exemple concret d’apprentissage automatique
Imaginons par exemple des images qui ne seraient représentées que par deux pixels: ce ne seraient alors que des points dans un système de coordonnées bidimensionnel (voir illustration). Les images des chiens formeraient un groupe distinct des images de chats. On pourrait tenter de séparer ces deux groupes par une droite (la «fonction adaptable»), de sorte que toutes les images de chiens se trouvent au-dessus et toutes les images de chats au-dessous de cette droite. L’entraînement consisterait alors à modifier les paramètres (inclinaison et point d’intersection avec l’axe vertical), c’est-à-dire à déplacer la droite pour trouver une configuration où les deux groupes seraient séparés de manière optimale. Ainsi entraîné, le système indiquerait alors directement, pour les nouvelles images, s’il s’agit pour lui d’un chien ou d’un chat.
L’IA recourt à l’apprentissage automatique pour distinguer les images de chats et de chiens, en positionnant de manière adéquate une fonction de séparation dans l’espace
Sources: ImageNet / La Vie économique
Dans les cas d’application réels comportant des données à haute dimension et des liens complexes, on choisira une fonction cible plus adaptable, par exemple un réseau neuronal (que l’on peut se représenter comme une courbe beaucoup plus sinueuse), ce qui conduit à l’apprentissage profond (deep learning), dont les milliards de paramètres assurent une adaptabilité élevée aux données, tandis que les principes d’apprentissage restent inchangés[1].
Les limites de l’IA
Un modèle d’apprentissage automatique apprend donc directement à partir des données, sans avoir besoin de connaissances préalables explicites. Autrement dit, ce qui ne figure pas dans les données ne se retrouvera pas non plus dans le modèle. Il apprend en s’appuyant sur les données et a une vision du monde purement statistique, puisque l’optimisation estime implicitement dans quelle mesure la distribution de probabilité des prédictions correspond à la distribution observée. Pour de nombreuses applications, cette approche fonctionne mieux, en moyenne, que les solutions manuelles humaines. Cela vaut aussi bien pour les classificateurs (distinguer un chien d’un chat) que pour les grands modèles de langage comme ChatGPT. Néanmoins, les résultats peuvent, dans certains cas, être complètement erronés, car une affirmation statistiquement plausible n’est pas nécessairement vraie.
Les spéculations quant à une hypothétique «intelligence artificielle générale» (IAG) relèvent donc de la facette «science-fiction» du concept d’IA. Elles sont dénuées de tout fondement technique. Si l’on devait néanmoins, comme il est vraisemblable, apprendre cette année que l’IAG a été atteinte, ce serait plutôt en raison d’une adaptation des définitions suite aux progrès de la recherche que de l’apparition d’une technologie réellement anthropomorphique. Même si elle est freinée par ses propres limites, l’IA n’en demeure pas moins extrêmement utile.
- Pour une introduction plus détaillée, voir Segessenmann et al., ch. 2. []
Bibliographie
- Prince S. J. D. (2023). Understanding Deep Learning. The MIT Press.
- Segessenmann J., Stadelmann T., Davidson A. et Dürr O. (2023). Assessing Deep Learning: A Work Program for the Humanities in the Age of Artificial Intelligence. AI and Ethics, Springer.
- Stadelmann T. (2025). Wegweiser Künstliche Intelligenz: Verstehen, anwenden und zuversichtlich Zukunft gestalten. In: Hersberger und Hoffmann (éd.), «Wie die Künstliche Intelligenz die Wirtschaft verändert», Springer.
Bibliographie
- Prince S. J. D. (2023). Understanding Deep Learning. The MIT Press.
- Segessenmann J., Stadelmann T., Davidson A. et Dürr O. (2023). Assessing Deep Learning: A Work Program for the Humanities in the Age of Artificial Intelligence. AI and Ethics, Springer.
- Stadelmann T. (2025). Wegweiser Künstliche Intelligenz: Verstehen, anwenden und zuversichtlich Zukunft gestalten. In: Hersberger und Hoffmann (éd.), «Wie die Künstliche Intelligenz die Wirtschaft verändert», Springer.
Proposition de citation: Stadelmann, Thilo (2025). Qu’est-ce que l’intelligence artificielle? La Vie économique, 15 avril.