Suche

Abo

Was ist künstliche Intelligenz?

Künstliche Intelligenz: Der Begriff löst wahlweise Zukunftsängste oder Begeisterungsstürme aus. Doch was ist KI überhaupt?
Schriftgrösse
100%

IBMs Schachcomputer Deep Blue verwendete logische Methoden und siegte 1997 gegen Schachweltmeister Garri Kasparow. Dennoch basieren die heutigen KI-Modelle nicht allein auf Logik. (Bild: Keystone)

Nüchtern betrachtet ist KI zweierlei: ein mächtiges Werkzeug einerseits, das man verstehen, wissenschaftlich greifen und vorteilhaft nutzen kann. Andererseits ist es eine plakative Worthülse, der Science-Fiction entlehnt, mit der sich Hypes anfeuern und je nach Weltanschauung Ängste schüren oder Utopien kreieren lassen. Beide Bedeutungsvarianten sind relevant, da sie Einfluss auf unsere wirtschaftliche, private und gesellschaftliche Lebensrealität haben.

Ein Werbebegriff beflügelt die Fantasie

Die Wurzeln des wissenschaftlichen Fachgebiets «Künstliche Intelligenz» reichen bis in die 1950er-Jahre zurück, in Forschungskreise an der US-amerikanischen Ostküste. Am sogenannten Dartmouth Workshop, oft als Geburtsstunde der KI bezeichnet, fiel nach circa zweimonatiger Beschäftigung mit Forschungsfragen wie automatischer Übersetzung, Bilderkennung oder strategischen Brettspielen die Wahl für ein Label auf die englische Entsprechung «Artificial Intelligence». Dies erfolgte aus monetären Erwägungen: Die Forscher wollten Fördergelder einwerben mit den neuen «komplexen Computeranwendungen». Diese Begriffswahl sorgt bis heute für stärkere Emotionen und mehr Hype als in der Wissenschaft sonst üblich, da Intelligenz dem Menschen sehr nahe geht.

Nach entsprechenden Hochs und Tiefs erwachte die KI-Forschung erst Mitte der 2010er-Jahre wieder aus einem Winterschlaf. So bekannten sich noch 2014 laut einer Studie in der Schweiz nur wenige Forschungsgruppen zu dem Thema. Gleichzeitig war damals schon das sogenannte maschinelle Lernen dabei, durch Nützlichkeit Einzug in die Unternehmen zu finden. Dieser Nutzen spiegelt die kontinuierlich fortschreitende Entwicklung in einem Fachgebiet wider, das inhärent anwendungsorientiert agiert. Heute arbeiten allein in Winterthur Dutzende Fachpersonen im Rahmen des ZHAW Centre for AI am Transfer in die Praxis.

Die Ängste und Hypes rund um KI aber sind Ausdruck der extremen Erwartungen, welche durch die Antropomorphisierung der Technologie von Mensch und Gesellschaft in sie hineinprojiziert werden.

Wissenschaftliche Grundlage

KI ist das wissenschaftliche Fachgebiet, welches sich mit der Erzeugung intelligent wirkenden Verhaltens mittels des Computers beschäftigt. Als solches gehört es zur Informatik. Während Vorbild für die Qualität der Ergebnisse oft der Mensch ist, geht es bei KI weder um eine Simulation der biologischen Prozesse, noch greift KI methodisch auf eine einheitliche Theorie von Intelligenz zurück. Vielmehr handelt es sich um eine methodische Werkzeugkiste unterschiedlichster Verfahren, welche die Vorteile moderner Computer ausnutzen.

Historisch bietet die «Werkzeugkiste KI» zwei grosse Fächer. Im ersten finden sich wissensbasierte Methoden, welche darauf abzielen, eine Faktenbasis mittels Logik zu bearbeiten und so zu neuen Aussagen über die Welt zu kommen. Der Versuch, alles intelligente Verhalten allein auf Logik zurückzuführen, kann als gescheitert betrachtet werden. Trotzdem finden die dahinterliegenden Methoden täglich millionenfach Anwendung: Die schnelle Suche über Kombinationen von Schritten verhalf nicht nur IBMs Schachcomputer «Deep Blue» 1997 zum Sieg gegen Schachweltmeister Garri Kasparov, sondern ermöglicht heute auch die Wegfindung in Navigationssystemen.

Es ist jedoch das zweite Fach der Werkzeugkiste, das für den aktuellen Boom verantwortlich ist: Vermutlich jedes der aktuell öffentlich diskutierten KI-Systeme, inklusive der generativen KI wie Chat-GPT und anderer, basiert auf den Methoden des maschinellen Lernens. Hierbei handelt es sich um Verfahren, um den Zusammenhang zwischen meist sensorischem Input (Bilder oder andere physikalische Signale) und einem gewünschten Output zu erfassen, welchen wir nie zufriedenstellend in logischen Regeln ausdrücken könnten, wohl aber mittels Beispielen beschreiben. Bei der Herausforderung etwa, auf Fotos Katzen von Hunden zu unterscheiden, ist unklar, welche Menge von Regeln diese Trennung eindeutig beschreiben würde. Hingegen ist es einfach, einen Datensatz zusammenzustellen, aus dem ein Mensch den Zusammenhang erlernen würde.

Beim Machine-Learning (ML) übernimmt der Computer dieses Training: Er bekommt die Bilder in geeigneter Kodierung sowie eine anpassbare Funktion (gleich kommt ein Beispiel, dann wird es klarer). Nun passt er die Parameter dieser Funktion sukzessive so an, dass der Fehler zwischen vorhergesagtem und korrektem Output für alle Datensatzpaare minimiert wird.

Ein konkretes Beispiel maschinellen Lernens

Stellen wir uns etwa Bilder repräsentiert nur mittels zweier Pixel vor – damit sind sie lediglich Punkte in einem zweidimensionalen Koordinatensystem (siehe Abbildung). Wir können annehmen, dass die Hundebilder ein Cluster bilden, etwas entfernt von allen Katzenbildern. Die beiden Cluster könnten wir mit einer Geraden (unsere «anpassbare Funktion») zu trennen versuchen, indem etwa alle Hundebilder oberhalb und alle Katzenbilder unterhalb der Gerade zu liegen kämen. Training heisst dann, durch Variieren der Parameter (Steigung und Schnittpunkt mit der vertikalen Achse), also Herumbewegen der Gerade im Raum, eine Konfiguration zu finden, die die Cluster optimal trennt. Für neue Bilder gibt das so trainierte Modell dann direkt aus, ob es sich seiner Ansicht nach um einen Hund oder eine Katze handelt.

KI nutzt maschinelles Lernen, um Katzen- von Hundebildern zu unterscheiden, indem eine Trennfunktion passend im Raum positioniert wird

 

Quelle Einzelbilder: Image Net / Die Volkswirtschaft

In realen Anwendungsfällen mit hochdimensionalen Eingaben und komplexen Zusammenhängen wird man eine anpassungsfähigere Zielfunktion wählen – etwa ein neuronales Netz (stellen Sie es sich wie eine Gerade vor, nur viel kurviger), womit man zu Deep Learning übergeht. Dessen bis zu Milliarden Parameter sorgen für eine hohe Anpassungsfähigkeit an die Daten. Die Lernprinzipien bleiben die gleichen.[1]

Die Grenzen von KI

Ein ML-Modell wird also ohne explizites Vorwissen direkt aus den Daten gelernt. Ergo steckt das, was nicht in den Daten war, auch nicht im Modell. Es lernt datengetrieben und besitzt einen rein statistischen Blick auf die Welt, denn die Optimierung schätzt implizit ab, wie sehr die Wahrscheinlichkeitsverteilung der Vorhersagen zur beobachteten Verteilung passt. Dieser Ansatz funktioniert für viele Anwendungsfälle im Schnitt besser als manuelle menschliche Lösungen. Dies gilt für Klassifikatoren (etwa Hund vs. Katze) genauso wie für sogenannte Large Language Models wie Chat-GPT. Allerdings kann das Ergebnis im Einzelfall völlig danebenliegen, da Aussagen über statistische Plausibilität keine Aussagen über Wahrheit sind.

Spekulationen über hypothetische «Artificial General Intelligence» (AGI) gehören daher dem Science-Fiction-Flügel des Begriffs KI an und entbehren jeder technischen Grundlage. Dass das Erreichen von AGI vermutlich trotzdem noch dieses Jahr vermeldet werden wird, hat mehr mit einer Anpassung der Definitionen an den dann existierenden Stand der Forschung zu tun als mit tatsächlich menschenähnlicher Technologie. Ungemein nützlich bleibt sie bei bleibenden fundamentalen Begrenzungen trotzdem.

  1. Für eine detailliertere Einführung siehe Segessenmann et al., Kapitel 2. []

Literaturverzeichnis

Bibliographie

Zitiervorschlag: Stadelmann, Thilo (2025). Was ist künstliche Intelligenz? Die Volkswirtschaft, 15. April.