
Ein Mitarbeiter arbeitet am Supercomputer Alps am nationalen Hochleistungsrechenzentrum CSCS in Lugano. (Bild: Keystone)
Die Veröffentlichung von Chat-GPT Ende 2022 hat auch die universitäre Forschungswelt überrascht. Mehrere Gründe führten damals zum Durchbruch der generativen KI – allen voran die Macht der Skalierung. Vor Chat-GPT waren KI-Systeme spezialisierte Tools, die auf eine bestimmte Anwendung trainiert wurden, so etwa auf Übersetzungen, auf Textzusammenfassung, auf Textgenerierung oder wie die Anwendung Alphafold von Google Deepmind – deren Entwickler 2024 den Chemie-Nobelpreis erhielten – auf die Lösung des Proteinfaltungproblems. Mit Chat-GPT zeigte sich, dass sich mit mehr Daten und Rechenleistung die Leistung skalieren lässt und immer grössere und leistungsfähigere Basismodelle trainiert werden können, die all dies und noch viel mehr Aufgaben gleichzeitig bewältigen können.
Die Schweiz muss mithalten
Diese Erkenntnis führte zu einem globalen Wettlauf um KI-Recheninfrastruktur. Denn ohne grosse Mengen an leistungsstarken Grafikprozessoren (GPU) lassen sich diese Modelle nicht entwickeln – und wer den Anschluss verliert, der bleibt zurück. Selbst effizienter trainierte Modelle wie die chinesische KI Deepseek brauchen mehrere Millionen GPU-Stunden.
Die exponentielle Skalierung von KI erfordert deshalb entschlossenes Handeln. Länder wie die USA, China und Grossbritannien investieren massiv in Rechenzentren, Forschung und Innovation. Die Schweiz hat dabei eine echte Chance, mitzuhalten und den zukünftigen Wohlstand des Landes zu sichern. Denn sie bringt ideale Voraussetzungen mit, die ausgebaut werden sollten: eine starke Ausbildung, exzellente Infrastruktur, Forschung und hohe Agilität.
Bedeutendes Produktivitätspotenzial
Richtig eingesetzt, kann KI bedeutende Produktivitätsgewinne bringen. Eines der ersten Anwendungsfelder, die tiefgreifend von KI verändert werden, ist die Softwareentwicklung. Kein Wunder: Die grossen Modelle wurden auf Internetdaten trainiert, welche riesige Mengen an Code und Programmierwissen enthalten. Erste KI-Werkzeuge wie Git Hub Copilot steigerten die Produktivität bereits um bis zu 50 Prozent für bestimmte Aufgaben. Doch die nächste Generation KI-Werkzeuge wie Cursor, Lovable oder Bolt geht noch weiter: von der Idee zur App – ganz ohne Code. In solchen Fällen sind Produktivitätssprünge um den Faktor 20 möglich.
Auch in datenintensiven Feldern wie dem Gesundheitswesen, dem Finanzwesen, der Industrie oder der Biotechnologie ist noch viel unerschlossenes Potenzial vorhanden, welches mit bestehenden Sprachmodellen nicht zu erschliessen ist. Zum einen sind die relevanten Daten dazu nicht öffentlich im Internet verfügbar. Zum anderen handelt es sich nicht nur um Text, sondern zum Beispiel auch um Zeitreihendaten oder rasch ändernde Echtzeitdaten, wofür die bestehenden Sprachmodell-Architekturen nicht ausgelegt sind. Um das Potenzial zu erschliessen und neue Architekturen und Lernansätze zu entwickeln, braucht es grundlegende Forschung – bei der KI- und Fachspezialisten in der Forschung eng zusammenarbeiten müssen.
Die Schweiz investiert in die Zukunft
Eines ist bereits heute klar: Ein Chat-GPT-Abo für alle Mitarbeitenden macht noch lange kein KI-gestütztes Unternehmen. Das wäre, als hätte man im Jahr 2000 versucht, ein Unternehmen E-Commerce-fähig zu machen, indem man allen Mitarbeitenden einen Browser installiert. Will man die Möglichkeiten von KI voll ausschöpfen, ist es entscheidend, Geschäftsprozesse, Organisationsstrukturen und Modelle radikal neu zu denken – mit einem echten «AI first»-Ansatz.
Die Schweiz hat das erkannt: Künstliche Intelligenz bedeutet nicht nur Forschung und Technologie, sondern auch wirtschaftliche und gesellschaftliche Transformation. Mit dem 2024 gegründeten Swiss National AI Institute (SNAI) bündeln die Eidgenössischen Technischen Hochschulen in Zürich (ETHZ) und Lausanne (EPFL) gemeinsam mit weiteren Partnern ihre Expertise in der Forschung. Das Ziel: die Schweiz als weltweit führenden Standort für die Entwicklung und Nutzung einer transparenten und vertrauenswürdigen künstlichen Intelligenz zu positionieren. Der Fokus liegt dabei auf drei Grundpfeilern: Talenten, Daten und Rechenleistung.
Alps liefert potente Rechenleistung
Neben der kritischen Masse an Expertise und Daten wird vor allem auch Rechenpower benötigt. Das SNAI baut daher stark auf den neuen Supercomputer Alps in Lugano, der im Herbst 2024 ans Netz gegangen ist: Die weltweit führende öffentliche KI-Infrastruktur mit über 10’000 leistungsstarken Nvidia-GPUs liefert die Rechenleistung, die für das Training eines erfolgreichen Basismodells nötig ist. Über 800 Forschende aus mehr als 70 führenden KI-Labors[1] der Schweiz arbeiten bereits darauf, und bald sollen auch internationale Forschungskooperationen starten. Hier ist die Schweiz Vorreiterin. Zum Vergleich: Die EU hat erst in den letzten Monaten sogenannte KI-Fabriken ausgerufen, welche einer ähnlichen Strategie wie das SNAI folgen sollen – sie befinden sich gerade erst in der Planungsphase.
Das Ziel von Alps ist die Entwicklung grosser Basismodelle. Anders als heutige «Open weight»-Modelle wie Deepseek oder Llama will man den Weg bereiten für tatsächliche Open-Source-Modelle (siehe Kasten). Den Anfang macht ein von Grund auf neu geschaffenes Schweizer KI-Sprachmodell. Es soll im Sommer 2025 veröffentlicht werden. Mit rund 70 Milliarden Parametern zählt es zu den leistungsstärksten Modellen und ist transparent, ethisch und offen zugänglich.
Davon sollen insbesondere KMU und Start-ups profitieren, die damit Zugang zu modernster KI-Technologie erhalten. Neben internen Innovationen können so auch Firmen und Start-ups in Zusammenarbeit mit Hochschulen konkrete Anwendungsfälle und Anwendungen umsetzen. Das bietet ihnen nicht nur Innovationspotenzial, sondern auch echte Unabhängigkeit von grossen Techkonzernen. Denn als Closed- oder Open-Weights-Modelle sind die KI dieser Konzerne für viele Firmen zu unzuverlässig, um sie auf eigene vertrauliche Daten anzuwenden. Die Schweizer KI hingegen erlaubt es ihnen, wichtiges Know-how direkt in der Schweiz aufzubauen. Schweizer Werte der neuen KI wie Transparenz, Zuverlässigkeit, Nachhaltigkeit und Inklusion werden dabei als Wettbewerbsvorteil verstanden.
Start-ups als Innovationsmotor
Doch Spitzenforschung allein reicht nicht – sie muss auch in marktfähige Lösungen übergeführt werden. Dafür braucht es ein dynamisches Zusammenspiel von Forschung, Start-ups, KMU und Grossunternehmen. Neben den bestehenden Innovationsinstrumenten sollten vor allem Start-up-Finanzierungen ausgebaut werden – etwa durch gezielte Investitionen von Pensionskassen.
Auch die Rolle der öffentlichen Hand ist zentral: Sie sollte innovationsfreundlich auftreten und als erste Kundin Vertrauen schaffen. Gerade bei KI-Produkten sind ein frühes Feedback und Referenzprojekte entscheidend – die Politik kann diesen Vertrauensaufbau aktiv mitgestalten.
Datenzugang als Standortvorteil
Zudem könnte der Staat bessere Rahmenbedingungen schaffen. Ein Beispiel ist die KI-Sandbox des Kantons Zürich. Solche «Innovation Sandboxes» schaffen geschützte Umgebungen, in denen Firmen und Forschung mit echten Daten arbeiten können – unter klaren ethischen und rechtlichen Rahmenbedingungen. Ansätze wie diese stärken die Standortattraktivität der Schweiz nachhaltig.
Denn der Zugang zu qualitativ hochwertigen, realen Daten ist ein oft unterschätzter Engpass. Start-ups und KMU fehlt dieser Zugang häufig – besonders in sensiblen Bereichen wie Gesundheit, Finanzen oder Industrie. Hier könnten staatliche Stellen und Unternehmen Daten als strategisches Asset begreifen.
Mit dem Aufbau des Swiss National AI Institute wurde ein Grundstein gelegt – für technologische Spitzenleistungen, wirtschaftliche Innovationskraft und internationale Sichtbarkeit. In enger Zusammenarbeit mit Verwaltung, Grossunternehmen, KMU und Start-ups könnte das SNAI zum Synonym für vertrauenswürdige KI werden – mit weltweiter Leuchtturmwirkung.
- Darunter ETH Zürich, ETH Lausanne, Universität Zürich, Universität Genf oder das Dalle-Molle-Forschungsinstitut für Künstliche Intelligenz (IDSIA) der Universität der italienischen Schweiz in Lugano. []
Zitiervorschlag: Ilic, Alexander; Schwiderski-Grosche, Scarlet; Gabriel, Melanie (2025). Schweizer Forschung will mit vertrauenswürdiger KI an die Spitze. Die Volkswirtschaft, 15. April.
Offenheit ist zentral für Innovation, Vertrauen und Zugänglichkeit – besonders für KMU. Anders als bei klassischer Software geht es hier nicht nur um den Quellcode, sondern auch die Daten und damit verbundene Prozesse. Grundsätzlich unterscheidet man drei Ansätze:
Closed Models: Diese sind nur über die Schnittstellen des Anbieters nutzbar. Es ist unklar, welche Daten zum Training dieser Modelle verwendet wurden, und die User haben keine Kontrolle über Daten, Verhalten oder Weiterentwicklung. Es besteht eine vollständige Abhängigkeit vom Anbieter. Beispiele sind: GPT-3 und -4, Google Gemini, Grok und Claude.
Open Weight Models: Die derzeit beliebteste Variante der offenen Modelle ist Open Weights (offene Gewichte). Beispiele sind etwa Deepseek, Mistral oder Llama. Die «Gewichte» sind die Parameter eines Modells. Sie beinhalten nicht die Trainingsdaten, sondern lediglich die daraus gelernten Fähigkeiten. Damit kann das Modell lokal betrieben und auch mit eigenen Daten weitertrainiert werden. Die ursprünglichen Trainingsdaten und die dahinterstehenden Trainingsmethoden bleiben aber intransparent. Somit ist unklar, ob Sicherheitsrisiken und Datenverzerrungen vorliegen oder auf unerlaubten Daten (beispielsweise der umstrittenen, Torrent-basierten Datensammlung namens Lib Gen) trainiert wurde.
Open Source: Dabei wird neben dem zugrunde liegenden Quellcode und den Modellgewichten auch offengelegt, mit welchen Daten das Modell trainiert wurde, welche Daten bewusst ausgeschlossen wurden (z. B. personenbezogene Informationen) und welche Massnahmen ergriffen wurden, damit das Modell Trainingsdaten nicht auswendig lernt, sondern Muster und Konzepte wirklich generalisieren kann. Solche Modelle bieten das höchste Mass an Transparenz und ermöglichen eine vollständige Nachvollziehbarkeit. Mit offener Lizenz (z. B. Apache 2.0) sind diese wirklich frei nutzbar, auch kommerziell. Beispiele sind Pythia und Olmo.