Sollen wir künstliche Intelligenz regulieren?
Regulieren, bevor wir dirigiert werden? Roboter Asimo leitet ein Symphonieorchester (Aufnahme aus dem Jahr 2008). (Bild: Keystone)
Es existiert keine allgemeingültige Definition. Gemäss EU-Parlament handelt es sich um maschinelle «Imitation» menschlicher Fähigkeiten wie logisches Denken, Lernen, Planen und Kreativität. Der KI-Entwickler Microsoft definiert sie als Technologien, die menschliche Fähigkeiten im Sehen, Hören, Analysieren, Entscheiden und Handeln «ergänzen und stärken». Zusätzlich werden verschiedene Entwicklungsstadien von KI unterschieden: Die schwache KI kann konkrete Anwendungsprobleme lösen, beispielsweise Sprache übersetzen. Bei der starken KI geht es darum, eine Intelligenz zu schaffen, die der des Menschen gleicht oder diese sogar übertrifft. Aktuell befinden wir uns noch im Stadium der schwachen KI.
Derzeit erlebt die KI einen nie da gewesenen Innovationsschub. Die Entwicklung kann man kaum aufhalten. Was wir hier verbieten, kann an anderen Orten weiterhin legal getan werden. Es gibt Weltregionen wie China, wo jährlich Milliarden Dollar in die Weiterentwicklung von KI investiert werden. Als Gesellschaft müssen wir uns darauf einigen, was unser Ziel ist, denn es gibt viele Zielkonflikte: Beispielsweise gehen bequeme KI-Lösungen (Stichwort Convenience) auf Kosten der Sicherheit. Dieser Rahmen sollte uns leiten, Teil der Entwicklung zu sein und die Innovation mitzugestalten – und nicht zu Getriebenen zu werden.
Unpräzise Regulierungen sind für Firmen wie ein Sichtflug im Nebel.
Vordergründig ja, aber ganz so einfach ist es nicht. Natürlich, Regulierung verkompliziert und verzögert oft Innovationen oder verbietet diese sogar. Zusätzlich kann Regulierung auch Fehlanreize setzen. Es gibt jedoch auch Fälle, wo Verbote Innovationen an einem anderen Ort beflügelt haben. Bei der KI ist es so, dass die heute angedachten und gültigen Regulierungen mehrheitlich mit Verboten Einschnitte bedeuten.
Ja und nein. Das blosse Vorhandensein von Regulierungen bedeutet noch nicht automatisch, dass man sich auch daran orientieren kann. Gerade bei technologischen Innovationen tun wir uns schwer, diese in effektive Normen umzusetzen. Doch solche unpräzisen Regulierungen sind für Firmen wie ein Sichtflug im Nebel. Wir müssen also zuerst die vertiefte und sachkundige Diskussion führen, bevor wir uns an eine passende Regulierung wagen.
Der «Artificial Intelligence Act» – kurz AIA – wurde im Juni 2023 vom EU-Parlament angenommen. Nach zähen Verhandlungen haben sich die Unterhändler von Europaparlament und EU-Staaten unlängst einigen und den AIA verabschieden können. Dieser könnte bereits 2024 in Kraft treten. Im Wesentlichen will er die Diskriminierung einzelner Personengruppen durch KI verhindern, der Täuschung und Verzerrung der öffentlichen Wahrnehmung Einhalt gebieten, intransparenten Blackbox-Anwendungen entgegenwirken sowie die Disruption gesellschaftlicher Verhältnisse und die Verstärkung sozialer Ungleichheit vermeiden. Die Zukunft wird zeigen, was das konkret für Organisationen und Individuen bedeutet, auch in der Schweiz. Zum einen kann der AIA auch auf Schweizer Firmen einen Impact haben, zum anderen ist davon auszugehen, dass auch die Schweiz nachziehen und eine Regulierung für KI anstreben wird.
Interview: «Die Volkswirtschaft»
Zitiervorschlag: Nachgefragt bei Sita Mazumder, Hochschule Luzern (2023). Sollen wir künstliche Intelligenz regulieren? Die Volkswirtschaft, 21. Dezember.