Die Volkswirtschaft

Plattform für Wirtschaftspolitik

Dieser Artikel ist Teil des Schwerpunkts «Künstliche Intelligenz auf dem Vormarsch»

Wie programmiert man ethische Intuition?

Im Gegensatz zu Menschen verfügen Algorithmen bei Werten wie Fairness über kein Bauchgefühl. Dies stellt die Programmierer von KI-Systemen vor ethische Dilemmas.

Menschen vertrauen bei ethischen Entscheiden auf ihre Intuition – das funktioniert bei Computern nicht. (Bild: Shutterstock)

Abstract lesen...

Die beeindruckenden Erfolge der künstlichen Intelligenz (KI) haben die ethische Debatte in jüngster Zeit enorm angeheizt. Innert Jahresfrist sind zahlreiche internationale Empfehlungen zu «ethischer» beziehungsweise «vertrauenswürdiger» KI veröffentlicht worden. Eine Studie der Stiftung für Technikfolgenabschätzung (TA-Swiss), welche Anfang 2020 veröffentlicht wird, wirft einen vertiefenden Blick auf ethische Fragen in diversen Anwendungsbereichen von KI. Im Zentrum vieler Befürchtungen stehen technische Eigenheiten neuerer Formen von KI wie mangelnde Nachvollziehbarkeit. Eine wichtige Herausforderung besteht darin, dass die KI-gestützte Automatisierung von Entscheidungen mit ethischer Relevanz uns zwingt, uns auf gewisse Ethiken festzulegen. Dies stellt die Folgefragen: Wer soll diese Festlegungen machen? Inwieweit ist die menschliche Freiheit gefährdet?

Man könnte fast meinen, es handle sich um einen Wettstreit der internationalen Organisationen: Innert Jahresfrist hat die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) die «Guidelines on AI and Data Protection», der Europarat die «Recommendation of the Council on Artificial Intelligence» und die High Level Expert Group der Europäischen Union die «Ethics Guidelines for Trustworthy AI» veröffentlicht. Die Wunschliste der Ethik-Experten an die Erbauer künstlicher Intelligenz (KI) ist lang.

Exemplarisch steht dafür ein Bericht der European Group on Ethics in Science and New Technologies, welche die EU-Kommission berät. Demnach darf KI die Würde des Menschen nicht verletzen, und die menschliche Autonomie muss erhalten bleiben. Forschung und Nutzung von KI müssen verantwortungsbewusst sein; insbesondere sollte KI zur Gerechtigkeit und zum gleichen Zugang zu Leistungen beitragen. Hinsichtlich KI-Regulierung sollten wichtige Entscheidungen über KI-Nutzung demokratisch getroffen werden; Rechtsstaatlichkeit und Rechenschaftspflicht müssen gewahrt bleiben. Schliesslich soll KI die Sicherheit, die körperliche und geistige Integrität sowie den Datenschutz und die Privatsphäre nicht beeinträchtigen; und sie muss im Einklang mit Umweltschutz und Nachhaltigkeit stehen.

Mit anderen Worten: das volle Programm. Ein derart breites Spektrum an ethischen Erfordernissen ist Ausdruck einer grossen Verunsicherung, welche die jüngsten beeindruckenden Erfolge dieser neuen Technologie hervorgerufen haben.

KI ist in eine Reihe kontrovers diskutierter Themen rund um den digitalen Wandel eingebettet, was einen klaren Fokus erschwert. Zudem werden in der öffentlichen Debatte die Fähigkeiten von KI oft überhöht dargestellt, was für eine Analyse ebenfalls hinderlich ist.

Eine Studie im Auftrag der Stiftung für Technikfolgenabschätzung (TA-Swiss) unter der Leitung von Markus Christen von der Digital Society Initiative der Universität Zürich, Clemens Mader von der Eidgenössischen Materialprüfungs- und Forschungsanstalt (Empa) und Johann Cas von der Österreichischen Akademie der Wissenschaft hat untersucht, welche gesellschaftlichen Herausforderungen mit KI verbunden sind.[1] Ein Hauptaugenmerk galt dabei der Ethik.

Eine Blackbox

Aus ethischer Sicht gilt es sechs technische, ökonomische und soziale Eigenschaften von KI zu beachten. Erstens ist KI zusehends eine «Blackbox»: Neuere Formen des maschinellen Lernens sind für die Ersteller von KI-Algorithmen weit weniger transparent als die «klassische KI» wie etwa Expertensysteme. Durch das Training mit enorm vielen Daten entstehen Modelle, die keinen offensichtlichen physikalischen oder logischen Bezug zum untersuchten Phänomen haben. In ethischer Hinsicht stellt dies zum einen ein Sicherheitsproblem dar: Es wird schwieriger, zu prüfen, ob das System immer wunschgemäss funktioniert. Zum anderen können solche Systeme in ethisch relevanten Kontexten eingesetzt werden, ohne dass die geforderte Nachvollziehbarkeit gegeben ist. Exemplarisch für die dabei auftretenden Probleme ist die Debatte um ein US-System, das Richter berät, ob Strafgefangene vorzeitig entlassen werden sollten.[2]

Zweitens besteht bei KI die Gefahr, dass die Resultate aufgrund der verwendeten Daten verzerrt werden (Bias). In den Daten können sich Einseitigkeiten oder Befangenheiten verbergen, die das Verhalten des Algorithmus prägen. Ein Bias aufgrund schlechter Auswahl der Trainingsdaten kann zwar als technisches Problem angesehen werden. Diesen zu erkennen, ist aufgrund der Grösse der Datensätze aber nicht einfach. Noch schwieriger wird das Problem, wenn der Datensatz zwar einen Sachverhalt repräsentativ abbildet, dieser aber Ergebnis einer als ethisch problematisch empfundenen sozialen Ordnung ist. So hatte ein automatisches Bewertungssystem von Bewerbungen bei Amazon systematisch Bewerbungen von Frauen schlechter bewertet, weil das Unternehmen Teil einer von Männern dominierten Industrie ist – und der Algorithmus dies gelernt hatte. Ein derart trainiertes KI-System würde diesen unerwünschten Zustand verfestigen und Bemühungen zur Erhöhung des Frauenanteils zunichtemachen.

Genauigkeit oder Fairness?

Die dritte ethische Herausforderung ist die Fairness von Algorithmen. Parameter werden von den Entwicklern festgelegt, wobei bestimmte Werte und Interessen gegenüber anderen privilegiert werden können. Das Problem der Fairness von Algorithmen ist komplex, denn ethische Normen müssen in eine für Computerprogramme verständliche «Sprache» übersetzt werden. Forschungen zeigen, dass sich ethisch gleichermassen legitime Anforderungen an Algorithmen (zum Beispiel Genauigkeit und Fairness) nicht gleichzeitig erreichen lassen.

Viertens haben KI-Systeme ein enormes Potenzial, den Trend zur Automatisierung in der Wirtschaft zu verstärken. Die damit verbundene Angst vor Arbeitsplatzverlust prägt die öffentliche Debatte um KI. Gewiss: Das Ausmass des Verlusts ist umstritten, das Potenzial zur Schaffung neuer Stellen unklar, und solche ökonomischen Umwälzungsprozesse haben bereits mehrfach stattgefunden; sie waren aber stets von sozialer Unrast und Krisen begleitet.

Fünftes haben Unternehmen mit Zugriff auf grosse Datensätze einen kompetitiven Vorteil – was die Bildung von Daten-Oligopolen begünstigt. Oft genannte Beispiele sind grosse Plattform-Unternehmen wie Alibaba, Facebook oder Google. Das in der Internet-Ökonomie bekannte Phänomen «the winner takes it all» ist nicht nur ein wettbewerbsrechtliches Problem. Wenn in ethisch relevanten Bereichen nur wenige KI-Systeme Entscheidungen massgebend prägen, könnte dies zu einer Standardisierung und einer Dominanz gewisser Wertvorstellungen führen.

Schliesslich besteht die Gefahr, dass KI zur Massenüberwachung oder für «Big Nudging» eingesetzt wird – also einem umfassenden Versuch zur Verhaltenssteuerung von Menschen, etwa um umweltgerechtes Verhalten zu fördern. Dabei stellt sich die Frage, wie diese Ziele und deren Mittel legitimiert werden und inwieweit die Anwendung von KI, die in Gesellschaften mit abweichenden sozialen Normen und demokratischen Traditionen entwickelt wird, ethische oder politische Probleme aufwirft. Auch militärische Nutzungen von KI fallen in diesen Themenkomplex, und Wissenschaftler warnen jetzt schon vor einem «KI-Wettrüsten».

Zu jedem dieser Punkte lässt sich natürlich einiges mehr sagen. Als übergreifende ethische Herausforderungen lässt sich aber festhalten, dass Wege gefunden werden müssen, wie die Entscheidungsfindung von KI Menschen gegenüber transparent gemacht werden kann. Es muss geklärt werden, wie der Mensch bei komplexen KI-Systemen die Kontrolle behalten kann. Und für konkrete Anwendungen müssen Regeln für das Design definiert werden, damit die Menschen ihnen vertrauen können.

Wer entscheidet?

Die oft gehörte Angst vor einem völligen Kontrollverlust ist allerdings fehlgeleitet. Die Nutzung von KI-Systemen ist auf vielfältige Weise von menschlichen Entscheidungen abhängig: Menschen bestimmen das KI-Design – also quasi das Zusammenbauen einzelner Technologien wie maschinelles Lernen – und die Auswahl der Trainingsdaten. Sie entscheiden über deren Anwendung in bestimmten Kontexten, und auch die Nutzer selbst kontrollieren die Systeme auf vielfältige Weise.

Relevanter ist vielmehr die grundsätzliche Schwierigkeit, KI-Systeme zu entwickeln, die komplexe ethische Werte wie Fairness enthalten. Während jeder Mensch über eine gewisse Interpretationsfreiheit und einen Entscheidungsspielraum bei ethischen Fragen verfügt, muss bei KI-Systemen, die keine Intuition besitzen, explizit festgelegt werden, wie in einer konkreten Situation entschieden werden soll. Ein Experiment untersuchte, wie nach Ansicht von Menschen ein von KI gesteuertes autonomes Fahrzeug in Dilemmas entscheiden soll.[3] Muss es beispielsweise in erster Linie die Insassen oder die Fussgänger schützen? Die Antworten zeigen kulturelle Unterschiede und sind nicht frei von Widersprüchen.

Dies stellt schwierige Folgefragen: Wer soll solche Entscheidungen treffen? Auf welche Weise soll dies geschehen? Und was bedeutet dies für die menschliche Freiheit, die es uns erlaubt, zuweilen das «Falsche» zu tun? So zeigt sich: Die ethische Herausforderung von KI besteht darin, dass sie uns Menschen zwingt, uns vertieft mit den schwierigen ethischen Implikationen von (KI-unterstützten) Entscheidungen auseinanderzusetzen. Dies ist eine Chance und ein Risiko zugleich.

  1. Projektbeschrieb unter TA-Swiss.ch abrufbar. Die Studie wird Anfang 2020 veröffentlicht. []
  2. Vgl. Loi und Christen (2019). []
  3. Awad (2018). []

PD Dr. sc. ETH, Geschäftsleiter, Digital Society Initiative, Forschungsgruppenleiter, Institut für Biomedizinische Ethik und Medizingeschichte, Universität Zürich

Literatur

PD Dr. sc. ETH, Geschäftsleiter, Digital Society Initiative, Forschungsgruppenleiter, Institut für Biomedizinische Ethik und Medizingeschichte, Universität Zürich