Ereignishorizont Digitalisierung - Kontrolle KI

Über die Regulierung von Künstlicher Intelligenz

Künstliche Intelligenz (KI) entscheidet heutzutage, wer einen Kredit bekommt oder welche Tagesnachrichten wichtig sind. Doch wer übernimmt die Verantwortung für getroffene Entscheidungen einer KI und wie lässt sich sicherstellen, dass moderne, KI-basierte Entscheidungssysteme sicher und vertrauenswürdig arbeiten?

Warum KI regulieren?

In unserer zunehmend digitalisierten und automatisierten Welt müssen viele Entscheidungen in kürzester Zeit getroffen werden. Der Grund: Die zu verarbeitenden Datenmengen sind für menschliche Entscheidungsträger kaum mehr beherrschbar [5, S. 19]. KI-basierte Systeme können dagegen Erkenntnisse aus großen Datenmengen autonom und innerhalb von Sekunden ableiten [8, S. 1 ff.].

Die Funktionsweise von KI-basierten Systemen ist im Grunde immer gleich: während eines Trainingsprozesses versucht die KI Muster und Regeln in Daten zu entdecken. Diese Muster und Regeln werden anschließend abstrahiert und generalisiert. Generalisierte Muster und Regeln können dann anschließend auf unbekannte Daten angewendet werden. Vereinfacht gesagt werden aus vergangenheitsbezogenen Daten Erkenntnisse abgeleitet, um sie auf zukünftige Daten zu übertragen. Innerhalb der KI gibt es dazu unterschiedliche Ansätze.

Populär sind zum Beispiel Neuronale Netze. Diese werden auch als „Black Box“-Modelle bezeichnet, da sie keine Hinweise liefern, auf Basis welcher Korrelationen sie Entscheidungen getroffen haben. Eine Untersuchung der Korrelationen, die ausschlaggebend für eine bestimmte Entscheidung waren, ist wegen der Komplexität der Daten nicht möglich – das Zusammenspiel bestimmter Bedingungen, welche sich nicht durch einfache, analytische Verfahren aus den Daten erheben lassen, sind deshalb auch die Problemdomäne Neuronaler Netze. Aufgrund der probabilistischen, komplexen Korrelationen sind Entscheidungen schwer bis gar nicht mehr reproduzierbar und es lässt sich von einem Menschen nicht beurteilen, ob der Entscheidung eine Kausalität zugrunde liegt oder sie rechtzufertigen ist.

KI kommt heutzutage v. a. in Bereichen vor, in denen zahlreiche und schnelle Entscheidungen getroffen werden müssen [14]. Unter anderem wird KI deswegen in der Finanzbranche eingesetzt, um Entscheidungen bezüglich der Kreditwürdigkeit von Kunden zu treffen. Hierbei werden demographische Daten und Informationen zu Einkommensverhältnissen verwendet, um zu beurteilen, ob ein Kunde kreditwürdig ist. Auch im Social Media-Bereich, also in sozialen Netzwerken, kommt KI zum Einsatz, konkret zur Filterung und Selektion illegaler Beiträge. KI hilft Plattformen dabei, für den Nutzer relevante Beiträge zu identifizieren. Im Online-Shopping wird durch KI-basierte Recommender-Systeme versucht, Kaufentscheidungen zu beeinflussen.

Während KI zahlreiche Vorteile wie eine hohe Geschwindigkeit beim Treffen von Entscheidungen mit sich bringt, kann sie unter falschen Bedingungen auch erhebliche Nachteile hervorbringen. Ein Beispiel ist Tay, ein Twitter-Chatbot von Microsoft, der binnen weniger Stunden nach seiner Aktivierung beleidigende und diskriminierende Tweets absetzte [2]. Auch Deepfakes, also durch KI erzeugte gefälschte Fotos und Videos, werden zunehmend zum Problem. So können mit Deepfakes z. B. Falschaussagen veröffentlicht werden [20]. Auch KI-Systeme zur Prognose der Straffälligkeit weisen erhebliche, in der Praxis oft erst im Nachhinein erkennbare Nachteile auf. So tendieren KI-Systeme, die die Kriminalität und Rückfallwahrscheinlichkeit prognostizieren, zu rassistischen Vorhersagen und schreiben schwarzen Straftätern ein höheres Rückfallrisiko zu als weißen [11]. Bleiben solche Fehlprognosen unentdeckt, sorgen sie für Ungerechtigkeit, Rassismus sowie eine erhöhte Gefahr bei der Aussetzung von Strafen zur Bewährung aufgrund der Berücksichtigung falscher Kriterien.

Diese Beispiele zeigen, dass die Gefahr nicht nur unmittelbar im Gegenstand der KI liegt, sondern v. a. im Anwendungsszenario und Kontext. Es besteht die reale Gefahr, dass Menschen KI-basierte Systeme immer weniger, gleichzeitig KI-basierte Systeme die Menschen selbst aber immer besser verstehen [13, S. 333 f.].

Aufgrund dessen sind Regularien sowie Maßnahmen notwendig, um den sicheren, fairen und nachhaltigen Einsatz von KI zu gewährleisten. Ein Beispiel sind von der OECD, der Organisation für Sicherheit und Zusammenarbeit in Europa, veröffentlichte Prinzipien und Handlungsempfehlungen, die jetzt nachfolgend vorgestellt werden.

Ansätze zur Regulierung

Im Mai 2019 veröffentlichte die OECD Leitlinien für den Umgang mit KI. Dabei haben sich die 36 Mitgliedsstaaten inklusive weiterer sechs Partnerstaaten darauf verständigt, fünf Prinzipien im Umgang mit KI einzuhalten und damit sicherzustellen, dass sie robust, sicher, fair und vertrauenswürdig eingesetzt wird [17]. Diese Prinzipien werden nachfolgend beschrieben und eingeordnet:

(P1): KI soll den Menschen und dem Planeten zugutekommen, indem sie integratives Wachstum, nachhaltige Entwicklung und Wohlstand fördert.

Wohlstand und nachhaltige Entwicklung sind von einem wachsenden Arbeitsmarkt geprägt. Wie in einer Studie dargelegt, die von der OECD in Auftrag gegeben wurde, sind viele Arbeitsplätze durch die fortschreitende Automatisierung bedroht [1]. Viele Arbeitsplätze (12 %) gelten in Deutschland und Österreich als zu mindestens 70 % automatisierbar und sind damit gefährdet [1, S. 15 f.]. Wie diese Studie auch beleuchtet, sind vor allem gering qualifizierte und schlechter bezahlte Arbeitsplätze von einer Automatisierung betroffen [1, S. 20]. Demnach ist davon auszugehen, dass die soziale Ungleichheit durch die zunehmende Digitalisierung und Automatisierung, bei der KI eine zentrale Rolle spielt, wächst. Allerdings neigen auch Differenzen zwischen Ländern und Unternehmen dazu, durch zunehmenden Einsatz von KI zu wachsen, wie eine Studie von McKinsey zeigt [4]. So prognostiziert die Studie eine wachsende Kluft des Bruttoinlandsprodukts um 19 % zwischen Schweden und Sambia bis 2030 [4, S. 34 f.]. Hinzukommend ist damit zu rechnen, dass die dargelegten Effekte verstärkend aufeinander wirken, denn schwaches Wirtschaftswachstum eines Landes wirkt sich auch unmittelbar negativ auf das Wachstum eines Unternehmens aus. Zusammenfassend verstärkt die Anwendung von KI bereits existierende Probleme des Arbeitsmarktes. Das erste Prinzip hat die Begrenzung dieser negativen Potentiale der KI zum Ziel.

(P2): KI-Systeme sollen so gestaltet werden, dass sie rechtsstaatlichen Prinzipien folgen, demokratische Werte und Vielfalt respektieren und Schutzvorkehrungen beinhalten, die beispielsweise ein Eingreifen des Menschen ermöglichen, sodass eine faire und gerechte Gesellschaft gewährleistet wird. [17]

KI-Systeme eignen sich dazu, missbraucht zu werden. So führte die chinesische Regierung ein Sozialkredit-System ein, durch welches die Bevölkerung kontrolliert und überwacht werden soll. Es soll aus Sicht der Regierung wünschenswertes Verhalten herbeiführen. [7] Hierbei wendet China KI als zentrale Technologie an, um beispielsweise Personen zu erkennen und möglichst viele Daten über die Bürger mit der Absicht, das Einparteiensystem zu stärken, zu sammeln. Besonders steht die chinesische Regierung in Kritik, da sie KI-Systeme Medienberichten zufolge dazu verwenden, muslimische Minderheiten in China (Uiguren) zu unterdrücken. [7, S. 107 f.] So berichtete unter anderem BBC davon, dass KI-Systeme zur Gefühlserkennung in Konzentrationslagern in Xinjiang eingesetzt werden, um die Erkennung negativer Gefühle zu verbessern [19]. Das zweite Prinzip definiert daher den gesellschaftlichen Rahmen, in welchem KI zum Einsatz kommen soll.

(P3): KI muss transparent gemacht und stets als solche erkennbar sein, damit die Menschen wissen, womit sie es zu tun haben und Ergebnisse gegebenenfalls hinterfragen. [17]

Wenn KI als Entscheidungs- und Handlungsträger zum Einsatz kommt, partizipiert sie in einem sozialen System. KI findet unter anderem in Recommender-Systemen für Online-Shops, Social Media-Plattformen oder Zeitschriften Anwendung. Sie filtert und hebt Inhalte hervor, was einen entscheidenden Beitrag zur Meinungsbildung leistet. So spielten die Analyse großer Datenmengen und KI bei der Wählerbeeinflussung in der US-Wahlkampf-Kampagne von Donald Trump im Jahr 2016 eine entscheidende Rolle [9]. Aber auch das Phänomen der Filterblasen in Social Media ist auf den Einsatz von KI und Recommender-Systemen zurückzuführen. Algorithmen, die solche Inhalte hervorheben, sind meist nicht gekennzeichnet und Nutzer sind entsprechend bei der Beurteilung der Relevanz auf sich allein gestellt. Ohne Berücksichtigung dieses Prinzips leidet die Nachvollziehbarkeit persönlichkeitssensibler Entscheidungen, was zu einer Diffusion zwischen menschlichen Entscheidern, KI-Systemen und deren Schöpfern führt [13, S. 28].

(P4): KI-Systeme müssen stets stabil und sicher arbeiten und potentielle Risiken kontinuierlich untersucht und behandelt werden. [17]

Da KI-Systeme Entscheidungen menschlicher Entscheidungsträger vorbereiten oder gar ganz abnehmen, müssen getroffene Entscheidungen langfristig sicher und nachvollziehbar beziehungsweise erklärbar sein. Machine Learning-Verfahren wie Logistische Regressionen oder Entscheidungsbäume treffen von Natur aus mathematisch nachvollziehbare Entscheidungen. Allerdings werden häufig auch, besonders bei komplexer Datenlage, Verfahren wie Neuronale Netze oder Deep Learning genutzt, die wenig bis gar keine Nachvollziehbarkeit erlauben. Dabei spricht man von „Black Box“-Modellen. Entscheidungen solcher Modelle können nicht mehr begründet werden und die Gefahr, dass das KI-System ein Eigenleben, beispielsweise durch die unvorhergesehene Gewichtung einzelner Faktoren, entwickelt, steigt erheblich. Aber auch die Entwicklung des KI-Systems sowie der Daten sind im Zeitverlauf zu beobachten. Das Phänomen Concept Drift beschreibt die zeitabhängige Verschlechterung der Genauigkeit von Vorhersagen, hervorgerufen durch sich ändernde Umweltbedingungen. Sich änderndes, volatiles Nutzerverhalten, saisonale Trends oder Wetterbedingungen unterliegen stochastischen Prozessen, die keinem klaren, vorhersehbarem Muster folgen. Ein KI-System, das Entscheidungen auf einer solchen Datenbasis trifft, ist daher regelmäßig zu überprüfen und beobachten.

(P5): Organisationen und Einzelpersonen, die KI-Systeme entwickeln, einsetzen oder verwalten[,] sollten die rechtliche Verantwortung dafür tragen, dass die Systeme den oben genannten Grundsätzen entsprechend arbeiten. [17]

Entscheidungsträger müssen Verantwortung für ihre Entscheidung und deren Auswirkungen übernehmen, da die KI-Systeme dies nicht selbst können. Daher sind ihre Entwickler beziehungsweise Betreiber in der Verantwortung, einen sicheren Einsatz solcher Systeme zu gewährleisten. So ist unter anderem transparent zu machen, wer die Daten unter welchen Kriterien für das Training eines KI-Modells selektiert hat und wer das KI-System überwacht sowie dessen sicheren Einsatz garantiert. Auch der Frage, welches Ziel ein KI-Modell verfolgt, müssen sich die Betreiber stellen: Bei der Nutzung von KI-Systemen für die Patientenbelegung im Krankenhaus kann zum Beispiel auf das Patientenwohl oder auf die Krankenhausauslastung optimiert werden. Der intransparente Umgang bei der Festlegung solcher Ziele kann massive negative Auswirkungen auf ein Entscheidungsmodell haben, die sich oft erst im Nachhinein bemerkbar machen. Das fünfte Prinzip überträgt die vorangegangenen Prinzipien auf die Entwickler eines KI-Systems, die bei Schäden zur Verantwortung gezogen und zur Rechenschaft verpflichtet werden müssen.

Aus den diskutierten fünf Prinzipien lassen sich Anforderungen an den Einsatz von KI ableiten. Eine Expertengruppe der Europäischen Kommission hat, aufbauend auf den Prinzipien der OECD, im Juni 2018 sieben zentrale Anforderungen an vertrauenswürdige KI erarbeitet [10, S. 17 f.]:

Zuordnung der Prinzipien zu den Anforderungen an die KI, vgl. [10, S. 17 f.]

Der Schutz der Privatsphäre sowie das Datenqualitätsmanagement werden nur indirekt in den OECD-Prinzipien thematisiert. So ließen sich diese Anforderungen teilweise zu (P2) bezüglich der rechtsstaatlichen Prinzipien und der Privatsphäre, aber auch zu (P4) bezüglich des sicheren Arbeitens und der Datenqualität zuordnen. Eine explizite Nennung der Privatsphäre sowie der Datenqualität erfolgt im Rahmen der Prinzipien der OECD allerdings nicht.

Wie wird Regulierung praktisch umgesetzt?

Die OECD hat begleitend zu den fünf Prinzipien Handlungsempfehlungen veröffentlicht, die die Staaten bei der Umsetzung einer sicheren und vertrauenswürdigen KI-Infrastruktur helfen sollen. Diese Handlungsempfehlungen (H1 – H5) lauten wie folgt: Die OECD empfiehlt, dass Regierungen …

  1. öffentliche und private Investitionen in Forschung und Entwicklung fördern, damit die Entwicklung vertrauenswürdiger KI beschleunigt wird;
  2. die Entwicklung eines leicht zugänglichen Umfeldes für KI durch entsprechende Infrastruktur und Technologie sowie durch Mechanismen unterstützen, die den Austausch von Daten und Wissen erleichtern;
  3. ein politisches Umfeld schaffen, das den Weg für die Entwicklung vertrauenswürdiger KI bereitet;
  4. den Menschen das im Umgang mit KI nötige Wissen vermitteln und Arbeitnehmer unterstützen, deren Beruf sich durch den Einsatz von KI verändert;
  5. grenz- und sektorübergreifend beim Informationsaustausch und der Entwicklung neuer Standards zusammenarbeiten und für eine verantwortungsvolle Überwachung von KI-Systemen sorgen.

Aus den Handlungsempfehlungen ist abzuleiten, dass Regierungen langfristig in KI investieren sollen und die daraus resultierende Infrastruktur Grundlage für einen regen Wissensaustausch bei der Entwicklung vertrauenswürdiger KI darstellt. Dies ergibt sich auch aus dem Bericht über den Stand der Umsetzung dieser Handlungsempfehlungen. So hat ein Förderprogramm der EU 1,5 Milliarden Euro über die nächsten zwei Jahre für die KI-Forschung bereitgestellt. Es wird erwartet, dass weitere 20 Milliarden Euro aus dem privaten Sektor und den Mitgliedsstaaten bereitgestellt werden. [16, S. 11] Hierbei soll die Forschung vor allem im Pflege-, Gesundheits- und Mobilitätssektor durch interdisziplinäre Forschungsgemeinschaften vorangetrieben werden. Wichtige, vor allem technologiebezogene Forschungsbereiche sind unter anderem die Nachvollziehbarkeit von KI-Entscheidungssystemen, beispielsweise mithilfe von Methoden aus der kooperativen Spieltheorie. Aber auch die Drift-Erkennung, welche sich der zeitabhängigen Veränderung der Vorhersagegenauigkeit von Entscheidungssystemen widmet, spielt gegenwärtig eine große Rolle in der KI-Forschung. Ein weiteres Ziel der KI-Infrastruktur ist die Bereitstellung und das Teilen von Daten und Rechenressourcen, wobei offene Standards und Open Source eine zentrale Rolle einnehmen. [16, S. 11 f.] Durch frei zugängliche Werkzeuge und Datensätze können KI-Systeme einfacher und sicherer adaptiert werden. Zudem verringert man die Gefahr der Monopolbildung, da der Zugang zur KI-Technologie durch eine offene Infrastruktur vereinfacht wird. Darüber hinaus stellen Mitgliedsstaaten Start-Ups sowie kleinen und mittleren Unternehmen kontrollierte KI-Experimentierumgebungen bereit, in denen optimale Bedingungen herrschen, um Eintrittsbarrieren möglichst zu verringern. So können Unternehmen KI ausprobieren, mögliche Schwachstellen identifizieren und in ihre Geschäftsmodelle übernehmen. Deutschland hat für diesen Zweck die Plattform Lernende Systeme und die EU das Projekt AI4EU ins Leben gerufen, die als Inkubatoren sowie Bindeglieder zwischen Wirtschaft und Wissenschaft einen gemeinsamen Konsens im Umgang mit KI entwickeln. [16, S. 12 f.] Auch die Probleme auf dem Arbeitsmarkt, welche von (P1) und (H4) adressiert werden, wurden im Rahmen des Berichts untersucht. So sind KI-Bildungsprogramme entstanden, die den Bürgern helfen, mit dem technologischen und gesellschaftlichen Wandel Schritt zu halten. Zudem werden die Auswirkungen von KI auf den Arbeitsmarkt in Deutschland regelmäßig beobachtet, um einen fairen Wandel des Arbeitsmarkts durch das Eingreifen mithilfe von Richtlinien sicherzustellen. Eine weitere Maßnahme ist die Verteilung der KI-Expertise durch Migration, so vergibt das Vereinigte Königreich bis zu 2.000 Visa pro Jahr an KI-Experten. [16, S. 14] Abschließend erwähnt der Bericht Kooperationen zur Weiterentwicklung und Implementierung der KI, unter anderem den G20-Gipfel sowie die UNESCO [16, S. 15].

Anhand des Berichts ist zu erkennen, dass die Handlungsempfehlungen umgesetzt wurden, um den Prinzipien gerecht zu werden. Die Umsetzung erfolgt vor allem durch Investitionen und Förderung. Unter Berücksichtigung einer Studie, beauftragt vom Bundesministerium für Wirtschaft und Energie, aus dem Januar 2020 [6, S. 49], welche zum Ergebnis kam, dass mehr als die Hälfte der Einzelhändler die Investitionskosten für die Umsetzung der KI-Technologie als zu hoch empfinden und bessere Unterstützung seitens des Staats erwarten, ist die Förderung kleiner und mittelständischer Unternehmen richtig. Allerdings ist dabei die Langfristigkeit getätigter Investitionen entscheidend, um der Technologie Schritt halten zu können.

Darüber hinaus können auf der politischen Ebene nur bedingt grundlegende sozio-technische Probleme adressiert werden. Aufgrund dessen sind pragmatische Ansätze notwendig, um den vertrauenswürdigen und fairen Umgang mit KI sicherstellen zu können.

Gibt es abseits der Prinzipien weitere Ansätze?

Besonders, um die Prinzipien (P3) sowie (P5), die Erkennbarkeit und Transparenz, erfüllen zu können, bedarf es der expliziten Kennzeichnung von KI-Systemen. Für alle an einer Entscheidung beteiligten Personen muss transparent sein, dass die Entscheidung von einem KI-System getroffen wird. Nur so lässt sich eine informationale Gerechtigkeit herstellen [3]. Informationen wie die Rolle der KI in Entscheidungssystemen und die für die Umsetzung sowie Betrieb Verantwortlichen müssen verfügbar und den, von der Entscheidung Betroffenen zugänglich sowie verständlich sein. So sollte auch der Entwicklungsprozess transparent gestaltet und beispielsweise von Prüfgesellschaften vor allem bei weitreichenden Entscheidungen abgenommen werden müssen. Normen der Prozessverantwortung lassen sich so auch auf die KI-Technologie anwenden und von Zertifizierungen der Mitarbeiter, technischen Kontrollen und den Prozessen selbst unterstützen.

Bei Betrachtung dieses Ansatzes ergibt sich bereits eine weitere Fragestellung, die weder durch die Prinzipien noch durch die Handlungsempfehlungen beantwortet werden kann. Welches Entscheidungssystem trifft Entscheidungen mit weitreichenden Konsequenzen? Was ist eine weitreichende Konsequenz? Es muss möglich sein, KI-Systeme nach einem einheitlichen Schema klassifizieren und bewerten zu können. Erst so lassen sich für den Anwendungsfall adäquate Regularien, Richtlinien und Handlungsvorschriften entwickeln, die immer in Abhängigkeit vom Kontext betrachtet werden sollten. Um diese Frage zu beantworten, hat die OECD bereits einen Entwurf vorgestellt [15]. Kern davon ist ein Klassifizierungsframework, um die Implikationen durch Regularien verschiedener Arten auf KI-Systeme zu untersuchen. Dabei wird ein KI-System in vier Dimensionen aufgeteilt: den Kontext, beispielsweise den Bereich, in welchem das KI-System Entscheidungen trifft; die Daten sowie die Form der Datensammlung; das KI-Modell an sich, unter anderem den Typ sowie den Entwicklungsprozess; und die Entscheidungsaufgabe sowie der Grad der Handlungsautonomie, also die Selbstständigkeit des Systems, basierend auf einer Entscheidung zu handeln.

Framework zur Klassifizierung von KI-Systemen, nach [15]

Auf Basis dieses Frameworks lässt sich anschließend die Kritikalität eines KI-Systems bewerten. Folgende Faktoren werden dabei berücksichtigt [15]:

  1. Bereich der Anwendung: z. B. Logistik, Gesundheitswesen, Bildung
  2. Kritische Funktion: z. B. Gesundheit und Sicherheit von Bürgern, wesentliche wirtschaftliche und gesellschaftliche Dienste
  3. Systemnutzer: KI-Experten oder KI-Laien
  4. Datensammlung: z. B. von Menschen, automatisch
  5. Datentyp: z. B. proprietär, öffentlich oder persönlich
  6. Aneignung der Fähigkeiten: Lernen von Menschen, durch bereitgestellte Daten oder durch Systemerfahrung
  7. Entscheidungsaufgabe: z. B. Erkennung, Personalisierung oder gezielte Optimierung
  8. Grad der Handlungsautonomie: hoch (komplett ohne menschliches Eingreifen), mittel oder niedrig

Das Framework ermöglicht eine Beurteilung und Klassifizierung eines KI-Systems. Kombinationen von Eigenschaften, die ein spezifisches KI-System erfüllt, beispielsweise eine hohe Handlungsautonomie in Verbindung mit einer kritischen Funktion, können als Anlass für spezifischere, strengere Regularien genommen werden.

Diskussion

Im Rahmen dieses Beitrags wurde die Fragestellung diskutiert, wie mit der Verantwortung moderner Entscheidungssysteme umgegangen werden kann und wie sich KI regulieren lässt, beantwortet. Bei der Regulierung können allerdings auch negative Effekte eintreten, welche nachfolgend diskutiert werden.

Eine grundlegende Frage bei der Festlegung von Regularien ist, ob diese die Innovationskraft schwächen. Ziel der von der OECD veröffentlichten Prinzipien ist, dass die KI-Technologie von allen Mitgliedsstaaten rasch adaptiert werden kann. Gleichzeitig ist es allerdings möglich, dass die Prinzipien und vor allem davon abgeleitete Regularien die Innovationskraft bremsen. Die Entwicklung von Richtlinien und Gesetzesentwürfen könnte vor der Nutzung von KI abschrecken. Daher ist das vorgestellte Framework zur Klassifizierung von KI-Systemen ein elementarer Baustein, da dieses ermöglicht, nur die KI-Systeme zu regulieren, für die eine Regulierung notwendig ist. Richtlinien können anwendungsfallspezifisch entwickelt und darauf angepasst werden. So schaffen sie den größten Nutzen und bergen das geringste Risiko auch andere, weniger kritische Entscheidungssysteme einzuschränken.

Ein weiterer erwartbarer Effekt einer solchen Regulierung ist das Entstehen einer „regulatorischen Dialektik“. Der von Edward J. Kane geprägte Begriff aus der Finanzpolitik lässt sich auch auf andere Bereiche anwenden und beschreibt die gegenseitige Verstärkung der politischen Maßnahmen zur Regulierung und der Strategien zur Vermeidung von Regulierung [12]. Durch die Regulierung der KI ist zu erwarten, dass es umso mehr Strategien zur Vermeidung der Regulierung gibt und sich der Zustand verschlechtert. Außerdem beschreibt der Effekt das ständige Aufeinandereinstellen, was schlussendlich zur Überregulierung führen kann. Lösung der regulatorischen Dialektik ist ein Policy-Netzwerk. Dies bedeutet, dass nicht mehr Behörden Unternehmen kontrollieren, sondern dass im Unternehmen Organe eingerichtet sind, die den Einsatz der KI regulieren und kontrollieren. Diese Organe arbeiten eng mit den Behörden zusammen. [18]

Darüber hinaus gibt es ein grundlegendes, technisches Problem der KI: wenn sie von Menschen lernt, indem sie dokumentierte bereits getroffene Entscheidungen zu Mustern abstrahiert, lernt sie auch die Vorurteile dieser Entscheidungsträger. Die KI kann daher, auch wenn man ihr aufgrund ihrer mathematischen Natur keine Irrationalität unterstellen kann, irrationale und vorurteilsbehaftete Entscheidungen treffen. Sie kann maximal so exakte Entscheidungen treffen wie die Menschen, die die Entscheidungen der Trainingsdaten getroffen haben. Vorurteile und subjektive Ansichten werden damit vom Entscheidungssystem adaptiert. Dieses Problem lässt sich nur bedingt durch menschliches Eingreifen beheben, da erst Eingriffe zu starken, systematischen Verzerrungen führen können. Die Gefahr ist hoch, durch den Versuch, Vorurteile aus dem Modell zu entfernen, erst Vorurteile in das System zu bringen. Entsprechend müssen darüber, dass ein anhand menschlicher Erfahrung trainiertes Modell keine „optimalen“ Entscheidungen treffen kann, Entwickler und Betreiber von KI-Systemen informiert sein, auch wenn dies das Modell auf Basis von Genauigkeitsmetriken vorgibt. Das Modell und die von ihm getroffenen Entscheidungen können nur so exakt sein, wie die für das Training verwendeten Daten. Daher kommt dem Prozess der Datenselektion für das Training und dem Datenqualitätsmanagement eine hohe Bedeutung zu.

Des Weiteren ist zu beachten, dass die vorgestellten Regularien die Probleme des Einsatzes von KI in autoritären Staaten nicht unterbinden. China ist kein Mitgliedsstaat in der OECD und wird auch nicht an der Einhaltung entsprechender Prinzipien interessiert sein. Ein solches Problem sollte im Rahmen von Prinzipien und Maßnahmen ebenfalls adressiert werden.

Zusammenfassung und Ausblick

Die Prinzipien der OECD sind eine gute Grundlage für einen ethischen Umgang mit KI-basierten Entscheidungssystemen. Fragestellungen, wie z. B. die Frage, ob und wer Steuern für KI-Systeme zahlen muss, um durch den Arbeitsplatzwegfall fehlende Steuereinnahmen auszugleichen, können im Rahmen solcher allgemeinen Prinzipien jedoch nicht beantwortet werden. Auch die technologische Entwicklung der KI schreitet rasant voran. Auch dies führt permanent zu neuen Fragestellungen im Kontext der KI, mit denen sich der Gesetzgeber auseinandersetzen muss.

Zukünftig müssen sicher weitere Maßnahmen erarbeitet werden, um den Einsatz von KI sicher, fair und transparent zu gestalten. Problematisch wird das Thema sicher in autoritären Staaten oder Unternehmen sein, die den Einsatz von KI verschleiern können. Eine starke internationale Zusammenarbeit ist daher essentiell notwendig.

Literaturverzeichnis

  1. Arntz, M., Gregory, T., Zierahn, U.: The risk of automation for jobs in OECD countries (Mai 2016).
  2. Beran, O.: An Attitude Towards an Artificial Soul? Responses to the “Nazi Chatbot”. Philosophical Investigations 41(1), 42–69 (September 2017).
  3. Bierhoff, H.W.: Fairness. Dorsch: Lexikon der Psychologie (Mai 2021), zuletzt abgerufen am 20.01.2022.
  4. Bughin, J., Seong, J., Manyika, J., Chui, M., Joshi, R.: Notes from the AI Frontier – Modeling the impact of AI on the world economy (September 2018), zuletzt abgerufen am 07.11.2021.
  5. Bundesministerium für Wirtschaft und Energie: Industrie 4.0 und Digitale Wirtschaft (April 2015), zuletzt abgerufen am 08.11.2021.
  6. Bundesministerium für Wirtschaft und Energie: Perspektiven der Künstlichen Intelligenz für den Einzelhandel in Deutschland (Januar 2020), zuletzt abgerufen am 29.12.2021.
  7. Daly, A.: Algorithmic oppression with Chinese characteristics: AI against Xinjiang’s Uyghurs. In: Artificial intelligence: Human rights, social justice and development, pp. 108–112. APC (2019)
  8. Ertel, W.: Grundkurs Künstliche Intelligenz. Springer Fachmedien Wiesbaden, 4 edn. (2016)
  9. Gonzalez, R.J.: Hacking the citizenry?: Personality profiling, ’big data’ and the election of Donald Trump. Anthropology Today 33(3), 9–12 (Juni 2017).
  10. Hochrangige Expertengruppe für Künstliche Intelligenz der Europäischen Kommission: Ethik-Leitlinien für eine vertrauenswürdige KI (April 2019), zuletzt abgerufen am 12.01.2022.
  11. Hong, J.W., Williams, D.: Racism, responsibility and autonomy in HCI: Testing perceptions of an AI agent. Computers in Human Behavior 100, 79–84 (Nov 2019).
  12. Kane, E.J.: Accelerating Inflation, Technological Innovation, and the Decreasing Effectiveness of Banking Regulation. The Journal of Finance 36(2), 355–367 (May 1981).
  13. Martini, M.: Blackbox Algorithmus – Grundfragen einer Regulierung Künstlicher Intelligenz. Springer Berlin Heidelberg (2019).
  14. McKinsey Global Institute: AI, automation, and the future of work: ten things to solve for (Juni 2018), zuletzt abgerufen am 19.11.2021.
  15. Murdick, D.: AI System Classification for Policymakers (Dezember 2020), zuletzt abgerufen am 20.12.2021.
  16. Organisation for Economic Co-Operation and Development (OECD): State of implementation of the OECD AI Principles (Juni 2021).
  17. Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD): 42 Länder einigen sich auf Standards im Umgang mit künstlicher Intelligenz (Mai 2019), zuletzt abgerufen am 07.11.2021.
  18. Strulik, T.: Governance globalisierter Finanzmärkte. Policy-Netzwerke und Kontextsteuerung im Bankensystem. In: Sydow, J., Windeler, A. (eds.) Steuerung von Netzwerken: Konzepte und Praktiken. Westdeutscher Verlag, Opladen (2000)
  19. Wakefield, J.: AI emotion-detection software tested on Uyghurs (Mai 2021), zuletzt abgerufen am 17.11.2021.
  20. Westerlund, M.: The Emergence of Deepfake Technology: A Review. Technology Innovation Management Review 9 (November 2019), zuletzt abgerufen am 02.01.2022.

Geschrieben von