Ethik ist ein brandaktuelles Thema für die Technologiebranche, insbesondere in den sich schnell entwickelnden Bereichen der Künstlichen Intelligenz (KI), des maschinellen Lernens (ML) und der automatisierten Entscheidungssysteme.

Warum ist das wichtig für Ihr Unternehmen? Nun, hier sind einige der Risiken, die Sie eingehen, wenn Sie ethische Aspekte außer Acht lassen:

  • Ihre Kunden könnten zu einem stärker an ethischen Grundsätzen ausgerichteten Serviceanbieter wechseln.
  • Ihre Mitarbeiter könnten zu einem stärker an ethischen Grundsätzen ausgerichteten Arbeitgeber wechseln.
  • Sie fügen der Öffentlichkeit unter Umständen großen Schaden zu, indem Sie strukturelle Ungleichheiten ungewollt verschärfen.
  • Sie verlieren vielleicht Ihren Wettbewerbsvorteil, den Sie Ihrer technischen Kompetenz verdanken, an andere Unternehmen oder Länder, wenn Ihre Ethik eine Gefährdung für Ihre Mitarbeiter, Kunden oder die Öffentlichkeit im Allgemeinen darstellt.

Verbraucher und Mitarbeiter aus der Technologiebranche mischen sich ein, um Einfluss darauf zu nehmen, welche Arten von automatisierten Entscheidungssystemen entwickelt werden, welche Entscheidungen diese treffen dürfen und welche Datensätze zum Erstellen der Modelle verwendet werden sollten, die diese Systeme unterstützen.

Google will unter dem Motto „AI for Social Good“ 25 Millionen US-Dollar für soziale Zwecke einsetzen, doch befürchten kritische Stimmen, derartige Bemühungen des Technologieriesen könnten die Dominanz einer Denkweise zum Nachteil anderer Gruppen befördern. So stieß beispielsweise eine kürzlich durchgeführte globale Umfrage zur Ethik autonomen Fahrens – deren Ergebnisse zur Entwicklung zahlreicher Algorithmen verwendet werden, die in fahrerlosen Fahrzeugen Entscheidungen über Leben und Tod treffen sollen – auf Kritik, weil die Entwicklungsländer darin nur unzureichend berücksichtigt wurden.

Um gegen dieses negative Bild vorzugehen, führt die Technologiebranche zunehmend neue Datenschutz- und Sicherheitsrichtlinien ein. Eine neue Strategie ist hier der Einsatz von Chief Ethical Officers als Methode zur Selbstkontrolle. Diese Ethikbeauftragten könnten jedoch enden wie die gleichnamige Figur im Roman Hüter der Erinnerung – The Giver von Lois Lowry, die allein die Bürde der Erinnerung an die schmerzhaften Erfahrungen der Vergangenheit trägt, während die anderen in Unwissenheit leben.

 

Das weite Feld der Ethik

Die Diskussionen zur Ethik der KI spiegeln die allgemeine gesellschaftliche Polarisierung angesichts der Frage wider, wer von Machtsystemen profitiert und wer unterrepräsentiert ist, wer ausgeschlossen oder zurückgelassen wird. Technologieplattformen, darunter auch automatisierte Entscheidungssysteme, können diese Gräben vertiefen, doch für ihre Entstehung ist nicht allein die Technologie verantwortlich. Wie können wir eine Ethik für KI entwickeln, wenn wir uns nicht einmal in der Technologie oder in den meisten menschlichen Verhaltensweisen über Fragen der Ethik einig sind?

Trotz des fehlenden Konsenses werden verschiedene Ansätze entwickelt, um KI und Technologie mit einer ethischeren Ausrichtung zu schaffen. Sie reichen von Datenkompetenz-Kampagnen bis hin zu flugplanartigen Checklisten, von Verhaltenskodizes bis hin zum neuen Sektor des „Algorithmic Auditing“, der sich mit der Kontrolle der Funktionsweisen und Risiken von Algorithmen befasst.

 

„Quis custodiet ipsos custodes?“ Wer bewacht die Wächter?

Ist es wünschenswert oder gar machbar, dass die Technologiebranche in ethischen Fragen eine Vorreiterrolle übernimmt? In anderen Branchen werden neue Verordnungen und Regulierungsbehörden geschaffen, um die Gefährdung sozialer und ökologischer Güter zu vermeiden (wie die U.S. Environmental Protection Agency und die Food and Drug Administration in den USA). Reichen Ethikbeauftragte oder interne Ethikausschüsse in Technologieunternehmen also aus, um ethische Fragen zu regeln?

Palmer Luckey, Gründer von Oculus und Mitbegründer von Anduril, argumentierte auf dem Web Summit 2018, Technologen sollten nicht darauf warten, bis der Gesetzgeber sagt, wo es langgeht, sondern seien moralisch verpflichtet, bei der Entwicklung von Technologien mit ethischen Prinzipien die Führung zu übernehmen.

Großbritannien ist bemüht mit Unternehmen wie dem Open Data Institute, CognitionX und Doteveryone – die sich für eine stärker ethisch ausgerichtete Entwicklung der KI einsetzen – in der Ethikdiskussion voranzugehen. Die Einrichtung des Centre for Data Ethics and Innovation ist ein eindeutiges Zeichen für die Bestrebungen Großbritanniens, von dieser zunehmenden Kompetenz zu profitieren. Da das Zentrum jedoch nur eine beratende Funktion hat, stellt sich die Frage, ob es über ausreichende Mittel verfügt, um wirklich etwas zu bewirken.

 

Was kommt als Nächstes?

Welche Maßnahmen müssen Branchenführer ergreifen, um in Fragen der KI ethisch zu handeln?

  • Führen Sie ein Ethik-Audit durch. Wie ist die Haltung zur ethischen Verantwortung innerhalb Ihres Unternehmens? Fühlen sich Manager und Teammitarbeiter ermächtigt, ethische Entscheidungen eigenständig zu treffen und zu verantworten? Wenden Teile Ihres Unternehmens bereits ethische Prinzipien bei ihren Entscheidungen an?
  • Entscheiden Sie sich für eine Unternehmensethik. Entwerfen Sie einen ethischen Rahmen auf der Grundlage eines Konsenses über die Leitprinzipien des Unternehmens. In welcher Beziehung stehen diese zu Ihren Unternehmenswerten? Welche Ressourcen stehen Ihnen zur Verfügung, um einen Rahmen zu schaffen, der Mitarbeiter und Kunden schützt? Wie stehen Sie zur Ethik des Gehorsams, zur Sorgfaltspflicht und zur Ethik der Vernunft?
  • Konzipieren Sie ethische Feedback-Schleifen für Ihre Projekte. Dazu müssen Teammitglieder einen diskussionsorientierten Ansatz verfolgen oder eine direkte Checkliste der Verantwortlichkeiten einführen. Während der Entwurfs- und Experimentierphase kann beispielsweise ein Design-Thinking-Modell die Teams dazu anregen, sich die Frage „Was wäre wenn …?“ zu den von ihnen entwickelten Tools zu stellen, um ihnen zu helfen, Warnsignale im Vorfeld zu erkennen.
  • Haben Sie einen Plan parat. Wenn Sie einen Notfallplan für Brände oder Naturkatastrophen besitzen, sollten Sie auch einen haben, um Ihr Unternehmen vor KI-Skandalen zu schützen. Überlegen Sie, welche Möglichkeiten Ihnen zur Verfügung stehen, wenn es zu ethischen Risiken und Verstößen gegen ethische Prinzipien kommen sollte.

Weitere Informationen über neue Trends in der Ethik der Algorithmen finden Sie im vollständigen Kommentar zu den Forschungsergebnissen des Leading Edge Forum (LEF).