Digitale Diskriminierung


Immer mehr Entscheidungen werden nicht von Menschen, sondern Maschinen getroffen. Vorurteilsfrei sind diese deshalb noch lange nicht.


August 2017



Wer würde noch bestreiten, dass Algorithmen erhebliche Macht über den Gang der Dinge haben? Immerhin sind sie in vielen Bereichen unseres Lebens beteiligt, entscheidende Weichen zu stellen: ob wir einen Kredit erhalten, einen Job bekommen, welche Nachrichten wir lesen, welche Werbung wir sehen, welche Menschen wir treffen. Immer stärker verbreiten sich algorithmische Entscheidungsverfahren, weil sie die konsistente Behandlung großer Fallzahlen ermöglichen und daher hocheffizient sind. Gleichzeitig eilt Algorithmen der Ruf voraus, Entscheidungen wertfrei und unbefangen zu treffen – immerhin basierten sie auf Daten und seien daher objektiv. Aber stimmt das denn?

Je intensiver sich die Forschung mit diesem relativ neuen Feld befasst, desto mehr Anzeichen werden sichtbar, dass Ungerechtigkeit und Diskriminierung keineswegs aus automatisierten Entscheidungsverfahren verbannt sind. Denn Software ist keineswegs frei von menschlichem Einfluss: Sie wird von Menschen geschrieben und weiterentwickelt, darüber hinaus nehmen maschinelle Lernverfahren menschliches Verhalten auf und agieren entsprechend. Auch sind Algorithmen immer nur so gut wie die Daten, mit denen sie gefüttert werden und schon diese können Verzerrungen beinhalten. Auf unterschiedlichsten Wegen schleichen sich also menschliche (Vor-)Urteile und Stereotype in Software ein. Mehr und mehr kommt die Forschung den maschinellen Diskriminierungen auf die Schliche: So entdeckte man etwa an der Carnegie Mellon University, dass Googles Werbeprogramm eine Anzeige für Karrierecoaching für hochbezahlte Jobs öfter Männern als Frauen zeigt. Auch bei maschinellen Übersetzungsprogrammen macht sich bemerkbar, dass Maschinen ähnliche Assoziationen produzieren wie Menschen und daher etwa mit denselben Rollenklischees agieren. ProPublica, ein US-amerikanischer Non-Profit-Newsdesk für investigativen Journalismus, stellte bedeutende systematische rassistische Diskriminierung durch Algorithmen fest, die die Wahrscheinlichkeit eines Kriminellen berechnen, wieder straffällig zu werden. Weil solche Ergebnisse zunehmend Eingang finden in wichtige Entscheidungen US-amerikanischer Gerichte, etwa im Zusammenhang mit Untersuchungshaft oder Bewährung, können die maschinellen Diskriminierungen Menschen sogar ins Gefängnis bringen.

Weil immer mehr Daten für Analysezwecke zur Verfügung stehen, wird sich das Feld der Einsatzbereiche algorithmischer Entscheidungen weiten. Während die Vorteile dieses Vorgehens gut beleuchtet und viel besprochen sind, scheint die Bedeutung eines verantwortlichen Umgangs mit Algorithmen, das heißt im Einklang mit ethischen und legalen Normen, noch nicht ausreichend im öffentlichen Bewusstsein angekommen zu sein. Natürlich wissen wir, dass auch Menschen in ihrer Entscheidungsfindung alles andere als vorurteilsfrei sind. Doch sind Algorithmen am Werk, werden datengetriebene Entscheidungen massenhaft getroffen. Finden wir uns also bald in einer Situation wieder, in der nicht nur menschliche durch maschinelle Vorurteile ersetzt, sondern sogar noch verstärkt werden? Daher ist es höchst Zeit, den Blick auf mögliche maschinengemachte Verzerrungen zu richten. Es gilt Transparenz herzustellen und die algorithmischen Entscheidungsverfahren aus ihrer Black Box herauszuholen. Auch ist eine stärkere Sensibilisierung der Öffentlichkeit für die neuen Mechanismen und deren Einflussmöglichkeiten notwendig. Und nicht zuletzt wartet ein noch viel tiefergehendes Problem auf eine Lösung: Darüber, was objektiv und gerecht ist und was es für einen Algorithmus bedeutet, ausbalancierte Urteile zu fällen, muss Übereinstimmung hergestellt werden.

f/21 Quarterly liefert Ihnen 4-mal jährlich frisches Zukunftswissen direkt in Ihr Postfach.
Registrieren Sie sich jetzt kostenlos!