Das Internet und die Algorithmen die wir tagtäglich nutzen, kennen angeblich keinen Sexismus, Rassismus, Ableismus und anderen Diskriminierungsformen. Daher wird ihre Objektivität hochgefeiert. Aber sind sie das wirklich? Sind Maschinen und Algorithmen fair und frei von Diskriminierung? Der Fall von Amazons Personaleinstellungsalgorithmus zeigt uns die Schattenseiten der vermeintlich objektiven Algorithmen und Maschinen.
Disclaimer: Im folgenden Artikel wird Geschlecht teilweise als binäres Konstrukt beschrieben, weil sich auf Studien und Artikel bezogen wird, die mit dieser binären Kategorie arbeiten. Gleiches gilt für die binäre Unterscheidung zwischen weiß und Schwarz. Wir sind uns bewusst, dass solche Formulierungen Menschen ausschließen. Daher können wir, an diesen Stellen, keine inklusiven Aussagen tätigen.
Im Online Magazin Reuters berichtete ein Amazon Insider über einen mutmaßlich verwendeten Algorithmus in Amazons Personalabteilung. Der Algorithmus, welcher im Zeitraum von 2014 bis 2015 ausprobiert wurde, bestand darin, dass künstliche Intelligenz Entscheidungen über Personaleinstellungen übernehmen oder zu mindestens unterstützend wirken sollte. Mit der Automatisierung von Prozessen hat Amazon in der Vergangenheit effizienter arbeiten können. Dieser Bereich sollte nun auf Amazons Personalabteilung ausgeweitet werden. Laut des Insiders sollte die künstliche Intelligenz die Bewerber*innen auf einer fünf Sterne Skala bewerten. Genauso wie die Produktbewertungen auf dem Amazon Marktplatz. Um ein solches Bewertungssystem zu bauen, wurde ein statistisches Modell mit Hilfe von bis zu zehn Jahren alten Lebensläufen trainiert. Dabei sollte das Modell 50.000 relevante Wörter aus den Lebensläufen erkennen, diese entsprechend gewichten und in eine Gesamtbewertung bringen. Im Prozess lernte das Modell, dass bestimmte Fähigkeiten, wie das beherrschen von Programmiersprachen, nicht so relevant sind, da alle Bewerber*innen diese in ihren Lebensläufen genannt haben. Stattdessen gerieten Wörter in den Vordergrund, welche dem Geschlecht zu geordnet sind: das Modell bestrafte Bewerbungen die eindeutig von Frauen kamen, da diese Wörter wie das Wort „Frauen“ beinhalteten oder weil die Bewerber*innen von reinen Frauenuniversitäten kamen. Auf der anderen Seite wurden stattdessen Wörter wie „ausgeführt“ und „erfasst“ von dem Modell bevorzugt. Diese Wörter befanden sich eher in Lebensläufen von Männern (ebd.). Was sich ergab, war eine frauenfeindliche Maschine.
Was können wir aus den Vorfall von Amazon lernen?
Das Experiment bei Amazon ist nur eines von vielen Beispielen, die zeigen, dass auch Algorithmen, die vermeintlich rational agieren und unterschiedlichste Diskriminierungsformen nicht kennen, nicht neutral sind. Wir füttern statistische Modelle mit menschlichen Daten, die nun mal nicht neutral sind. In unserer Sprache und in unserem Handeln befinden sich gewollte und ungewollte Muster, die diskriminierend gegenüber bestimmten Gruppen sind. Diese Diskriminierungen sind in unserer Gesellschaft verankert und befinden sich deshalb auch in unseren Daten. Ebenso relevant ist, welche Person entscheidet, mit welchen Daten die Algorithmen trainiert werden. In dem Fall bei Amazon wurde das Modell zum Beispiel hauptsächlich mit Lebensläufen von männlich gelesenen Personen trainiert.
Das Experiment bei Amazon legt noch ein weiteres Problem offen: Männliche Lebensläufe wurden auch deswegen bevorzugt, da die Tech Industrie vorwiegend von Männern dominiert wird und Frauen stark unterrepräsentiert sind. 2017 waren in den führenden IT Unternehmen (Apple, Facebook, Google und Microsoft) zwischen 77% und 80% Männer in technischen Berufen tätig. Dies betrifft nicht nur eine Dominanz in Bezug auf die geschlechtliche Zugehörigkeit, sondern auch den Anteil von Schwarzen Arbeiter*innen in der Tech Industrie. Auch Schwarze Menschen sind in der Tech Branche, insbesondere unter den Programmierer*innen und Manager*innen, nur vereinzelt vorzufinden. Die Unterrepräsentation bestimmter Gruppen kann dazu führen, dass Diskriminierungen marginalisierter Gruppen erst spät oder gar nicht bemerkt werden. Daher wird hier, im Bereich der ethischen Auseinandersetzung mit der Mensch-Technologie Beziehung, von einem „Bias“ (Verzerrung) gesprochen, der während der Programmierung solcher Modelle stattfindet. Verzerrungen können insbesondere dann stattfinden, wenn homogene Gruppen Entscheidungen treffen.
Die Zukunft des Machine Learnings
Algorithmen entscheiden für uns Menschen nicht nur in praktischen Alltagssituationen, sondern auch in sehr richtungsentscheidenden Kontexten. So werden Algorithmen eingesetzt, wenn es um die Kreditvergabe bei Banken geht oder bei der Vergabe von Gesundheitsrisikoeinschätzungen von Patient*innen. Die tagtägliche Diskriminierung kann nicht wegtechnologisiert werden, eher im Gegenteil. Mit der Technologie werden neue Dimensionen der Diskriminierung deutlich. Bei dieser Form von Diskriminierung wird häufig von algorithmischer Diskriminierung gesprochen. Ein großer Anteil der Wissenschaftler*innen aus der Informatik, Psychologie, Philosophie und Soziologie beschäftigt sich mit algorithmischer Diskriminierung. Dieser Bereich wird Fair Machine Learning oder auch Responsible Data Science genannt. Im Vordergrund steht hier, dass bestimmte soziale Gruppen als schützenswert gelten, diese auch als „protected Group“ mit in das Modell aufgenommen werden und das Modell entsprechend korrigiert wird. Das Korrigieren der Wissenschaftler*innen innerhalb des Modells führt dazu, dass das Modell selber an Genauigkeit der Vorhersagekraft verliert. Daher werden hier statistische Genauigkeit und gesellschaftliche Parität ständig abgewogen. Dies eröffnet ein neues Spannungsfeld. Dennoch scheint Fair Machine Learning ein vielversprechender Zugang zu einer faireren und digitalen Gesellschaft zu sein.
Mara
Schreibe einen Kommentar