Genau wie wir Menschen sind auch Maschinen nicht unfehlbar. Man könnte meinen, dass Computer lediglich kühle Rechner, unbeteiligt und unbestechlich sind. Es wäre fahrlässig zu glauben, dass sie sich nicht irren könnten. Und nicht diskriminieren würden.
Viele Entscheidungen in den unterschiedlichsten Lebensbereichen werden künftig von Computern getroffen. Egal ob Kreditvergabe, Bewerbungen oder Polizeikontrollen. Einzelne Personengruppen zu benachteiligen, auszuschließen oder schlechter zu behandeln ist für automatische Systeme genauso unangebracht, wie für uns Menschen.
Algorithmen auf Fairness programmieren?
Vor garnicht allzu langer Zeit, Ende 2018, ließ Amazon einen Computeralgorithmus bei Bewerbungen eine Vorauswahl treffen. Bereits in der Testphase zeigte sich, dass der Rechner Bewerbungen von Frauen öfter ablehnte, als die von Männern. Seitdem wird verstärkt Fairness in der künstlichen Intelligenz gefordert. Doch nicht nur das. Unternehmen sollten außerdem dafür verantwortlich gemacht werden, was ihre Algorithmen tun. Kritiker erwarten FAT: Fairness, Accountability (engl.: Verantwortlichkeit) und Transparency (eng.: Transparenz).
Fairness muss den Algorithmen allerdings erst beigebracht werden. Wissenschaftler setzen dabei auf maschinelles Lernen, also Computer durch Lernen und Erfahrungen dazu befähigen besser, fairer, zu werden. Klingt erstmal easy peasy lemon squeezy. In Wahrheit ist es difficult difficult lemon difficult. Eine technische Lösung, die faire Algorithmen realisiert, gibt es nämlich nicht. Kann es auch gar nicht. Jedes einzelne Diskriminierungsproblem in den Daten ist anders und muss zuerst analysiert werden. Doch auch Schritt 2 ist kein Kinderspiel: Für jedes Problem muss eine mathematische Beschreibung gefunden werden.
Wie funktioniert der algorithmischen Analyseprozess?
Der Analyseprozess folgt zumindest einem klaren Schema, ist also nicht mehr ganz so difficult: Daten werden gesammelt, in ein Analyseprogramm eingespeist, dessen Algorithmen dann eine Empfehlung wie beispielsweise „Person verdächtig” abgeben. Um diesen Prozess in Zukunft fair ablaufen zu lassen, muss sowohl die Datenseite, als auch die Ausgabeseite der Empfehlungen verbessert werden. Es beginnt also schon bei der Frage, welche Daten wie erhoben werden.
Um das zu verdeutlichen, hier ein Beispiel: die Wahrscheinlichkeit, dass eine Person ein Verbrechen begeht. Einfache Algorithmen führen zur Überprüfung der Verdächtigkeit einer Person kausale „Wenn-dann-Beziehungen” durch. Angenommen diese Person lebt in einem Stadtteil, der in der Vergangenheit für seine hohe Kriminalität bekannt war, könnte der Algorithmus den Wohnort als Indikator für die wahrscheinlichere Verbrechensbereitschaft der Person nutzen. Natürlich kann ein Computer dabei nicht verstehen, dass der Wohnort keinen direkten kausalen Einfluss auf die Kriminalität einer Person haben muss und es wesentlich relevantere Faktoren gibt.
So ganz nebenbei: Ich selber wohne in einem Stadtteil mit einer vergleichsweise hohen Kriminalitätsrate. Erst kürzlich wurden zwei Person 400m vor meiner Haustür erschossen. Bei einem Computer würden wahrscheinlich sämtliche Alarmglocken läuten und ich als wesentlich verdächtiger gelten, als Bewohner eines anderen Stadtteils. Fun Fact: Manchmal erschrecke ich sogar vor meinem eigenen Schatten. Die Wahrscheinlichkeit, dass ich ein Verbrechen begehe ist also ungefähr so groß, wie meine Bereitschaft Portionsangaben zu beachten. Quasi nicht existent.
Also, was tun?
Wie du im obigen Beispiel gesehen hast, werden Systeme oftmals mit historischen Daten trainiert und aufgrund dieser zieht der Algorithmus folglich seine Rückschlüsse: Wie groß ist die Wahrscheinlichkeit, dass diese Person ein Verbrechen begeht? Es ist selbstverständlich, dass an einem Ort, den der Computer vor höchst kriminell hält, auch Personen leben, die alles andere als verbrechensbereit sind (siehe meine Wenigkeit). So kann es dazu kommen, dass der Algorithmus einzelne Personen benachteiligt, ausschließt oder in anderen Fällen eben sogar diskriminiert.
Genau wie wir Menschen, müsste der Algorithmus seine Annahmen also regelmäßig überprüfen. Beispielsweise, in dem er nach bestimmten Kriterien doch hin und wieder Personen aus bestimmten Stadtteilen keine oder wenig Verbrechenswahrscheinlichkeit zuschreibt. Wird diese in einem definierten Zeitraum auch nicht auffällig, muss der Algorithmus angepasst werden. Die bisher genutzten Daten reichen aber allem Anschein nach für eine faire Entscheidungsfindung nicht aus. Künftig muss man sich also der Herausforderung annehmen, Daten in einen realistischen, kausalen Zusammenhang zu stellen, damit Fairness nicht auf der Strecke bleibt. Nur so lässt sich vermeiden, dass Algorithmen die Daten nur als eine große Ansammlung von Zahlen betrachten, zwischen denen sie die wildesten Korrelationen herstellen.
Vor der eigenen Haustür kehren
Jetzt aber mal ganz ehrlich: Wir Menschen sind und handeln ebenfalls nicht 24/7 fair. Täglich entscheiden Menschen über Menschen, viele davon lediglich auf ihren eigenen Vorteil bedacht. Wie und warum wir uns für oder gegen etwas entscheiden, ist oft vollkommen intransparent. Von Algorithmen hingegen verlangen wir immer hundertprozentig richtige und faire Entscheidungen. Wissen wir überhaupt, was „fair” und was „richtig” ist? Können wir solche Entscheidungen überhaupt von Maschinen verlangen, bevor wir selbst nicht wissen, wie wir „Fairness” und „Richtigkeit” definieren?
Copyright © Bilder: Unsplash
Quelle: Schröder, Tim: „Auf Fairness programmiert”, in Max Planck Forschung 2/2019, S. 68-73
Isabella Herdega
Eigentlich besteht mein Leben aus der Aneinanderreihung von Buchstaben. Ich lasse aus ihnen Wörter entstehen, füge sie zu Sätzen zusammen und erzähle damit Geschichten. Ab und an esse ich aber auch einfach gern Pizza.