support@womenintech.academy

Blog

3 Apr 2018

Zu wenig Diversity in der Künstlichen Intelligenz

/
Comments0

„Hey Vasquez, bist Du schon mal für nen Mann gehalten worden?” – “Nein, und Du?“

Die Szene aus Alien – Die Rückkehr wird gerade Realität. Nicht weil wir eine außerirdische Intelligenmz entdecket haben, sondern weil wir eine Künstliche Intelligenz schaffen, die zu blöd ist, Frauen von Männern zu unterscheiden.

Das kann man natürlich nicht der Technologie anlasten. Auch wenn sich KI demnächst selbst weiterentwickeln soll, ist der Fehler ein menschlicher. Ein allzu menschlicher.

Wissenschaftler des Allen Institute for Artificial Intelligence erlebten genau das Phänomen bei der Arbeit an ihrer Studie „Men Also Like Shopping: Reducing Gender Bias Amplification using Corpus-level Constraints“ Die KI hielt einen kochenden Mann für eine Frau. Sie erkannte auf Fotos die Küche, sie schloss aus den Utensilien und der Körperhaltung, dass die Person auf dem Foto kochte. Und da sie das schon etliche Male gemacht hat, war ihr „klar“. Küche + Kochen = Frau.

Schon 2015 hatte eine von Google eingesetzte KI dunkelhäutige Menschen für Gorillas gehalten. Zugegeben, das Problem ist so politisch brisant und für das Unternehmen so peinlich wie es technisch eigentlich billig klingt. Die KI wollte niemanden beleidigen und ist auch nicht rassistisch. Dazu ist sie gar nicht in der Lage.

Anders sieht das bei ihren Machern aus. Möglicherweise sind auch sie nicht rassistisch. Aber sie haben ein Problem übersehen, das sie hätten bemerken können, wenn sie sich mit dem Thema Rassismus beschäftigt hätten. Google hat das Thema auf eine letztlich dann doch peinliche Weise gelöst: Die Software bezeichnet einfach gar nichts mehr als Gorilla.

Gorillas können sich immerhin nicht wehren, der Skandal hält sich in Grenzen. Aber kochende Männer könnten sich wehren und Frauen tun das schon. Stell Dir vor, Google würde einfach gar nichts mehr als „Frauen“ bezeichnen, darauf liefe es hinaus.

Wo ist der Fehler?

Er liegt nicht in der Technik und nicht in der Menge der für das Training ausgewählten Bilder. Es liegt an den Menschen. Eine Reihe von Programmen basieren auf einer KI, die mit Hilfe von auf Google News editierten Bildern trainiert wurde. Der Boston University gelang 2016 der Nachweis, dass diese KI sexistisch agiert, weil die Fotos das waren.

Wenn die Menschen erheblich mehr Frauen als Männer mit Kochutensilien abbilden, steigt die Wahrscheinlichkeit, dass eine KI Kochutensilien mit Frauen verbindet. Dabei handelt es sich um den ganz normalen, unterschwelligen, alltäglichen, sexistischen Wahnsinn, den wir produzieren.

Das Gorilla-, wie auch das Mann-beim-Kochen-Problem sind zwei augenfällige Beispiele für die Möglichkeit, dass KI unsere Fehler reproduziert und letztlich verstärkt. Die Technologie steckt noch in den Kinderschuhen, die Anwendungen sind weitreichend aber simpel.
Es wird komplexere KIs geben, komplexere Traningsprogramme und noch lange Menschen, die dafür die Verantwortung tragen. Aus der Psychologie wissen wir, dass Menschen Vorurteile zwar abbauen können aber kein Mensch ohne Unconscious Bias auskommt. Sie sind normaler Bestandteil der Hirnfunktion, deren Wirkung wir punktuell verändern können.

Deshalb ist es nötig, dass in den Entwicklerteams endlich mehr Menschen Platz haben, die die Unconscious Bias der anderen bemerken und kompensieren können.

Das heißt, solange Diversity in den Entwicklerteams nicht umgesetzt wird, wird KI immer wieder diversitybedingte Fehler machen und damit einfach nicht die Qualität haben, dir wir brauchen.