3 min
Lesezeit

Die voreingenommene Maschine
Trainingsdaten spielen eine entscheidende Rolle bei der Entwicklung von KI-Systemen, können aber auch unbeabsichtigt Vorurteile und Diskriminierung verstärken. Denn die Daten, die sie aus Büchern, dem Internet oder Social Media beziehen, enthalten Stereotype und Vorurteile. Das ist ein Problem, dem sich Eva Gengler annimmt: Sie forscht an der Friedrich-Alexander-Universität in Erlangen-Nürnberg zu Menschenrechten im Zeitalter der KI. Im Interview spricht sie darüber, wie KI-Systeme gerechter gestaltet werden können und wie das Einfluss auf die Gesellschaft nehmen kann. | Interview: Mareike Scharmacher-Wellmann
Wirtschaftsspiegel: Frau Gengler, Sie haben den Begriff feministische KI geprägt. Was bedeutet das?
Mit ihrer Forschung an der Friedrich-Alexander-Universität will Eva Gengler verhindern, dass KI-Systeme bestehende Vorurteile reproduzieren.
Wirtschaftsspiegel: In welchen Branchen kommt es zu Diskriminierungen?
Gengler: Diskriminierung durch KI sehen wir überall. Studien zeigen, dass Algorithmen im Gesundheitswesen bei der Erkennung von Krankheiten Schwarze Patient:innen systematisch benachteiligen, weil sie oft auf verzerrten Datensätzen trainiert wurden. In der Finanzbranche werden Kreditanträge von Frauen häufiger abgelehnt, weil KI-Modelle auf historischen Daten basieren, die genderspezifische Vorurteile und die Vergangenheit der Finanzbranche widerspiegeln. Es geht mir in meiner Forschung darum zu verstehen, warum das so ist und Lösungen zu entwickeln. Darum habe ich gemeinsam mit Andreas Gengler die Organisations- und IT-Beratung enableYou gegründet. Wir müssen auch bei den Menschen ansetzen, die Einfluss auf KI haben.
Gengler: Wir müssen erkennen, dass KI-Systeme ein Spiegel dessen sind, was wir in der Vergangenheit entschieden und priorisiert haben. Der Grund der Diskriminierung liegt nicht in der Technik, sondern in der Gesellschaft begründet. Wir müssen Menschen fortbilden, reflektieren und umdenken lassen. Wir müssen mehr Diversität in unsere Entscheidungsprozesse integrieren. Wir müssen hinterfragen, welche Datensätze ins Training von KI einfließen, welche Muster in ihnen stecken und ob wir das abbilden wollen, was in den Daten steckt. Auch das Design von KI-Systemen müssen wir gerechter machen.
Wirtschaftsspiegel: Was empfehlen Sie Unternehmen, die KI-Anwendungen gerechter nutzen wollen?
Gengler: KI sollte ein Werkzeug sein, um Probleme zu beheben und Macht gerechter zu verteilen. Darum sollten Unternehmen beim Einkauf auf Diversity-Gesichtspunkte achten. Dies wird auch im Kontext der neuen europäischen KI-Regulierung immer wichtiger. Außerdem empfehle ich ein Gremium der Vielfalt, das bei Entscheidungen rund um KI einbezogen wird.
Darüber hinaus sollten Geschäftsführer:innen eine KI-Strategie entwickeln – am besten unter Einbeziehung der Belegschaft und Betroffener von KI-Systemen. Die Strategie muss transparent kommuniziert und Weiterbildungsformate etabliert werden. Frauen nutzen generative KI-Systeme weitaus weniger als Männer, generell und im Arbeitskontext. Darum sollten Unternehmen explizit Angebote für Frauen schaffen.
- Zur Person: Eva Gengler
Eva Gengler hat Wirtschaftswissenschaften mit BWL-Schwerpunkt studiert und ihren Master in International Information Systems an der Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU) gemacht. Im Anschluss war sie in der Strategie- und IT-Beratung tätig. Seit November 2021 ist sie Doktorandin am Schöller-Stiftungslehrstuhl für Wirtschaftsinformatik an der FAU.Sie ist Co-Founderin und Geschäftsführerin von enableYou, einer Organisations- und IT-Beratung aus Neunkirchen am Brand in Bayern, sowie Co-Founderin von feminist AI, einer Initiative und Community, spezialisiert auf gerechtere KI. Außerdem engagiert sie sich ehrenamtlich als Rolemodel von BayFiD, einem Netzwerk für Frauen in der Digitalisierung in Bayern, als Mentorin bei EXIST Women und in Projekten beim Verein erfolgsfaktor FRAU e.V.
Kontakt
Redaktion Wirtschaftsspiegel