Kürzlich habe ich ChatGPT gefragt: «Was ist eine gute Startup Idee für eine 45jährige Frauohne Startkapital?»
ChatGPT schlug vor: «Wenn Sie über Fachkenntnisse in einem bestimmten Bereich
verfügen, z.B. Karriereberatung, Lebensberatung, Gesundheits- und Wellnessberatung,
könnten Sie eine Online-Beratungs- oder Coaching-Dienstleistung anbieten.»
Ich habe dann auch noch so gefragt: «Was ist eine gute Startup Idee für einen 45jährigen
Mann ohne Startkapital?»
Ihr ahnt es vielleicht. Die Antwort war: «Nutzen Sie Ihr Fachwissen und Ihre Erfahrung in
Ihrer Branche, um eine Beratungsfirma zu gründen. Dies könnte in Bereichen wie
Management, Finanzen, IT oder Bildung sein. Die Nachfrage nach spezialisierten Beratern
ist oft hoch, und Ihr persönliches Netzwerk könnte ein guter Ausgangspunkt für die
Kundenakquise sein.»
Diese Unterschiede rühren daher, dass KI-Systeme wie ChatGPT von den Daten im Internet
lernen. Diese Daten spiegeln unsere gesellschaftlichen Normen und Biases wider. Mehr
Männer als Frauen sind in Sektoren wie IT und Finanzen tätig, und das beeinflusst die
Antworten der KI.
Problem oder Symptom?
Einige sagen vielleicht, dass eine KI, die unsere Realität widerspiegelt, kein echtes Problem
darstellt. Doch wenn solche Systeme unreflektiert eingesetzt werden, können bestehende
Ungleichheiten und Stereotypen weiter verstärkt werden. Konkret könnte es dazu führen,
dass der Gender Pay Gap zwischen den Geschlechtern noch einmal verstärkt wird. Denn mit
den Bereichen, die dem Mann vorgeschlagen werden, lässt sich mehr Geld verdienen als mit den Vorschlägen für die Frau.
Lösungsansätze
Was können wir konkret tun, um Biases in KI zu mindern bzw. Chancengleichheit zu fördern?
Laut Nicola Marsden, Hochschule Heilbronn, und Londa Schiebinger, Stanford University,
können wir auf mehreren Dimensionen ansetzen:
1. Produkt
Es ist hilfreich zu verstehen, auf welchen Daten KI-Systeme basieren und wie diese Daten
genutzt werden. KIs können trainiert werden, um gängige Vorurteile zu "entlernen."
ChatGPT ist im Wesentlichen mit den Daten des Internets gefüttert. Die Antworten, die das
System auf eine Frage gibt, basieren auf Wahrscheinlichkeiten: D.h. das System schaut sich
alle vorhandenen Daten an und prüft für seine Antwort, welches Wort am wahrscheinlichsten auf das vorangegangene Wort folgt. Beim Maschinellen Lernen spielen sogenannte «word embeddings» – Worteinbettungen – eine grosse Rolle. Diese erfassen Assoziationen zwischen Wörtern. Sie ergeben eine stärkere Verbindung bei Wortpaaren, die öfter zusammen genannt werden. Und eine schwächere bei Wortpaaren, die weniger oft
zusammen genannt werden. Da die Daten von ChatGPT bei den Wortpaaren «Frau» und
«Wellness» eine stärkere Verbindung erkennen als bei «Frau» und «Finanzen», bekomme
ich die obigen Antworten.
Informatiker*innen können natürlich einen Algorithmus programmieren, der diese
Worteinbettungen entzerrt und die Wörter «Frau» und «Finanzen» sowie «Mann» und
«Wellness» quasi näher zusammenschiebt. Dies wird auch bereits gemacht. Aber es ist gar
nicht so einfach, bestehende Verbindungen innerhalb der Systeme so nachzubearbeiten,
damit sie unvoreingenommen und fair sind. Das hat sich kürzlich beim Bildgeneratormodell
«Gemini» von Google gezeigt: wenn man nach einem Bild eines deutschen Soldaten aus
dem Jahr 1943 fragte, wurde eine schwarze Person in NS-Uniform dargestellt. Hier wurde
der entzerrende Algorithmus vor dem Release nicht auf die Funktionstüchtigkeit bei
historischen Daten getestet.
2. Gesellschaft
Die Daten im Internet bilden unsere Gesellschaft ab. Beziehungsweise bilden sie die
Gesellschaft leider eher noch verzerrter ab als sie sowieso schon ist. Wikipedia ist eine der
am meisten genutzten Webseiten der Welt. Allerdings machen Frauenbiografien weniger als 20% der biografischen Berichterstattung aus. Dies könnte damit zusammenhängen, dass nur rund 16% der Autor*innen von Wikipedia Frauen sind (Angaben Stand Februar 2024). Auf unser Beispiel angewendet könnte es also sein, dass die Wörter «Frau» und «Finanzen» in der Realität gar nicht so weit voneinander entfernt sind wie das System aus den Daten im Internet gelernt hat.
Deshalb ist es wichtig, dass viele unterschiedliche Personen Generative KI-Systeme nutzen.
Denn durch ihren Input und ihr Feedback lernen die Systeme. Dadurch wird auch der Druck
erhöht, sich Gedanken zu machen über sinnvolle diversitäts-sensible Algorithmen.
Selbstverständlich kommt hier der Politik und dem Gesetzgeber auch eine wichtige Rolle zu.
Sie handeln Rahmenbedingungen aus und setzen Gesetze um, innerhalb derer sich KI-
Systeme zu bewegen haben. So geschehen im EU AI Act.
3. Entwicklungsteam
Vielfältige Teams können vielfältigere und gerechtere KI-Produkte schaffen. Solche
interdisziplinären Teams können dann Fragen besser beantworten wie «Welche Definition
von Fairness soll bei der Entwicklung eines Produkts zugrunde liegen?» oder «Wie können
wir den Algorithmus so programmieren, dass diese Definition von Fairness reproduziert
wird?».
Einige Organisationen halten auch bereits fest, dass KI-Projekte von einem Ethikbeirat
begleitet werden und alle wichtigen Stakeholder miteinbezogen werden sollen. So will man
sicherstellen, dass die Projekte im Einklang mit gesellschaftlichen Werten stehen.
4. Prozesse
Der Entwicklungsprozess eines KI-Produkts sollte untersuchen, wer von dem Produkt
profitieren wird und welche Nebenwirkungen auftreten könnten.
In unserem Beispiel könnte es interessant sein zu schauen, welche Antworten ChatGPT in
anderen Sprachen ausspuckt. Denn das LLM ist nicht auf alle Sprachen gleich gut trainiert.
Natürlich besteht ein Gefälle von wirtschaftlich relevanten zu wirtschaftlich weniger
relevanten Sprachen. Bei Feedbackschlaufen ist es wichtig, sich gut zu überlegen, wen ich
einbeziehe. Wenn ich die Partizipation nicht gut steuere, besteht die Gefahr, marginalisierte
Gruppen zu übergehen und dadurch bestehende Biases in der Testphase nicht aufzudecken.
Abschlussgedanken
Diese vier Dimensionen sind ineinander verwoben und beeinflussen sich gegenseitig. Jede
der Dimensionen kann dazu beitragen, dass Chancengleichheit in allen Dimensionen
verstärkt oder eben auch vermindert werden kann. KI Systeme haben das Potential,
gesellschaftliche Ungleichheiten zu vermindern. Allerdings nur, wenn die anderen
Dimensionen auch mitspielen und die Systeme mit einem Fokus auf Menschlichkeit und
Fairness entwickelt und eingesetzt werden.
Zum Weiter vertiefen:
Natalie ist Beraterin für Chancengerechtigkeit und Inklusion. LinkedIn
Comments