top of page

KI und Chancengleichheit: Ein Einblick über gesellschaftlichen Normen und Biases



Kürzlich habe ich ChatGPT gefragt: «Was ist eine gute Startup Idee für eine 45jährige Frauohne Startkapital?»


ChatGPT schlug vor: «Wenn Sie über Fachkenntnisse in einem bestimmten Bereich

verfügen, z.B. Karriereberatung, Lebensberatung, Gesundheits- und Wellnessberatung,

könnten Sie eine Online-Beratungs- oder Coaching-Dienstleistung anbieten.»

Ich habe dann auch noch so gefragt: «Was ist eine gute Startup Idee für einen 45jährigen

Mann ohne Startkapital?»

Ihr ahnt es vielleicht. Die Antwort war: «Nutzen Sie Ihr Fachwissen und Ihre Erfahrung in

Ihrer Branche, um eine Beratungsfirma zu gründen. Dies könnte in Bereichen wie

Management, Finanzen, IT oder Bildung sein. Die Nachfrage nach spezialisierten Beratern

ist oft hoch, und Ihr persönliches Netzwerk könnte ein guter Ausgangspunkt für die

Kundenakquise sein.»


Diese Unterschiede rühren daher, dass KI-Systeme wie ChatGPT von den Daten im Internet

lernen. Diese Daten spiegeln unsere gesellschaftlichen Normen und Biases wider. Mehr

Männer als Frauen sind in Sektoren wie IT und Finanzen tätig, und das beeinflusst die

Antworten der KI.


Problem oder Symptom?

Einige sagen vielleicht, dass eine KI, die unsere Realität widerspiegelt, kein echtes Problem

darstellt. Doch wenn solche Systeme unreflektiert eingesetzt werden, können bestehende

Ungleichheiten und Stereotypen weiter verstärkt werden. Konkret könnte es dazu führen,

dass der Gender Pay Gap zwischen den Geschlechtern noch einmal verstärkt wird. Denn mit

den Bereichen, die dem Mann vorgeschlagen werden, lässt sich mehr Geld verdienen als mit den Vorschlägen für die Frau.


Lösungsansätze

Was können wir konkret tun, um Biases in KI zu mindern bzw. Chancengleichheit zu fördern?

Laut Nicola Marsden, Hochschule Heilbronn, und Londa Schiebinger, Stanford University,

können wir auf mehreren Dimensionen ansetzen:


1. Produkt


Es ist hilfreich zu verstehen, auf welchen Daten KI-Systeme basieren und wie diese Daten

genutzt werden. KIs können trainiert werden, um gängige Vorurteile zu "entlernen."


ChatGPT ist im Wesentlichen mit den Daten des Internets gefüttert. Die Antworten, die das

System auf eine Frage gibt, basieren auf Wahrscheinlichkeiten: D.h. das System schaut sich

alle vorhandenen Daten an und prüft für seine Antwort, welches Wort am wahrscheinlichsten auf das vorangegangene Wort folgt. Beim Maschinellen Lernen spielen sogenannte «word embeddings» – Worteinbettungen – eine grosse Rolle. Diese erfassen Assoziationen zwischen Wörtern. Sie ergeben eine stärkere Verbindung bei Wortpaaren, die öfter zusammen genannt werden. Und eine schwächere bei Wortpaaren, die weniger oft

zusammen genannt werden. Da die Daten von ChatGPT bei den Wortpaaren «Frau» und

«Wellness» eine stärkere Verbindung erkennen als bei «Frau» und «Finanzen», bekomme

ich die obigen Antworten.


Informatiker*innen können natürlich einen Algorithmus programmieren, der diese

Worteinbettungen entzerrt und die Wörter «Frau» und «Finanzen» sowie «Mann» und

«Wellness» quasi näher zusammenschiebt. Dies wird auch bereits gemacht. Aber es ist gar

nicht so einfach, bestehende Verbindungen innerhalb der Systeme so nachzubearbeiten,

damit sie unvoreingenommen und fair sind. Das hat sich kürzlich beim Bildgeneratormodell

«Gemini» von Google gezeigt: wenn man nach einem Bild eines deutschen Soldaten aus

dem Jahr 1943 fragte, wurde eine schwarze Person in NS-Uniform dargestellt. Hier wurde

der entzerrende Algorithmus vor dem Release nicht auf die Funktionstüchtigkeit bei

historischen Daten getestet.


2. Gesellschaft


Die Daten im Internet bilden unsere Gesellschaft ab. Beziehungsweise bilden sie die

Gesellschaft leider eher noch verzerrter ab als sie sowieso schon ist. Wikipedia ist eine der

am meisten genutzten Webseiten der Welt. Allerdings machen Frauenbiografien weniger als 20% der biografischen Berichterstattung aus. Dies könnte damit zusammenhängen, dass nur rund 16% der Autor*innen von Wikipedia Frauen sind (Angaben Stand Februar 2024). Auf unser Beispiel angewendet könnte es also sein, dass die Wörter «Frau» und «Finanzen» in der Realität gar nicht so weit voneinander entfernt sind wie das System aus den Daten im Internet gelernt hat.


Deshalb ist es wichtig, dass viele unterschiedliche Personen Generative KI-Systeme nutzen.

Denn durch ihren Input und ihr Feedback lernen die Systeme. Dadurch wird auch der Druck

erhöht, sich Gedanken zu machen über sinnvolle diversitäts-sensible Algorithmen.

Selbstverständlich kommt hier der Politik und dem Gesetzgeber auch eine wichtige Rolle zu.

Sie handeln Rahmenbedingungen aus und setzen Gesetze um, innerhalb derer sich KI-

Systeme zu bewegen haben. So geschehen im EU AI Act.


3. Entwicklungsteam


Vielfältige Teams können vielfältigere und gerechtere KI-Produkte schaffen. Solche

interdisziplinären Teams können dann Fragen besser beantworten wie «Welche Definition

von Fairness soll bei der Entwicklung eines Produkts zugrunde liegen?» oder «Wie können

wir den Algorithmus so programmieren, dass diese Definition von Fairness reproduziert

wird?».

Einige Organisationen halten auch bereits fest, dass KI-Projekte von einem Ethikbeirat

begleitet werden und alle wichtigen Stakeholder miteinbezogen werden sollen. So will man

sicherstellen, dass die Projekte im Einklang mit gesellschaftlichen Werten stehen.


4. Prozesse


Der Entwicklungsprozess eines KI-Produkts sollte untersuchen, wer von dem Produkt

profitieren wird und welche Nebenwirkungen auftreten könnten.

In unserem Beispiel könnte es interessant sein zu schauen, welche Antworten ChatGPT in

anderen Sprachen ausspuckt. Denn das LLM ist nicht auf alle Sprachen gleich gut trainiert.

Natürlich besteht ein Gefälle von wirtschaftlich relevanten zu wirtschaftlich weniger

relevanten Sprachen. Bei Feedbackschlaufen ist es wichtig, sich gut zu überlegen, wen ich

einbeziehe. Wenn ich die Partizipation nicht gut steuere, besteht die Gefahr, marginalisierte

Gruppen zu übergehen und dadurch bestehende Biases in der Testphase nicht aufzudecken.


Abschlussgedanken


Diese vier Dimensionen sind ineinander verwoben und beeinflussen sich gegenseitig. Jede

der Dimensionen kann dazu beitragen, dass Chancengleichheit in allen Dimensionen

verstärkt oder eben auch vermindert werden kann. KI Systeme haben das Potential,

gesellschaftliche Ungleichheiten zu vermindern. Allerdings nur, wenn die anderen

Dimensionen auch mitspielen und die Systeme mit einem Fokus auf Menschlichkeit und

Fairness entwickelt und eingesetzt werden.


Zum Weiter vertiefen:



Natalie ist Beraterin für Chancengerechtigkeit und Inklusion. LinkedIn

57 Ansichten

Aktuelle Beiträge

Alle ansehen

Comments


bottom of page