3 Typen von KI-Bias
Von strategischen Entscheidungen im Beruf bis hin zu der Vergabe von Studienplätzen – Benachteiligung durch KI kann in einer Vielzahl von Anwendungen zu Problemen führen. Dabei lassen sich verschiedene Arten von KI-Bias unterscheiden.
1. Daten-Bias und Stereotypisierung
KI-Programme lernen aus Daten, doch einige Datensätze bilden nicht die Realität in ihrer ganzen Vielfalt ab. Stattdessen spiegeln sie häufig menschliche Entscheidungen wider, die in der Vergangenheit gewisse Personengruppen benachteiligt haben. Werden Vorurteile und Stereotype über Datensätze an die KI übertragen, spricht man von Daten-Bias.
Beispielsweise sind bestimmte menschliche Eigenschaften in Datensätzen häufig unterrepräsentiert. So gibt es Gesichtserkennungssysteme, die überwiegend Fotos von hellhäutigen Menschen zum Training verwenden. Daraus folgt, dass die KI später bei der Gesichtserkennung von dunkelhäutigen Menschen ungenau arbeitet und sie benachteiligt.
2. Algorithmus-Bias
Auch der Algorithmus selbst kann einen Bias bzw. eine Verzerrung verursachen – und zwar unabhängig von den Trainingsdaten. Durch sich wiederholende Fehler im System können einzelne Gesellschaftsgruppen systematisch benachteiligt werden. Das Risiko von einer Diskriminierung durch Künstliche Intelligenz ist besonders hoch, wenn das System vor der Anwendung nicht ausreichend getestet wurde. Ein Beispiel ist ein Recruiting-Tool, das Nachwuchskräfte nach der Schulausbildung filtert und somit die Chancen von Menschen mit niedrigem sozioökonomischem Status verschlechtert.
3. Menschliche Bias und KI
KI wird von Menschen entwickelt. Daraus folgt logischerweise: Die unbewussten Vorurteile (Unconscious Bias) von Menschen können in die Gestaltung der Künstlichen Intelligenz einfließen. Wenn KI-Technologien von einer homogenen Gruppe von Programmierern entwickelt werden, ist das Risiko einer KI-Bias besonders hoch, da die Entwickler Vorurteile in den Daten mitunter nicht wahrnehmen. So kann es beispielsweise vorkommen, dass Entwickler eines KI-gestützten Systems zur Bewerberauswahl die Bedürfnisse von Menschen mit Behinderung nicht berücksichtigt.