Ist es Bias, wenn Chatbots rassistisch antworten?
Ja — oft schon, aber nicht immer ausschließlich.
In der KI bezeichnet „Bias" allgemein eine systematische Verzerrung. Wenn ein Chatbot rassistische Antworten erzeugt, kann das verschiedene Ursachen haben:
| Ursache | Beispiel |
|---|---|
| Trainingsdaten-Bias | Das Modell hat viele stereotype Texte gelernt |
| Gesellschaftlicher Bias | Vorurteile aus realen Daten werden übernommen |
| Prompt-Manipulation | Nutzer provozieren absichtlich problematische Antworten |
| Fehlende Sicherheitsfilter | Moderation greift nicht ausreichend |
| Kontextfehler | Ironie, Zitate oder Diskussionen werden falsch verstanden |
Wenn ein Modell bestimmte Gruppen systematisch negativer beschreibt oder stereotypisiert. Das kann entstehen, weil:
Das Thema ist ein großes Forschungsfeld in Machine Learning und AI Ethics.