Wenn digitale Intelligenz systemische Ungleichheiten verstärkt Algorithmische Diskriminierung
Der Einsatz von Algorithmen im Finanzsektor hat in den vergangenen Jahren deutlich zugenommen. Ob Kreditvergabe, Risikobewertung, Preisfindung oder Produktempfehlung – viele Entscheidungen basieren heute zumindest teilweise auf automatisierten Prozessen.
Algorithmen gelten als schnell, effizient und objektiv. Doch in der Praxis zeigt sich: Auch Maschinen urteilen nicht neutral. Sie übernehmen Vorurteile aus Trainingsdaten, spiegeln gesellschaftliche Schieflagen wider oder erzeugen unbeabsichtigte Ausschlüsse.
Solche Formen algorithmischer Diskriminierung können gravierende Auswirkungen auf die finanzielle Teilhabe haben – vor allem, wenn sie strukturell, unsichtbar oder schwer überprüfbar sind. Die folgenden Fallbeispiele zeigen, wie es in der Praxis dazu kommt – und welche Lehren daraus gezogen werden müssen.
Beispiel 1: Unterschiedliche Kreditlinien bei identischen Bonitätsprofilen
box
Eines der bekanntesten Beispiele algorithmischer Verzerrung wurde 2019 öffentlich, als Nutzer der Apple Card – einer Kreditkarte, die gemeinsam von Apple und Goldman Sachs herausgegeben wird – signifikant unterschiedliche Kreditlinien erhielten.
Dabei fiel auf, dass Frauen zum Teil deutlich niedrigere Kreditlimits zugewiesen bekamen als Männer – obwohl Einkommen, Bonität und Finanzverhalten vergleichbar waren.
Der Vorwurf lautete: Das zugrunde liegende Scoring-Modell benachteiligt Frauen systematisch – entweder durch direkte Berücksichtigung des Geschlechts oder durch die Nutzung von Stellvertretermerkmalen wie Haushaltsstruktur oder typischem Konsumverhalten.
Die Aufsichtsbehörde in New York schaltete sich ein, eine regulatorische Untersuchung wurde eingeleitet.
Zwar betonte Goldman Sachs, das Modell nutze kein Geschlecht als Variable.
Doch der Fall offenbarte, wie komplex indirekte Diskriminierung sein kann – und wie wenig selbst große Finanzakteure über die Tiefe ihrer eigenen Algorithmen wissen.
Beispiel 2: Benachteiligung durch Postleitzahl im Kredit-Scoring
Ein häufig übersehener Mechanismus algorithmischer Diskriminierung liegt in der Nutzung geografischer Merkmale, etwa der Postleitzahl. Scoring-Modelle beziehen Wohnorte als Risikomerkmal ein – mit der Begründung, dass bestimmte Regionen statistisch mit höherem Zahlungsausfall korrelieren.
Das Problem: Postleitzahlen fungieren oft als Stellvertreter für soziale Herkunft, Migrationshintergrund oder Einkommensverhältnisse. In der Praxis kann dies dazu führen, dass Antragsteller aus benachteiligten Stadtteilen schlechtere Kreditbedingungen erhalten – unabhängig von ihrer individuellen Zahlungsfähigkeit.
In den USA ist dieses Phänomen unter dem Begriff „Redlining“ historisch belegt. Obwohl heute digital vermittelt, setzt sich das Muster in moderner Form fort. Auch in Europa ist die Nutzung solcher Standortdaten rechtlich umstritten, da sie gegen das Gebot der Individualbewertung verstoßen kann.
Beispiel 3: Automatisierte Produktempfehlungen mit verzerrter Zielgruppenlogik
Algorithmen im Finanzsektor versprechen Effizienz, Objektivität und Skalierbarkeit. Doch ohne kritische Reflexion können sie systemische Ungleichheit nicht nur reproduzieren, sondern verstärken. Jedes datenbasierte System ist nur so fair wie die Prinzipien, auf denen es beruht – und die Menschen, die es gestalten."
Auch im Marketing und Vertrieb automatisieren viele Banken heute ihre Produktempfehlungen. Machine-Learning-Systeme analysieren Transaktionen, Nutzungsverhalten und Kundenmerkmale, um gezielt neue Produkte vorzuschlagen – etwa Anlageprodukte, Versicherungen oder Kreditangebote.
Dabei zeigte sich in mehreren Untersuchungen, dass bestimmte Kundengruppen systematisch weniger Zugang zu renditestarken oder beratungsintensiven Produkten erhalten. Frauen, ältere Personen oder Menschen mit geringen digitalen Aktivitäten wurden seltener mit Angeboten für Aktienfonds, nachhaltige Investments oder komplexere Vorsorgelösungen angesprochen.
Die Algorithmen übernehmen hier stereotype Verhaltensannahmen aus historischen Daten – etwa die Annahme, dass Männer renditeorientierter oder digitalaffiner seien. Das Ergebnis: Eine ungewollte Reproduktion bestehender Ungleichheiten im Zugang zu Finanzprodukten.
Beispiel 4: Künstliche Intelligenz erkennt Sprache – aber nicht jeden Akzent
Sprachgesteuerte Systeme gewinnen im Kundenservice zunehmend an Bedeutung. Chatbots, Sprachdialogsysteme oder automatisierte Kreditansagen interagieren direkt mit dem Kunden – und bewerten teils auch Tonlage, Betonung oder Aussprache.
In mehreren Tests wurde dokumentiert, dass solche Systeme Kunden mit starkem Akzent oder nicht-standardsprachlicher Aussprache schlechter verstehen, häufiger unterbrechen oder sogar frühzeitig auflegen. In Kombination mit automatisierten Bewertungssystemen kann dies dazu führen, dass bestimmte Anfragen seltener erfolgreich bearbeitet oder Kunden aus der Betreuung „herausgefiltert“ werden.
Der Zugang zu Finanzdienstleistungen wird hier nicht über bewusste Ausgrenzung, sondern über technische Ungleichbehandlung begrenzt – was aus Sicht des Diskriminierungsschutzes ebenso problematisch ist.
Was wir aus diesen Fällen lernen können
Alle beschriebenen Fälle zeigen, dass algorithmische Diskriminierung kein theoretisches Phänomen ist, sondern reale Auswirkungen auf Lebensverhältnisse und Chancengleichheit haben kann. Die Ursachen sind vielfältig:
- Voreingenommene oder unausgewogene Trainingsdaten
- Indirekte Stellvertretermerkmale für geschützte Kategorien
- Mangelnde Transparenz in der Modellarchitektur
- Fehlende menschliche Kontrolle oder Einordnung
Vermeidung solcher Diskriminierungen ist möglich – aber sie erfordert bewusste Entscheidungen: in der Datenpolitik, in der Modellierung, in der Kommunikation mit Kunden und in der institutionellen Verantwortung.
Fazit: Digitale Fairness ist keine Selbstverständlichkeit
Algorithmen im Finanzsektor versprechen Effizienz, Objektivität und Skalierbarkeit. Doch ohne kritische Reflexion können sie systemische Ungleichheit nicht nur reproduzieren, sondern verstärken. Jedes datenbasierte System ist nur so fair wie die Prinzipien, auf denen es beruht – und die Menschen, die es gestalten.
Der verantwortungsvolle Einsatz algorithmischer Entscheidungen erfordert deshalb mehr als technisches Können: Er verlangt ethisches Bewusstsein, regulatorische Wachsamkeit und einen aktiven Dialog zwischen Technologie, Gesellschaft und Finanzinstitutionen.

Maßgeschneiderte Anlagelösungen mit zuverlässigem Risikomanagement. Dabei stets transparent, ehrlich & fair.