Green IT als Komponente sozialer Nachhaltigkeit

Versicherer sind auch im Bereich ihrer IT-Infrastruktur angehalten, nachhaltige Praktiken zu ergreifen. Der Ansatz „Green IT“ bietet neben ökologischen auch ökonomische Vorteile − zeigt allerdings ebenso Herausforderungen auf, beispielsweise wenn es um die soziale Komponente von Nachhaltigkeit geht. Im Interview sprechen wir mit Jenny Cheng und Anjie Guo, beide von der VKBit GmbH, genau über diesen Schwerpunkt. Die beiden Expertinnen erläutern, weshalb beim Einsatz von KI auch vor dem Hintergrund des EU AI Acts ein möglicher Bias, eine systematische und zu Diskriminierung führende Verzerrung der Analyse und Ergebnisse, mitgedacht werden muss. Im Beitrag erhaltet ihr außerdem einen Einblick, wie sogenannte „Explainable AI" in diesem Fall entgegensteuernd eingesetzt werden kann.

Typ:
Blogartikel
Rubrik:
Analytik & IT
Themen:
Green IT KI / AI / Künstliche Intelligenz Social (S)
Green IT als Komponente sozialer Nachhaltigkeit

 

Worum handelt es sich bei einem AI Bias?

Anjie Guo:

Unter einem Bias versteht man generell eine Art systematischen Fehler, der zu Verzerrungen oder gar fehlerhaften Ergebnissen führen kann. Das kann nicht nur im Bereich KI oder Maschinellem Lernen oder der Statistik, sondern auch bei Menschen auftreten. Daher finde ich den Begriff AI Bias manchmal etwas irreführend, weil er zu dem Gedanken verleitet, dass dieses Problem nur die KI betrifft.

Ein mahnendes Beispiel für Maschinellen Bias ist das COMPAS (Correctional Offender Management Profiling for Alternative Sanctions) System aus dem Justizwesen der USA. Dort wurde ein Computerprogramm eingeführt, was die Rückfallgefährdung von Angeklagten vorhersagen soll. Dieses Programm sagte bei Schwarzen Angeklagten deutlich häufiger fälschlicherweise ein höheres Rückfallrisiko vorher, wohingegen bei weißen Angeklagten häufiger fälschlicherweise ein geringes Rückfallrisiko vorhergesagt wurde. Man darf aber nicht vergessen, dass fehlerhafte Entscheidungen aufgrund von Bias sowohl von Maschinen als auch von Menschen getroffen werden können.

 

Der AI Act bringt neue regulatorische Herausforderungen für den Einsatz von KI in Versicherungen mit sich. Wie können sich Versicherer jetzt vorbereiten?

Jenny Cheng:

Überall wo Technologie verantwortungsvoll und pflichtbewusst eingesetzt werden muss, ist ein interdisziplinäres Miteinander und gemeinsames Aufschlauen innerhalb der Firma wichtig. Einerseits setzen wir uns in unseren Data Science und Data Engineering Teams intensiv dem Inhalt des AI Acts auseinander, andererseits versuchen wir proaktiv gemeinsam mit unseren Governances eine für alle Seiten akzeptierte KI-Richtlinie zu definieren.

Wichtig ist aus Sicht von Datenschutz, Recht, IT, etc. zu verstehen, was im Rahmen des AI Acts möglich ist − und nicht daraus zu lesen, was nicht möglich ist. Dieses gemeinsame Verständnis für alle Seiten zu schaffen, ist die Kunst.

Der AI Act ist nämlich im Kern seiner Aussage kein rein juristischer oder technischer, sondern ein ethischer Diskurs und wir als Versicherer sollten verantwortungsvoll KI Services gegenüber unseren Kund*innen aber auch Kolleg*innen einsetzen. Es gilt das Brotmesserprinzip – das Brotmesser zu erfinden ist nicht das Problem. Ob man das Brotmesser wirklich nur fürs Brotschneiden oder etwas Gefährlicheres verwendet, sollte man sich gut überlegen.

Explainable AI wird als Lösung zur Bekämpfung des AI Bias vorgeschlagen. Könnt ihr an einem konkreten Beispiel aus eurer Arbeit bei der VKBit GmbH beschreiben, wie das funktionieren kann?

Anjie Guo:

Explainable AI ist ein Werkzeug, um Bias in KI Modellen aufzudecken. Es ist aber nicht zwingend die Lösung. Wir haben für die Entwicklung von KI-Use-Cases Standardverfahren aufgesetzt, um sicherzustellen, dass wir keine Modelle mit Bias entwickeln. Diese Standards helfen uns dabei, potenziellen Bias auf Daten-, Modell- und Ergebnisebene frühzeitig aufzudecken.

Zunächst werden während der explorativen Datenanalyse die Daten auf potenziellen Bias bei geschützten Merkmalen analysiert. Wenn ein Datensatz deutlich mehr Frauen als Männer aufweist, könnte das ein Hinweis sein, dass aufgrund eines Messfehlers ein gewisser Bias in den Daten vorhanden ist. Um das Modell zu analysieren, verwenden wir XAI Methoden wie z. B. SHAP und können dadurch verstehen, welche Merkmale eine besonders hohe Vorhersagekraft haben. In diesem Schritt könnte auffallen, dass das z. B. das Alter entscheidend für das Modell ist. Es bleibt aber immer noch Aufgabe aller Verantwortlichen zu prüfen, ob die hohe Relevanz des Alters in diesem Fall relevant und ethisch vertretbar ist. Zuletzt werten wir die Ergebnisse des Modells aus. Indem wir die Genauigkeit für verschiedene Untergruppen analysieren, würde uns ein Bias wie au dem COMPAS Beispiel spätestens hier auffallen.

Trotz des Risikos von mit Bias behafteten KI-Modellen kann die Datenerhebung und Analyse der Daten im Rahmen des KI Hypes dazu beitragen, systematischen Bias in vielen Bereichen der Gesellschaft aufzudecken.

Wir freuen uns, dass Jenny Cheng und Anjie Guo als Referierende bei unserem Fokustag Green IT am 7. und 8. Oktober 2024 in Leipzig zu Gast sein werden.

Vielen Dank für das Interview!

 

Der Fokustag richtet sich an Fach- und Führungskräfte aus den Bereichen IT/Cloud Computing, Nachhaltigkeit/ESG, Einkauf/Beschaffung sowie auch Betriebsorganisation und Prozessmanagement, Strategie und Compliance.

Themenschwerpunkte:

  • Definition und Ausprägung von Green IT
  • Hardware Lifecycle Management
  • Sustainable Software Engineering
  • Nachhaltige Rechenzentren und Cloud Services
  • Aktuelle Trends und zukünftige Entwicklungen

Hier findet Ihr weitere Informationen zur Agenda und zum Programm:
Fokustag Green IT 2024 | Versicherungsforen Leipzig