2 Min. Lesezeit

Faire, gute KI?

Faire, gute KI?

Künstliche Intelligenz soll den Menschen unterstützen. Ob das nun in der Fabrik beim Schrauben zählen ist, oder ob sie dem Chefarzt bei einer komplizierten OP assistiert. Doch diese unterschiedlichen Einsatzbereiche haben enorm unterschiedliche Anforderungen an die KI. Die ethischen Grundsätze sind auch weltweit unterschiedlich. Also was heißt denn eigentlich Fairness? Und wo beginnt Diskriminierung und Gerechtigkeit? Die KI soll schon nach unseren Werten handeln, dafür muss sie trainiert werden- doch vorher muss man diese Werte definieren.

“Wenn man sich die Fairness-Debatte rund um Künstliche Intelligenz mal anschaut, wurde in einem ganz spannenden Papier von Kleinberg festgestellt, das, was wir so objektiv Fairness nennen, sich teilweise widerspricht” – Marc Hauer, Tobias Krafft

Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern, spezialisiert auf die Gestaltung verantwortungsvoller KI-Systeme. Er leitet den DIN SPEC Arbeitskreis “Fairness von KI in Finanzdienstleistungen” und ist freiberuflich als Fachreferent und Berater im Bereich Algorithmen und KI tätig.

Tobias D. Krafft ist Doktorand im Bereich “Algorithm Accountability” an der TU Kaiserslautern und Geschäftsführer der Trusted AI GmbH, fokussiert auf Blackbox-Analysen und KI-Regulierung. Er leitet die DIN-Arbeitsgruppe „Ethik/Responsible AI“ und erhielt 2017 den Weizenbaumpreis für seine Forschungen im gesellschaftlichen Kontext von KI. Zudem engagiert er sich in der Gesellschaft für Informatik für den Studiengang Sozioinformatik.

Highlights in dieser Episode:

  • Wir sprechen über das Thema faire KI und wie man Fairness bewerten kann
  • Marc und Tobias erklären, dass Fairness in der KI nicht nur ein technisches, sondern auch ein ethisches und soziales Thema ist
  • Sie stellen eine Methodik vor, die aus dem Safety Engineering adaptiert wurde, um Fairness in KI-Systemen zu bewerten
  • Die Bedeutung von Transparenz und der Einbeziehung von Stakeholdern wird hervorgehoben
  • Es wird diskutiert, wie wichtig es ist, KI-Systeme auf Fairness zu testen und zu überprüfen
  • Die Herausforderungen und die Notwendigkeit, die richtigen Stakeholder einzubeziehen, werden angesprochen
  • Die Vision eines Open-Source-Ansatzes für die Entwicklung und Bewertung von fairen KI-Systemen wird geteilt

Weiterführende Links:

Faire KI: Ein Wegweiser für ethische Technologie

Heute spreche ich mit Marc Hauer und Tobias Krafft über das Konzept einer fairen KI und wie man Fairness in diesem Kontext operationalisieren kann. Wir erkunden, wie ein Assurance Case Framework helfen kann, Fairness in KI-Systemen zu gewährleisten und warum die Einbeziehung von Stakeholdern entscheidend ist.

Die Grundlage für faire KI

In dieser Folge werfe ich gemeinsam mit meinen Gästen Marc Hauer und Tobias Krafft einen kritischen Blick auf das Thema der fairen künstlichen Intelligenz (KI). Was bedeutet es eigentlich, wenn wir von ‘fairer KI’ sprechen? Diese Frage ist besonders relevant, da KI immer mehr Bereiche unseres Lebens durchdringt. Die beiden Experten erörtern, dass Fairness in der KI nicht nur ein Qualitätsmerkmal darstellt, sondern auch tiefgreifende soziale und ethische Dimensionen hat.

Operationalisierung von Fairness

Tobias erklärt, dass die Herausforderung bei der Bewertung von Fairness darin besteht, objektive Maße zu finden, um subjektive Konzepte zu quantifizieren. Die gängige Praxis basiert auf dem Vergleich qualitativer Maße zwischen verschiedenen sensiblen Gruppen. Doch selbst diese Ansätze haben ihre Grenzen und führen oftmals zu komplexen Debatten über deren korrekte Anwendung und Interpretation.

Die Rolle des Assurance Case Frameworks

Eine spannende Entwicklung im Bestreben nach fairer KI ist die Anwendung des Assurance Case Frameworks. Ursprünglich aus dem Safety Engineering stammend, bietet dieses Framework eine strukturierte Methode zur Argumentation und Validierung von Sicherheits- oder in diesem Fall Fairnessbehauptungen. Durch schrittweise Verfeinerung werden Haupt- und Teilbehauptungen aufgestellt, die letztlich durch Beweise gestützt werden müssen. Dieser Prozess ermöglicht nicht nur eine tiefere Reflexion über die gestellten Anforderungen, sondern auch eine transparentere Kommunikation gegenüber Stakeholdern.

Fairness als kollektives Unterfangen

Ein Schlüsselelement bei der Gestaltung fairer KI-Systeme ist die Einbeziehung verschiedener Stakeholder. Die Definition dessen, was als ‘fair’ gilt, kann stark variieren und hängt oft von den Perspektiven und Bedürfnissen der beteiligten Parteien ab. Durch Workshops und Diskussionen mit diesen Gruppen können relevante Fairness-Maße identifiziert und in testbare Anforderungen übersetzt werden.

Die Zukunft fairer KI

Während Marc und Tobias zugeben, dass das Konzept einer vollkommen fairen KI vielleicht eine Idealvorstellung bleibt, betonen sie die Wichtigkeit fortlaufender Diskussionen und Verbesserungen in diesem Bereich. Insbesondere die Rolle von Open-Source-Initiativen und Community-getriebenen Projekten könnte zukünftig dabei helfen, breit akzeptierte Standards für faire KI zu etablieren.

Qualitätssicherung von KI

Qualitätssicherung von KI

KI hat uns einiges zu bieten. Unsere Phantasie ist gefragt: Wo setzen wir sie ein? Was soll sie leisten? Wie soll sie arbeiten? Völlig egal, welcher...

Weiterlesen
KI Testen – eine Checkliste

KI Testen – eine Checkliste

Welche Fragen sollten beim Testen von KI gestellt werden und was können Tester von Data Scientists lernen? Marco Achtziger und Gregor Endler geben...

Weiterlesen
Barrierefreiheitstests

Barrierefreiheitstests

Barrierefreiheit in der Software-Entwicklung ist nicht nur eine rechtliche Anforderung, sondern auch ein Zeichen von Qualität und Nutzerorientierung....

Weiterlesen