Qualitätssicherung von KI
KI hat uns einiges zu bieten. Unsere Phantasie ist gefragt: Wo setzen wir sie ein? Was soll sie leisten? Wie soll sie arbeiten? Völlig egal, welcher...
Künstliche Intelligenz soll den Menschen unterstützen. Ob das nun in der Fabrik beim Schrauben zählen ist, oder ob sie dem Chefarzt bei einer komplizierten OP assistiert. Doch diese unterschiedlichen Einsatzbereiche haben enorm unterschiedliche Anforderungen an die KI. Die ethischen Grundsätze sind auch weltweit unterschiedlich. Also was heißt denn eigentlich Fairness? Und wo beginnt Diskriminierung und Gerechtigkeit? Die KI soll schon nach unseren Werten handeln, dafür muss sie trainiert werden- doch vorher muss man diese Werte definieren.
“Wenn man sich die Fairness-Debatte rund um Künstliche Intelligenz mal anschaut, wurde in einem ganz spannenden Papier von Kleinberg festgestellt, das, was wir so objektiv Fairness nennen, sich teilweise widerspricht” – Marc Hauer, Tobias Krafft
Marc Hauer ist wissenschaftlicher Mitarbeiter am Algorithm Accountability Lab der RPTU Kaiserslautern, spezialisiert auf die Gestaltung verantwortungsvoller KI-Systeme. Er leitet den DIN SPEC Arbeitskreis “Fairness von KI in Finanzdienstleistungen” und ist freiberuflich als Fachreferent und Berater im Bereich Algorithmen und KI tätig.
Tobias D. Krafft ist Doktorand im Bereich “Algorithm Accountability” an der TU Kaiserslautern und Geschäftsführer der Trusted AI GmbH, fokussiert auf Blackbox-Analysen und KI-Regulierung. Er leitet die DIN-Arbeitsgruppe „Ethik/Responsible AI“ und erhielt 2017 den Weizenbaumpreis für seine Forschungen im gesellschaftlichen Kontext von KI. Zudem engagiert er sich in der Gesellschaft für Informatik für den Studiengang Sozioinformatik.
Highlights in dieser Episode:
Weiterführende Links:
Heute spreche ich mit Marc Hauer und Tobias Krafft über das Konzept einer fairen KI und wie man Fairness in diesem Kontext operationalisieren kann. Wir erkunden, wie ein Assurance Case Framework helfen kann, Fairness in KI-Systemen zu gewährleisten und warum die Einbeziehung von Stakeholdern entscheidend ist.
In dieser Folge werfe ich gemeinsam mit meinen Gästen Marc Hauer und Tobias Krafft einen kritischen Blick auf das Thema der fairen künstlichen Intelligenz (KI). Was bedeutet es eigentlich, wenn wir von ‘fairer KI’ sprechen? Diese Frage ist besonders relevant, da KI immer mehr Bereiche unseres Lebens durchdringt. Die beiden Experten erörtern, dass Fairness in der KI nicht nur ein Qualitätsmerkmal darstellt, sondern auch tiefgreifende soziale und ethische Dimensionen hat.
Tobias erklärt, dass die Herausforderung bei der Bewertung von Fairness darin besteht, objektive Maße zu finden, um subjektive Konzepte zu quantifizieren. Die gängige Praxis basiert auf dem Vergleich qualitativer Maße zwischen verschiedenen sensiblen Gruppen. Doch selbst diese Ansätze haben ihre Grenzen und führen oftmals zu komplexen Debatten über deren korrekte Anwendung und Interpretation.
Eine spannende Entwicklung im Bestreben nach fairer KI ist die Anwendung des Assurance Case Frameworks. Ursprünglich aus dem Safety Engineering stammend, bietet dieses Framework eine strukturierte Methode zur Argumentation und Validierung von Sicherheits- oder in diesem Fall Fairnessbehauptungen. Durch schrittweise Verfeinerung werden Haupt- und Teilbehauptungen aufgestellt, die letztlich durch Beweise gestützt werden müssen. Dieser Prozess ermöglicht nicht nur eine tiefere Reflexion über die gestellten Anforderungen, sondern auch eine transparentere Kommunikation gegenüber Stakeholdern.
Ein Schlüsselelement bei der Gestaltung fairer KI-Systeme ist die Einbeziehung verschiedener Stakeholder. Die Definition dessen, was als ‘fair’ gilt, kann stark variieren und hängt oft von den Perspektiven und Bedürfnissen der beteiligten Parteien ab. Durch Workshops und Diskussionen mit diesen Gruppen können relevante Fairness-Maße identifiziert und in testbare Anforderungen übersetzt werden.
Während Marc und Tobias zugeben, dass das Konzept einer vollkommen fairen KI vielleicht eine Idealvorstellung bleibt, betonen sie die Wichtigkeit fortlaufender Diskussionen und Verbesserungen in diesem Bereich. Insbesondere die Rolle von Open-Source-Initiativen und Community-getriebenen Projekten könnte zukünftig dabei helfen, breit akzeptierte Standards für faire KI zu etablieren.
KI hat uns einiges zu bieten. Unsere Phantasie ist gefragt: Wo setzen wir sie ein? Was soll sie leisten? Wie soll sie arbeiten? Völlig egal, welcher...
Welche Fragen sollten beim Testen von KI gestellt werden und was können Tester von Data Scientists lernen? Marco Achtziger und Gregor Endler geben...
In der Podcastfolge geht es um Testautomatisierung und den Einsatz von Machine Learning, um Fehler schneller zu finden und Tools zu integrieren....