DFG project G:(GEPRIS)565037378

Benchmarking von Debiasing-Methoden für Künstliche Intelligenz in der Neurobildgebung-Forschung

CoordinatorDr. Didem Stark
Grant period2025 -
Funding bodyDeutsche Forschungsgemeinschaft
 DFG
IdentifierG:(GEPRIS)565037378

Note: Dieses Projekt zielt darauf ab, die kritische Frage von Bias und Fairness bei Anwendungen künstlicher Intelligenz (KI) in der Neurobildgebung anzugehen, mit dem Ziel, Fairness und Gerechtigkeit im Gesundheitswesen zu fördern. KI hat die Neurobildgebung revolutioniert, indem sie eine präzise Analyse von Gehirnscans zur Diagnose neurologischer und psychischer Störungen ermöglicht. Allerdings weisen diese Systeme häufig Bias auf, der mit demografischen Faktoren wie Geschlecht, Alter, ethnischer Zugehörigkeit und sozioökonomischem Status zusammenhängt. Dies kann die Diagnosegenauigkeit untergraben und gesundheitliche Ungleichheiten verstärken. Diese Forschung zielt darauf ab, Debiasing-Methoden systematisch zu benchmarken und sie anhand von Fairness-Metriken zu evaluieren, die dann für die Entwicklung fairerer KI-Modelle für den klinischen Einsatz verwendet werden können. Die Studie verwendet einen zweistufigen Ansatz, bei dem synthetische und reale Datensätze eingesetzt werden. Synthetische Hirnbilder, die mithilfe von Latent-Diffusions-Modellen (LDMs) generiert werden, ermöglichen die kontrollierte Evaluation von Fairness-Metriken und Debiasing-Techniken. Reale Datensätze wie ADNI oder die UK Biobank werden für Aufgaben wie die Vorhersage des Hirnalters, die Detektion der Alzheimer-Krankheit und die Klassifikation von Alkoholkonsumstörungen verwendet, wobei eine Reihe von Machine-Learning-Modellen eingesetzt wird, darunter lineare Regression, Support Vector Machines (SVM) und Convolutional Neural Networks (CNN). Ein zentraler Schwerpunkt liegt auf der Evaluation von Debiasing-Methoden, die algorithmischen Bias in KI-Systemen mithilfe von Fairness-Kriterien wie Equality of Opportunity, Predictive Equality und Equalized Odds minimieren. Zu diesen Debiasing-Methoden gehören Preprocessing-Techniken wie Data Reweighing, In-Processing-Techniken wie adversariales Debiasing und Regularisierung sowie Postprocessing-Techniken wie die Optimierung von Equalized Odds. Subgruppenspezifische Modelle und die Integration demografischer Attribute in KI-Systeme werden ebenfalls untersucht, um ihr Potenzial zur Verbesserung von Fairness zu bewerten. Darüber hinaus wird eine Open-Source-Toolbox entwickelt, die Forschenden und Stakeholdern ermöglicht, Fairness-Metriken zu evaluieren und Debiasing-Methoden auf verschiedene Datensätze und Vorhersageaufgaben anzuwenden, insbesondere im Bereich der klinischen Neurobildgebung. Durch die Reduzierung algorithmischen Bias soll dieses Projekt die Inklusivität und Zuverlässigkeit von KI-Modellen in der klinischen Neurobildgebung verbessern. Ich bin überzeugt, dass diese Arbeit ein bedeutender Schritt in Richtung einer verantwortungsvollen Integration von KI in die Gesundheitsversorgung ist, insbesondere in den klinischen Neurowissenschaften, und gleichzeitig deren Vorteile für alle zugänglich macht.
   

Recent Publications

There are no publications


 Datensatz erzeugt am 2025-05-17, letzte Änderung am 2026-03-02



Dieses Dokument bewerten:

Rate this document:
1
2
3
 
(Bisher nicht rezensiert)