Logo des Robert Koch-InstitutLogo des Robert Koch-Institut
Publikationsserver des Robert Koch-Institutsedoc
de|en
Publikation anzeigen 
  • edoc Startseite
  • Artikel in Fachzeitschriften
  • Artikel in Fachzeitschriften
  • Publikation anzeigen
  • edoc Startseite
  • Artikel in Fachzeitschriften
  • Artikel in Fachzeitschriften
  • Publikation anzeigen
JavaScript is disabled for your browser. Some features of this site may not work without it.
Gesamter edoc-ServerBereiche & SammlungenTitelAutorSchlagwortDiese SammlungTitelAutorSchlagwort
PublizierenEinloggenRegistrierenHilfe
StatistikNutzungsstatistik
Gesamter edoc-ServerBereiche & SammlungenTitelAutorSchlagwortDiese SammlungTitelAutorSchlagwort
PublizierenEinloggenRegistrierenHilfe
StatistikNutzungsstatistik
Publikation anzeigen 
  • edoc Startseite
  • Artikel in Fachzeitschriften
  • Artikel in Fachzeitschriften
  • Publikation anzeigen
  • edoc Startseite
  • Artikel in Fachzeitschriften
  • Artikel in Fachzeitschriften
  • Publikation anzeigen
2024-10-24Zeitschriftenartikel
AI Readiness in Healthcare through Storytelling XAI
Dubey, Akshat
Yang, Zewen
Hattab, Georges
Artificial Intelligence is rapidly advancing and radically impacting everyday life, driven by the increasing availability of computing power. Despite this trend, the adoption of AI in real-world healthcare is still limited. One of the main reasons is the trustworthiness of AI models and the potential hesitation of domain experts with model predictions. Explainable Artificial Intelligence (XAI) techniques aim to address these issues. However, explainability can mean different things to people with different backgrounds, expertise, and goals. To address the target audience with diverse needs, we develop storytelling XAI. In this research, we have developed an approach that combines multi-task distillation with interpretability techniques to enable audience-centric explainability. Using multi-task distillation allows the model to exploit the relationships between tasks, potentially improving interpretability as each task supports the other leading to an enhanced interpretability from the perspective of a domain expert. The distillation process allows us to extend this research to large deep models that are highly complex. We focus on both model-agnostic and model-specific methods of interpretability, supported by textual justification of the results in healthcare through our use case. Our methods increase the trust of both the domain experts and the machine learning experts to enable a responsible AI.
Dateien zu dieser Publikation
Thumbnail
2410.18725v2.pdf — PDF — 4.442 Mb
MD5: e55404275a05cd491e9108c989a4d042
Zitieren
BibTeX
EndNote
RIS
(CC BY 3.0 DE) Namensnennung 3.0 Deutschland(CC BY 3.0 DE) Namensnennung 3.0 Deutschland
Zur Langanzeige
Nutzungsbedingungen Impressum Leitlinien Datenschutzerklärung Kontakt

Das Robert Koch-Institut ist ein Bundesinstitut im

Geschäftsbereich des Bundesministeriums für Gesundheit

© Robert Koch Institut

Alle Rechte vorbehalten, soweit nicht ausdrücklich anders vermerkt.