Not logged in.

Contribution Details

Type Master's Thesis
Scope Discipline-based scholarship
Title Explainable Classification of COVID-19 in Chest X-ray Images
Organization Unit
Authors
  • Yingying Chen
Supervisors
  • Manuel Günther
  • Carlo Menon
  • Mohamed Elgendi
Language
  • English
Institution University of Zurich
Faculty Faculty of Business, Economics and Informatics
Date 2022
Abstract Text Nowadays, developing an automated diagnosis system that can detect COVID-19 or other pneumonia from CXR images without human intervention still meets with great challenges when the system lacks interpretability of the deep learning model. We need not only the high accuracy of the model but also the interpretability of the model. In this work, we focus on the explainable classification of chest X-ray images. We pay attention not only to COVID-19 but other kinds of lung infections. First, we propose three new and simple visualization methods to improve the interpretability of the deep learning model. The proposed methods are based on the class activation map (CAM) framework. Second, we propose a quantitative metric, acceptable mask ratio, to evaluate the interpretability of the deep learning model so that we can assess different methods intuitively. Through experiments, we find that better performance of the model does not necessarily correspond to better interpretability. With the help of acceptable masking rates, we can contribute to a certain extent to the selection of models with high accuracy and good interpretability for automated diagnostic systems. Furthermore, the proposed visualization methods can be used to interpret the classification results of deep learning models and help clinicians to build more credible diagnostic models.
Zusammenfassung Heute ist es noch immer eine große Herausforderung, ein automatisiertes Diagnosesystem zu entwickeln, das COVID-19 oder andere Lungenentzündungen aus CXR-Bildern ohne menschliche Intervention erkennen kann, wenn das System die Interpretierbarkeit des tiefen Lernensystems nicht hat. Wir brauchen nicht nur die hohe Genauigkeit des Modells, sondern auch die Interpretierbarkeit des Modells. In dieser Arbeit konzentrieren wir uns auf die erklärbare Klassifizierung von Röntgenaufnahmen der Brust. Wir achten nicht nur auf COVID-19, sondern auch auf andere Arten von Lungenerkrankungen. Zuerst schlagen wir drei neue und einfache Visualisierungsmethoden vor, um die Interpretierbarkeit des Deep-Learning-Modells zu verbessern. Die vorgeschlagenen Methoden basieren auf dem Class Activation Map (CAM) Framework. Zweitens schlagen wir eine quantitative Metrik, Acceptable Mask Ratio, vor, um die Interpretierbarkeit des Deep-Learning-Modells zu bewerten, damit wir verschiedene Methoden intuitiv bewerten können. Durch Experimente finden wir heraus, dass eine bessere Leistung des Modells nicht unbedingt mit einer besseren Interpretierbarkeit korrespondiert. Mit Hilfe der akzeptablen Maskierungsrate können wir zu einem gewissen Grad zur Auswahl von Modellen mit hoher Genauigkeit und guter Interpretierbarkeit für automatisierte Diagnosesysteme beitragen. Darüber hinaus können die vorgeschlagenen Visualisierungsmethoden zur Interpretation der Klassifizierungsergebnisse von Deep-Learning-Modellen verwendet werden und helfen Ärzten, bessere klinische Diagnosemodelle zu erstellen.
PDF File Download
Export BibTeX