Estudi sobre l’aplicació de tècniques d’explicabilitat en algorismes d’intel·ligència artificial basats en imatge mèdica

التفاصيل البيبلوغرافية
العنوان: Estudi sobre l’aplicació de tècniques d’explicabilitat en algorismes d’intel·ligència artificial basats en imatge mèdica
المؤلفون: Quintana i Morales, Mariona
المساهمون: Universitat Politècnica de Catalunya. Departament d'Enginyeria de Sistemes, Automàtica i Informàtica Industrial, Fundació TicSalut, Mata Miquel, Cristian, Ausso Tiras, Susana
المصدر: UPCommons. Portal del coneixement obert de la UPC
Universitat Politècnica de Catalunya (UPC)
بيانات النشر: Universitat Politècnica de Catalunya, 2022.
سنة النشر: 2022
مصطلحات موضوعية: Machine Learning, Pneumònia Infantil, Artificial intelligence, Xarxes Neuronals Convolucionals, Intel·ligència artificial, Enginyeria biomèdica [Àrees temàtiques de la UPC], Explicabilitat, Imatgeria mèdica, Deep learning, Imatge Mèdica, Imaging systems in medicine, Aprenentatge profund, Enginyeria Biomèdica
الوصف: El diagnòstic per imatge és una de les àrees de la medicina que està avançant més gràcies a l’ús de les xarxes neuronals convolucionals. Permeten la detecció d’anomalies amb una major precisió. El problema està en el fet que aquests mètodes van ser dissenyats per obtenir la millor resposta possible, però no per donar una raó d’aquesta. La falta de transparència s’identifica com la principal barrera per la seva implementació en el sistema. És aquí on neix la necessitat de desenvolupar una explicació del procediment pel qual passa un model. S’anomena a aquest concepte explicabilitat. Les tècniques d’explicabilitat permeten als usuaris humans comprendre i confiar en la sortida generada per un algorisme. El treball s’ha realitzat conjuntament amb la Fundació TIC Salut Social, un organisme de la Generalitat de Catalunya que treballa per impulsar el desenvolupament tecnològic en l’àmbit de la Salut, així com amb la col·laboració del Dr. Josep Munuera, cap del diagnòstic per la imatge, i el Dr. Ignasi Barber, cap Assistencial i Docent, de l’Hospital Sant Joan de Déu de Barcelona. El projecte consisteix en l’aplicació de diverses tècniques d’explicabilitat a un algorisme de Deep Learning. Es parteix d’un model entrenat amb un conjunt de dades que corresponen a radiografies de tòrax de nadons d’un a cinc anys. El dataset ha estat extret d’una plataforma web pública i el propòsit del model és la detecció de pneumònia. Posteriorment, s’implementen els mètodes d’explicabilitat i es realitza una anàlisi i una parametrització per l’optimització dels resultats. Finalment, es du a terme una comparació entre les tècniques, per una mateixa imatge de diagnòstic, tenint en compte el tipus d’informació que pot aportar cada una. L’objectiu final d’aquest treball és veure si l’explicabilitat d’un algorisme d’IA pot ser d’utilitat per un professional a l’hora de fer el seu diagnòstic, donant-li confiança i transparència a la predicció proporcionada pel model. Diagnostic imaging is one of the areas of medicine that is progressing the most thanks to the use of convolutional neural networks. These allow the detection of anomalies with higher precision. The problem is that these methods have been designed to obtain the best answer, but not to give a reason for it. The lack of transparency is identified as the main barrier for the implementation to the system. This is where the need of developing an explanation of the procedure that a model passes through is born. This concept is called explainability. Explainability techniques allow human users to understand and trust the output generated by an algorithm. The work has been carried out jointly with the Fundació TIC Salut Social, an organization of the Generalitat de Catalunya that works to promote technological development in healthcare, as well as with the collaboration of Dr. Josep Munuera, head of diagnostic imaging, and Dr. Ignasi Barber, assistance head and teacher, at the Hospital Sant Joan de Déu in Barcelona. The project consists in the application of several explainability techniques to a Deep Learning algorithm. The starting point is having a trained model with a dataset corresponding to chest X-rays of children from one to five years old. The dataset has been extracted from a public web platform and the purpose of the model is the detection of pneumonia. Subsequently, explainability methods are implemented and an analysis of their parameters is performed for the optimization of the results. Finally, a comparison between the techniques is carried out, for the same diagnostic image, taking into account the type of information that each of them can provide. The final objective of this work is to see if the explainability of an AI algorithm can be useful for a professional when diagnosing, giving confidence and transparency to the prediction provided by the model. El diagnóstico por imagen es una de las áreas de la medicina que más está avanzando gracias al uso de la inteligencia artificial, concretamente, por la aplicación de métodos de Deep Learning. Las redes neuronales convolucionales permiten la detección de anomalías con una mayor precisión, obteniendo grandes resultados. El problema está en que estos métodos han sido diseñados para obtener la mejor respuesta posible, pero no para dar una razón de esta. La falta de transparencia se identifica como la principal barrera para su implementación en el sistema. Es aquí donde nace la necesidad de desarrollar una explicación del procedimiento por el cual pasa un modelo. Se denomina a este concepto explicabilidad. Las técnicas de explicabilidad permiten a los usuarios humanos comprender y confiar en la salida generada por un algoritmo. El trabajo se ha realizado conjuntamente con la Fundació TIC Salut Social, un organismo de la Generalitat de Catalunya que trabaja por impulsar el desarrollo tecnológico en el ámbito de la salud, así como con la colaboración el Dr. Josep Munuera, director del diagnóstico por la imagen, y el Dr. Ignasi Barber, director asistencial y docente, del Hospital Sant Joan de Déu de Barcelona. El proyecto consiste en la aplicación de varias técnicas de explicabilidad a un algoritmo de Deep Learning para analizarlas y hacer una comparación entre ellas. Se parte de un modelo entrenado con un conjunto de datos que corresponden a radiografías de tórax de bebés de uno a cinco años. El dataset ha sido extraído de una plataforma web pública y el propósito del modelo es la detección de neumonía. Posteriormente, se implementan los métodos de explicabilidad y se realiza un análisis y una parametrización para la optimización de los resultados. Finalmente, se lleva a cabo una comparación entre las técnicas, para una misma imagen de diagnóstico, teniendo en cuenta el tipo de información que puede aportar cada una de ellas. El objetivo final de este trabajo es ver si la explicabilidad de un algoritmo de IA puede ser de utilidad para un profesional a la hora de hacer su diagnóstico, dándole confianza i transparencia a la predicción proporcionada por el modelo.
وصف الملف: application/pdf
اللغة: Catalan; Valencian
URL الوصول: https://explore.openaire.eu/search/publication?articleId=dedup_wf_001::c5a79ed79a49aefb3c85f0adb1c65ff3
https://hdl.handle.net/2117/373537
Rights: OPEN
رقم الانضمام: edsair.dedup.wf.001..c5a79ed79a49aefb3c85f0adb1c65ff3
قاعدة البيانات: OpenAIRE