Percorrer por autor "Moreira, Alexandre Vilela Reis de Melo"
A mostrar 1 - 1 de 1
Resultados por página
Opções de ordenação
- Explicabilidade de modelos de classificação no domínio médicoPublication . Moreira, Alexandre Vilela Reis de Melo; Ferreira, Artur Jorge; Leite, Nuno Miguel da Costa de SousaA Inteligência Artificial (IA) é uma área que tem vindo a ganhar destaque recentemente, particularmente a subárea de Aprendizagem Automática (AA). Nesta subárea, predominam algoritmos de aprendizagem caixa-preta, isto é, modelos cujos parâmetros internos não são diretamente observáveis pelo operador. As redes neuronais são um exemplo típico deste caso, dado que possuem um número de parâmetros de tal ordem de grandeza que a sua interpretação pelo ser humano torna-se impossível. Para além da elevada dimensionalidade, a própria estrutura deste tipo de modelos não pode ser interpretada, na medida em que dificilmente se consegue dar sentido aos parâmetros. Um contexto onde a precisão dos algoritmos é crucial é no domínio médico, onde a decisão de um algoritmo impactará a saúde de um indivíduo. Neste contexto, revela-se até perigoso não estabelecer nexos de causalidade entre os dados de entrada e a resposta de um modelo. Sem acesso ao “raciocínio” do modelo este não se pode contestar e portanto ter-se-ia de o aceitar ou descartar de forma dogmática, já que não existem justificações. Para tentar mitigar este efeito surge a eXplainable Artificial Intelligence (XAI). Esta área tem o objetivo de extrair explicações sobre as tomadas de decisão de modelos. Dois métodos de destaque desta área são o Local Interpretable Model-agnostic Explanations (LIME) e o SHapley Additive exPlanations (SHAP). Estas duas técnicas tiram partido apenas dos dados de entrada e saída do modelo sem aceder aos componentes internos do mesmo. Quando os dados estão num formato tabular, as explicações extraídas por estas técnicas indicam quais as características mais relevantes para uma determinada resposta do modelo. Neste trabalho, exploram-se várias técnicas de explicabilidade, através da sua aplicação em datasets sintéticos gerados controladamente e datasets do domínio médico e subsequente análise dos resultados obtidos. Foram analisados dois datasets reais. Primeiramente, foi analisado um dataset de domínio tabular designado por Diagnosis AlzheimeR WIth haNdwriting (DARWIN), que visa a deteção de Alzheimer através de tarefas de escrita. Neste conjunto de dados atingiu-se uma taxa de acerto média de 91% por parte dos classificadores Random Forest (RF) e Explainable Boosting Machine (EBM). Em segundo lugar foi analisado um dataset de imagens de ressonância magnética que visa distinguir três tipos de tumor. Neste dataset destacou-se a Convolutional Neural Network (CNN) ResNet50 atingiu uma taxa de acerto média de 90%.
