Publication
Interpretability and explainability in machine learning
authorProfile.email | biblioteca@isel.pt | |
dc.contributor.advisor | Ferreira, Artur Jorge | |
dc.contributor.author | Cunha, João Paulo Carrilho | |
dc.date.accessioned | 2025-03-05T14:22:47Z | |
dc.date.available | 2025-03-05T14:22:47Z | |
dc.date.issued | 2024-12 | |
dc.description | Dissertação para obtenção do Grau de Mestre em Engenharia Informática e Multimédia | |
dc.description.abstract | Abstract As machine learning models become increasingly complex, the need for interpretability and explainability has grown significantly. This thesis investigates the use of machine learning and explainability techniques, namely DT (Decision Trees), SHAP (SHapley Additive exPlanations), EBM (Explainable Boosting Machines), and LIME (Local Interpretable Model-agnostic Explanations), to identify and analyze the most influential features in predictive models. On our study, we consider tabular and image data. Using the Iris and Adult datasets for tabular data, we apply these algorithms to discern where models derive their predictive power and which features contribute most significantly to outcomes. For image data, we address a multiclass classification problem using the Cats and Dogs dataset, employing saliency maps to pinpoint the most relevant pixels influencing model accuracy. Our findings demonstrate that these interpretability techniques e!ectively unveil the underlying mechanisms of machine learning models, enhancing our understanding and trust in their predictive capabilities. | eng |
dc.description.abstract | À medida que os modelos de aprendizagem automática se tornam cada vez mais complexos, a necessidade de interpretabilidade e explicabilidade tem crescido significativamente. Esta tese investiga o uso de técnicas de aprendizagem automática e explicabilidade, nomeadamente árvores de decisão, SHAP (SHapley Additive exPlanations), EBM (Explainable Boosting Machines) e LIME (Local Interpretable Model-agnostic Explanations), para identificar e analisar as características mais influentes em modelos preditivos. No nosso estudo, consideramos dados tabulares e de imagem. Para dados de imagem, abordamos um problema de classificação multiclasse utilizando o conjunto de dados Cats and Dogs, utilizando mapas de saliência para identificar os píxeis mais relevantes que influenciam a precisão do modelo. As nossas descobertas demonstram que estas técnicas de interpretabilidade revelam eficazmente os mecanismos subjacentes dos modelos de aprendizagem automática, aumentando a nossa compreensão e confiança nas suas capacidades preditivas. | por |
dc.identifier.citation | CUNHA, João Paulo Carrilho – Interpretability and explainability in machine learning. Lisboa: Instituto Superior de Engenharia de Lisboa. 2024. Dissertação de Mestrado. | |
dc.identifier.tid | 203797760 | |
dc.identifier.uri | http://hdl.handle.net/10400.21/21635 | |
dc.language.iso | eng | |
dc.peerreviewed | yes | |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | |
dc.subject | Decision trees | |
dc.subject | EBM | |
dc.subject | Explainability | |
dc.subject | Feature importance | |
dc.subject | Interpretability | |
dc.subject | LIME | |
dc.subject | Machine learning | |
dc.subject | Saliency maps | |
dc.subject | SHAP | |
dc.subject | Aprendizagem automática | |
dc.subject | Árvores de decisão | |
dc.subject | Explicabilidade | |
dc.title | Interpretability and explainability in machine learning | eng |
dc.type | master thesis | |
dspace.entity.type | Publication | |
oaire.citation.endPage | 120 | |
oaire.citation.startPage | 1 | |
oaire.version | http://purl.org/coar/version/c_be7fb7dd8ff6fe43 |