Repository logo
 
Publication

Interpretability and explainability in machine learning

authorProfile.emailbiblioteca@isel.pt
dc.contributor.advisorFerreira, Artur Jorge
dc.contributor.authorCunha, João Paulo Carrilho
dc.date.accessioned2025-03-05T14:22:47Z
dc.date.available2025-03-05T14:22:47Z
dc.date.issued2024-12
dc.descriptionDissertação para obtenção do Grau de Mestre em Engenharia Informática e Multimédia
dc.description.abstractAbstract As machine learning models become increasingly complex, the need for interpretability and explainability has grown significantly. This thesis investigates the use of machine learning and explainability techniques, namely DT (Decision Trees), SHAP (SHapley Additive exPlanations), EBM (Explainable Boosting Machines), and LIME (Local Interpretable Model-agnostic Explanations), to identify and analyze the most influential features in predictive models. On our study, we consider tabular and image data. Using the Iris and Adult datasets for tabular data, we apply these algorithms to discern where models derive their predictive power and which features contribute most significantly to outcomes. For image data, we address a multiclass classification problem using the Cats and Dogs dataset, employing saliency maps to pinpoint the most relevant pixels influencing model accuracy. Our findings demonstrate that these interpretability techniques e!ectively unveil the underlying mechanisms of machine learning models, enhancing our understanding and trust in their predictive capabilities.eng
dc.description.abstractÀ medida que os modelos de aprendizagem automática se tornam cada vez mais complexos, a necessidade de interpretabilidade e explicabilidade tem crescido significativamente. Esta tese investiga o uso de técnicas de aprendizagem automática e explicabilidade, nomeadamente árvores de decisão, SHAP (SHapley Additive exPlanations), EBM (Explainable Boosting Machines) e LIME (Local Interpretable Model-agnostic Explanations), para identificar e analisar as características mais influentes em modelos preditivos. No nosso estudo, consideramos dados tabulares e de imagem. Para dados de imagem, abordamos um problema de classificação multiclasse utilizando o conjunto de dados Cats and Dogs, utilizando mapas de saliência para identificar os píxeis mais relevantes que influenciam a precisão do modelo. As nossas descobertas demonstram que estas técnicas de interpretabilidade revelam eficazmente os mecanismos subjacentes dos modelos de aprendizagem automática, aumentando a nossa compreensão e confiança nas suas capacidades preditivas.por
dc.identifier.citationCUNHA, João Paulo Carrilho – Interpretability and explainability in machine learning. Lisboa: Instituto Superior de Engenharia de Lisboa. 2024. Dissertação de Mestrado.
dc.identifier.tid203797760
dc.identifier.urihttp://hdl.handle.net/10400.21/21635
dc.language.isoeng
dc.peerreviewedyes
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/
dc.subjectDecision trees
dc.subjectEBM
dc.subjectExplainability
dc.subjectFeature importance
dc.subjectInterpretability
dc.subjectLIME
dc.subjectMachine learning
dc.subjectSaliency maps
dc.subjectSHAP
dc.subjectAprendizagem automática
dc.subjectÁrvores de decisão
dc.subjectExplicabilidade
dc.titleInterpretability and explainability in machine learningeng
dc.typemaster thesis
dspace.entity.typePublication
oaire.citation.endPage120
oaire.citation.startPage1
oaire.versionhttp://purl.org/coar/version/c_be7fb7dd8ff6fe43

Files

Original bundle
Now showing 1 - 1 of 1
Loading...
Thumbnail Image
Name:
JoaoCunha_MEIM.pdf
Size:
19.31 MB
Format:
Adobe Portable Document Format
License bundle
Now showing 1 - 1 of 1
No Thumbnail Available
Name:
license.txt
Size:
4.03 KB
Format:
Item-specific license agreed upon to submission
Description: