Use este identificador para citar ou linkar para este item: https://repositorio.ufms.br/handle/123456789/14011
Registro completo de metadados
Campo DCValorIdioma
dc.creatorISABELA BUZZO GALVÃO-
dc.date.accessioned2025-12-08T17:25:53Z-
dc.date.available2025-12-08T17:25:53Z-
dc.date.issued2025pt_BR
dc.identifier.urihttps://repositorio.ufms.br/handle/123456789/14011-
dc.description.abstractGraph Neural Networks (GNNs) are effective models for learning from structured data such as graphs and are applied in diverse areas. However, their interpretability remains a challenge, especially in critical applications. Methods like SHAP (\textit{Shapley Additive Explanations}) provide insights into predictions, but their application to GNNs is complex due to the relational structure of the data. This work reviews explanation approaches for GNNs, with an emphasis on those aligned with SHAP. The analysis shows that the methods, although similar in concept, differ in the choice of graph component used for the explanation among nodes, edges, or subgraphs and in the approximation techniques for calculating Shapley values. It is concluded that the choice of the appropriate method resides in the nature of the chosen task and the type of understanding sought.-
dc.language.isopt_BRpt_BR
dc.publisherFundação Universidade Federal de Mato Grosso do Sulpt_BR
dc.rightsAcesso Abertopt_BR
dc.subjectGraph Neural Network-
dc.subjectExplicabilidade-
dc.subjectSHAP-
dc.subjectValores de Shapley-
dc.subjectGrafos-
dc.subject.classificationCiências Exatas e da Terrapt_BR
dc.titleExplicabilidade de Graph Neural Networks: Uma Análise Comparativa com SHAPpt_BR
dc.typeTrabalho de Conclusão de Cursopt_BR
dc.contributor.advisor1ANDERSON BESSA DA COSTA-
dc.description.resumoGraph Neural Networks (GNNs) são modelos eficazes para aprendizado em dados estruturados como grafos e são aplicadas em diversas áreas. No entanto, sua interpretabilidade ainda é um desafio, especialmente em aplicações críticas. Métodos como o SHAP (\textit{Shapley Additive Explanations}) fornecem explicações sobre predições, mas sua aplicação em GNNs é complexa devido à estrutura relacional dos dados. Este trabalho revisa abordagens de explicação para GNNs, com ênfase naquelas alinhadas ao SHAP. A análise evidencia que os métodos, embora similares em conceito, diferem-se na escolha de componente do grafo utilizada na explicação dentre nós, arestas ou subgrafos e nas técnicas de aproximação para cálculo dos valores de Shapley. Conclui-se que a escolha do método apropriado reside na natureza da tarefa escolhida e no tipo de entendimento que se deseja obter.pt_BR
dc.publisher.countrynullpt_BR
dc.publisher.initialsUFMSpt_BR
Aparece nas coleções:Ciência da Computação - Bacharelado (FACOM)

Arquivos associados a este item:
Arquivo TamanhoFormato 
23006.pdf387,8 kBAdobe PDFVisualizar/Abrir


Os itens no repositório estão protegidos por copyright, com todos os direitos reservados, salvo quando é indicado o contrário.