???item.export.label??? ???item.export.type.endnote??? ???item.export.type.bibtex???

Please use this identifier to cite or link to this item: https://tede.ufam.edu.br/handle/tede/11020
Full metadata record
DC FieldValueLanguage
dc.creatorBragança, Hendrio Luis de Souza-
dc.creator.Latteshttp://lattes.cnpq.br/7375456368369943eng
dc.contributor.advisor1Souto, Eduardo James Pereira-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3875301617975895eng
dc.contributor.referee1Veras, Rodrigo de Melo Souza-
dc.contributor.referee1Latteshttp://lattes.cnpq.br/2634254790193199eng
dc.contributor.referee2Campos, Andrea Gomes-
dc.contributor.referee2Latteshttp://lattes.cnpq.br/0251364589832974eng
dc.contributor.referee3Fernandes, Natalia Castro-
dc.contributor.referee3Latteshttp://lattes.cnpq.br/4205779497458915eng
dc.contributor.referee4Colonna, Juan Gabriel-
dc.contributor.referee4Latteshttp://lattes.cnpq.br/9535853909210803eng
dc.date.issued2025-02-17-
dc.identifier.citationBRAGANÇA, Hendrio Luis de Souza. Unified Time Series Framework for Explainable Artificial Intelligence. 2025. 143 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.eng
dc.identifier.urihttps://tede.ufam.edu.br/handle/tede/11020-
dc.description.resumoThe increasing complexity of machine learning (ML) models has made their decision-making processes difficult to interpret, posing a critical challenge in high-stakes domains where trust and transparency are essential. Although Explainable Artificial Intelligence (XAI) methods aim to address this issue, most existing techniques face limitations when applied directly to time series data due to its sequential and contextual nature. In this work, we present the Unified Time Series Framework for Explainable Artificial Intelligence (UTS-XAI), which integrates a standard time series classification pipeline with explainability capabilities and domain-specific evaluation tools. The framework is compatible with multiple explainability methods, such as SHAP, LIME, and Saliency Maps, and supports their systematic evaluation through adapted versions of widely used XAI metrics (faithfulness, robustness, sensitivity, and stability) reinterpreted for temporal data. These metrics are combined with time series–specific similarity and distance measures such as MSE, MAE, and DTW to quantify explanation quality. We also introduce Global Interpretable Clustering (GIC), a visualization technique designed to assess the consistency of feature attributions across explainers and models. Experiments conducted on three real-world cardiac arrhythmia datasets (MITBIH, SVDB, INCART), using three ML architectures (XGBoost, DeepConvLSTM, and FCN), show that SHAP provides more faithful and stable explanations, while LIME and Saliency Maps exhibit greater sensitivity to noise and perturbations. These results highlight that accuracy alone is not sufficient in time series modeling without robust interpretability. By embedding explainability into the model development lifecycle, UTS-XAI sets a new standard for interpretable and trustworthy AI in temporal data analysis.eng
dc.description.abstractA crescente complexidade dos modelos de aprendizado de máquina (ML) tornou seus processos de tomada de decisão difíceis de interpretar, representando um desafio crítico em domínios de alto risco onde confiança e transparência são essenciais. Embora os métodos de Inteligência Artificial Explicável (XAI) visem abordar essa questão, a maioria das técnicas existentes enfrenta limitações quando aplicadas diretamente a dados de séries temporais devido à sua natureza sequencial e contextual. Neste trabalho, apresentamos o framework UTS-XAI (Unified Time Series Framework for Explainable Artificial Intelligence), que integra um pipeline padrão de classificação de séries temporais com recursos de explicabilidade e ferramentas de avaliação específicas de domínio. O framework é compatível com múltiplos métodos de explicabilidade, como SHAP, LIME e Mapas de Saliência, e suporta sua avaliação sistemática por meio de versões adaptadas de métricas de XAI amplamente utilizadas (fidelidade, robustez, sensibilidade e estabilidade) reinterpretadas para dados temporais. Essas métricas são combinadas com medidas de similaridade e distância específicas de séries temporais, como MSE, MAE e DTW, para quantificar a qualidade da explicação. Também apresentamos o Global Interpretable Clustering (GIC), uma técnica de visualização projetada para avaliar a consistência das atribuições de características entre explicadores e modelos. Experimentos conduzidos em três conjuntos de dados de arritmia cardíaca do mundo real (MITBIH, SVDB, INCART), utilizando três arquiteturas de ML (XGBoost, DeepConvLSTM e FCN), mostram que o SHAP fornece explicações mais fiéis e estáveis, enquanto o LIME e os Mapas de Saliência exibem maior sensibilidade a ruídos e perturbações. Esses resultados destacam que a precisão por si só não é suficiente na modelagem de séries temporais sem uma interpretabilidade robusta. Ao incorporar a explicabilidade ao ciclo de vida de desenvolvimento do modelo, o UTS-XAI estabelece um novo padrão para IA interpretável e confiável na análise de dados temporais.por
dc.description.sponsorshipCAPES - Coordenação de Aperfeiçoamento de Pessoal de Nível Superioreng
dc.description.sponsorshipFAPEAM - Fundação de Amparo à Pesquisa do Estado do Amazonaseng
dc.formatapplication/pdf*
dc.languageengeng
dc.publisherUniversidade Federal do Amazonaseng
dc.publisher.departmentInstituto de Computaçãoeng
dc.publisher.countryBrasileng
dc.publisher.initialsUFAMeng
dc.publisher.programPrograma de Pós-graduação em Informáticaeng
dc.rightsAcesso Aberto-
dc.rights.urihttps://creativecommons.org/licenses/by-nc-nd/4.0/pt_BR
dc.subject.cnpqCIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAOeng
dc.titleUnified Time Series Framework for Explainable Artificial Intelligenceeng
dc.typeTeseeng
dc.contributor.advisor1orcidhttps://orcid.org/0000-0003-0003-908Xeng
dc.creator.orcidhttps://orcid.org/0000-0003-1479-1707eng
dc.contributor.referee1orcidhttps://orcid.org/0000-0001-8180-4032eng
dc.contributor.referee2orcidhttps://orcid.org/0000-0001-7949-1188eng
dc.contributor.referee3orcidhttps://orcid.org/0000-0001-9481-6374eng
dc.subject.userExplainable Artificial Intelligence (XAI)eng
dc.subject.userTime-Series datapor
dc.subject.userMachine Learningpor
Appears in Collections:Doutorado em Informática

Files in This Item:
File Description SizeFormat 
TESE_HendrioBraganca_PPGI.pdf 13.88 MBAdobe PDFDownload/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.