???jsp.display-item.social.title??? |
|
Please use this identifier to cite or link to this item:
https://tede.ufam.edu.br/handle/tede/10510
???metadata.dc.type???: | Tese |
Title: | Explicações visuais aplicadas a redes neurais convolucionais unidimensionais com ênfase no reconhecimento humano de atividades |
Other Titles: | Visual explanations applied to one-dimensional convolutional neural networks with emphasis on human activity recognition |
???metadata.dc.creator???: | Aquino, Gustavo de Aquino e |
???metadata.dc.contributor.advisor1???: | Costa, Marly Guimarães Fernandes |
First advisor-co: | Costa Filho, Cícero Ferreira Fernandes |
???metadata.dc.contributor.referee1???: | Rittner, Leticia |
???metadata.dc.contributor.referee2???: | Lucena Junior, Vicente Ferreira de |
???metadata.dc.contributor.referee3???: | Souto, Eduardo James Pereira |
???metadata.dc.contributor.referee4???: | Nakamura, Fabíola Guerra |
???metadata.dc.description.resumo???: | O Reconhecimento Humano de Atividades (HAR) é uma área de crescente importância, especialmente com a popularização dos dispositivos vestíveis. Redes neurais convolucionais unidimensionais (1D CNNs) surgem como uma abordagem amplamente utilizada para HAR. Essas arquiteturas são impulsionadas por dados e têm a capacidade de aprender padrões complexos nos sinais que podem ser usados para classificar atividades humanas. No entanto, embora 1D CNNs possam alcançar resultados numéricos expressivos, compreender e explicar a tomada de decisão desses modelos ainda é um desafio. Este trabalho propõe duas abordagens inovadoras para gerar explicações visuais em 1D CNNs aplicadas ao HAR, a primeira utilizando Gradient-weighted Class Activation Mapping (grad-CAM) e a segunda com t-Distributed Stochastic Neighbor Embeddings (t-SNE). Nosso objetivo é, por meio das visualizações, entender e explicar os padrões complexos aprendidos pelos modelos 1D CNNs durante o processo de treinamento, propondo visualizações que possibilitam o entendimento do processo de tomada de decisão dos modelos. As explicações propostas permitem a identificação de vieses nos modelos e nos conjuntos de dados, a análise de como a abordagem de validação impacta o aprendizado do modelo e também a escolha de um melhor modelo, observando não apenas resultados numéricos, mas também qualitativos. Em geral, com base nos experimentos propostos neste trabalho, a combinação de técnicas de inteligência artificial explicável com aprendizado profundo tem potencial para proporcionar uma visão holística sobre a capacidade dos modelos treinados, tornando possível criar explicações e formular hipóteses sobre a tomada de decisão dos modelos. |
Abstract: | Human Activity Recognition (HAR) is an area of growing importance, especially with the popularization of wearable devices. One-dimensional convolutional neural networks (1D CNNs) have emerged as a widely used approach for HAR. These architectures are data-driven and have the ability to learn complex patterns in signals that can be used to classify human activities. However, although 1D CNNs can achieve impressive numerical results, understanding and explaining the decision-making of these models remains a challenge. This work proposes two innovative approaches to generate visual explanations in 1D CNNs applied to HAR, the first one utilizing Gradient-weighted Class Activation Mapping (grad-CAM) and the second one utilizing t-Distributed Stochastic Neighbor Embeddings (t-SNE). Our goal is, through visualizations, to understand and explain the complex patterns learned by 1D CNN models during the training process, proposing visualizations that enable the understanding of the models' decision-making process. The proposed explanations allow the identification of biases in the models and datasets, analysis of how the validation approach impacts model learning, and also the selection of a better model by observing not only numerical but also qualitative results. In general, based on the experiments proposed in this work, the combination of explainable artificial intelligence techniques with deep learning has the potential to provide a holistic view of the capabilities of trained models, making it possible to create explanations and formulate hypotheses about the models' decision-making process. |
Keywords: | Inteligência artificial Computação evolutiva |
???metadata.dc.subject.cnpq???: | CIENCIAS EXATAS E DA TERRA: PROBABILIDADE E ESTATISTICA: PROBABILIDADE: TEORIA GERAL E FUNDAMENTOS DA PROBABILIDADE CIENCIAS EXATAS E DA TERRA: PROBABILIDADE E ESTATISTICA: ESTATISTICA: ANALISE MULTIVARIADA CIENCIAS EXATAS E DA TERRA: PROBABILIDADE E ESTATISTICA: ESTATISTICA: REGRESSAO E CORRELACAO |
???metadata.dc.subject.user???: | Reconhecimento humano de atividades Aprendizado profundo Redes neurais convolucionais unidimensionais Inteligência artificial explicável Dados de acelerômetro grad-CAM t-SNE |
Language: | por |
???metadata.dc.publisher.country???: | Brasil |
Publisher: | Universidade Federal do Amazonas |
???metadata.dc.publisher.initials???: | UFAM |
???metadata.dc.publisher.department???: | Faculdade de Tecnologia |
???metadata.dc.publisher.program???: | Programa de Pós-graduação em Engenharia Elétrica |
Citation: | AQUINO, Gustavo de Aquino e. Explicações visuais aplicadas a redes neurais convolucionais unidimensionais com ênfase no reconhecimento humano de atividades. 2024. 148 f. Tese (Doutorado em Engenharia Elétrica) - Universidade Federal do Amazonas, Manaus (AM), 2024. |
???metadata.dc.rights???: | Acesso Aberto |
???metadata.dc.rights.uri???: | https://creativecommons.org/licenses/by-nc-nd/4.0/ |
URI: | https://tede.ufam.edu.br/handle/tede/10510 |
Issue Date: | 7-Jun-2024 |
Appears in Collections: | Doutorado em Engenharia Elétrica |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
TESE_GustavoAquino_PPGEE.pdf | 15.06 MB | Adobe PDF | Download/Open Preview |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.