???item.export.label??? ???item.export.type.endnote??? ???item.export.type.bibtex???

Please use this identifier to cite or link to this item: https://tede.ufam.edu.br/handle/tede/10955
???metadata.dc.type???: Tese
Title: Superando o esquecimento catastrófico em Redes Neurais Convolucionais para o aprendizado incremental de tarefas com Adaptadores Low-Rank
Other Titles: Overcoming Catastrophic Forgetting in Convolutional Neural Networks for Incremental Task Learning with Low-Rank Adapters
???metadata.dc.creator???: Aleixo, Everton Lima 
???metadata.dc.contributor.advisor1???: Colonna, Juan Gabriel
???metadata.dc.contributor.referee1???: Souto, Eduardo James Pereira
???metadata.dc.contributor.referee2???: Salvatierra Junior, Mário
???metadata.dc.contributor.referee3???: Figueiredo, Carlos Maurício Seródio
???metadata.dc.contributor.referee4???: Oliveira, Horácio Antônio Braga Fernandes de
???metadata.dc.description.resumo???: Com os avanços da inteligência artificial, especialmente em redes neurais profundas, diver- sas tarefas cotidianas vêm sendo executadas por esses modelos com precisão comparável ou superior à dos seres humanos. No entanto, essas redes enfrentam uma limitação crítica: a incapacidade de aprender continuamente sem degradar o desempenho em tarefas previa- mente aprendidas, fenômeno conhecido como esquecimento catastrófico, observado desde 1989. Diversas abordagens foram propostas para mitigar esse problema, classificadas em quatro grupos principais: i) rehearsal; ii) baseadas em distância; iii) sub-redes; e iv) redes dinâmicas. Dentre essas, destacam-se os métodos baseados em sub-redes e redes dinâmicas, sendo estas últimas particularmente promissoras por permitirem a expansão do modelo ao longo do tempo. Nesta tese, propomos o uso da ConvLoRA para aprendizado contínuo em redes convolucionais, inspirada nos adaptadores Low-Rank (LoRA) originalmente aplicados em modelos de linguagem natural. A ConvLoRA introduz adaptadores treináveis específicos para cada nova tarefa em todas as camadas convolucionais, permitindo que o modelo aprenda incrementalmente sem sobrescrever os parâmetros anteriores e sem armazenar dados de tarefas passadas, respei- tando, assim, restrições de privacidade. Quando combinada ao LoRA nas camadas total- mente conectadas, a abordagem resultou em um crescimento de apenas 2,2% no número total de parâmetros por tarefa. Em cenários que consideram apenas as camadas convolucio- nais, o uso exclusivo da ConvLoRA proporcionou uma redução de 85,2% no crescimento do modelo em relação a abordagens clássicas como o SeNA-CNN. Os experimentos foram conduzidos em benchmarks consolidados de aprendizado con- tínuo para tarefas de classificação de imagens, incluindo os conjuntos CIFAR-100 e CUB- 200, demonstrando que a combinação ConvLoRA + LoRA mantém ou se aproxima da acurá- cia média dos modelos de referência, com eficiência paramétrica significativamente superior. Esses resultados confirmam que a abordagem proposta é eficaz, escalável e adequada para aplicações práticas que exigem aprendizado contínuo sob restrições de memória e privaci- dade.
Abstract: With the advancement of artificial intelligence, particularly deep neural networks, several daily tasks are now being performed by these models with accuracy comparable to or even surpassing that of humans. However, such networks face a critical limitation: their inability to learn continuously without degrading performance on previously learned tasks—a pheno- menon known as catastrophic forgetting, first identified in 1989. Several strategies have been proposed to mitigate this problem, generally classified into four groups: (i) rehearsal-based; (ii) distance-based; (iii) sub-network-based; and (iv) dynamic networks. Among these, sub- network and dynamic approaches stand out, with the latter showing greater promise due to their ability to expand the model over time. In this thesis, we propose the use of ConvLoRA for continuous learning in convolutional neural networks, inspired by Low-Rank Adapters (LoRA) originally applied in natural language processing models. ConvLoRA introduces task-specific trainable adapters into every convolutional layer, enabling incremental learning without overwriting previous parameters and without storing data from past tasks, thereby adhering to data privacy constraints. When combined with LoRA in fully connected layers, the proposed approach results in only a 2.2% increase in total parameters per task. In scenarios focusing solely on convolutional layers, using Con- vLoRA exclusively leads to an 85.2% reduction in model growth compared to traditional methods such as SeNA-CNN. Experiments were conducted on established benchmark datasets for continual learning in image classification, including CIFAR-100 and CUB-200. Results demonstrate that the ConvLoRA + LoRA combination maintains or approaches the average accuracy of state-of- the-art methods while delivering significantly greater parameter efficiency. These findings confirm that the proposed method is effective, scalable, and suitable for real-world applica- tions that require continuous learning under memory and privacy constraints.
???metadata.dc.subject.cnpq???: CIENCIAS EXATAS E DA TERRA: CIENCIA DA COMPUTACAO
???metadata.dc.subject.user???: Aprendizado Contínuo
Esquecimento Catastrófico
Redes Neurais Convolucionais
Low-Rank Adapters
Deep Learning
Language: por
???metadata.dc.publisher.country???: Brasil
Publisher: Universidade Federal do Amazonas
???metadata.dc.publisher.initials???: UFAM
???metadata.dc.publisher.department???: Instituto de Computação
???metadata.dc.publisher.program???: Programa de Pós-graduação em Informática
Citation: ALEIXO, Everton Lima. Superando o esquecimento catastrófico em Redes Neurais Convolucionais para o aprendizado incremental de Tarefas com Adaptadores Low-Rank. 2025. 155 f. Tese (Doutorado em Informática) - Universidade Federal do Amazonas, Manaus (AM), 2025.
???metadata.dc.rights???: Acesso Aberto
???metadata.dc.rights.uri???: https://creativecommons.org/licenses/by-nc-nd/4.0/
URI: https://tede.ufam.edu.br/handle/tede/10955
Issue Date: 28-Mar-2025
Appears in Collections:Doutorado em Informática

Files in This Item:
File Description SizeFormat 
TESE_EvertonAleixo_PPGI.pdf 3.64 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.