???item.export.label??? ???item.export.type.endnote??? ???item.export.type.bibtex???

Please use this identifier to cite or link to this item: https://tede.ufam.edu.br/handle/tede/6645
Full metadata record
DC FieldValueLanguage
dc.creatorMachado, Marcelo Chamy-
dc.creator.Latteshttp://lattes.cnpq.br/9752088014983044por
dc.contributor.advisor1Santos, Eulanda Miranda dos-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/3054990742969890por
dc.contributor.referee1Carvalho, José Reginaldo Hughes-
dc.contributor.referee2Souto, Eduardo James Pereira-
dc.contributor.referee3Pio, José Luiz de Souza-
dc.date.issued2018-08-27-
dc.identifier.citationMACHADO, Marcelo Chamy. Classificação automática de sinais visuais da Língua Brasileira de Sinais representados por caracterização espaço-temporal. 2018. 62 f. Dissertação (Mestrado em Informática) - Universidade Federal do Amazonas, Manaus, 2018.por
dc.identifier.urihttps://tede.ufam.edu.br/handle/tede/6645-
dc.description.resumoA tradução automática da Língua Brasileira de Sinais (LIBRAS) para o português é um problema bastante complexo, devido às particularidades e características desta linguagem de sinais. Diversas pesquisas já foram realizadas e resultados importantes foram obtidos. Porém, a maioria dos métodos propostos reconhece somente letras e números, ou uma quantidade reduzida de palavras. Além disso, devido a essas limitações, os resultados dessas pesquisas ainda não são suficientes para tornar possível a comunicação com os surdos sem a dependência de intérpretes, e os serviços básicos como educação e saúde necessitam desses profissionais para suprirem a demanda de atendimento a deficientes auditivos. Outro problema enfrentado ao tentar vislumbrar soluções é a inexistência de uma base de dados pública que contenha um número significativo de sinais rotulados por especialistas desta área. Por fim, técnicas de aprendizado profundo têm sido utilizadas para resolver muitos problemas de visão computacional, mas não foram encontrados trabalhos diretamente relacionados à classificação automática da LIBRAS utilizando tais técnicas. Diante dessas observações, este trabalho utiliza um método baseado em rede neural profunda convolutiva em 3 dimensões (3D), características espaços-temporais extraídas, estratégia de transferência de aprendizado e dados de profundidade associados aos do tipo Red, Green, Blue (RGB), para realizar a classificação dos sinais da LIBRAS mais comuns empregados na alfabetização de surdos. Além disso, outra contribuição importante é a base de dados gerada e rotulada, composta por 510 instâncias, todas representando sinais dinâmicos, dada a inexistência de bases de vídeos da LIBRAS com essa quantidade de amostras.por
dc.description.abstractThe automatic translation of the Brasilian Sign Languagem (LIBRAS) into Portuguese is a very complex problem, due to the peculiarities and characteristics of this sign language. Several researches have already been carried out and important results have been obtained. However, most of the proposed methods recognize only letters and numbers, or a reduced number of words. In addition, due to such limitations, the results of these researches are still insufficient to enable communication with deaf people without the dependency of interpreters, and basic services such as education and health need these professionals to meet the demand for care of the hearing impaired. Another problem faced on trying to envision solutions is the lack of a public database containing a significant number of signals, labeled by experts in this area. Finally, deep learning techniques have been used to solve many computer vision problems, but we have not found any work directly related to the automatic classification of LIBRAS. In light of these observations, this work uses a method based on deep convolutional 3D neural network, extracted spatiotemporal characteristics, strategy of transfer learning and depth data associated with RGB, to perform the classification of the most common LIBRAS signs used in the literacy of deaf people. In addition, another important contribution is the generated labeled database, composed of 510 instances, all representing dynamic signals, given that there is no LIBRAS database available with such an amount of samples.eng
dc.formatapplication/pdf*
dc.thumbnail.urlhttps://tede.ufam.edu.br//retrieve/24246/Disserta%c3%a7%c3%a3o_Marcelo%20Machado%20PPGI.jpg*
dc.languageporpor
dc.publisherUniversidade Federal do Amazonaspor
dc.publisher.departmentInstituto de Computaçãopor
dc.publisher.countryBrasilpor
dc.publisher.initialsUFAMpor
dc.publisher.programPrograma de Pós-graduação em Informáticapor
dc.rightsAcesso Abertopor
dc.rights.urihttp://creativecommons.org/licenses/by-nc-sa/4.0/-
dc.subjectCaracterização espaço-temporalpor
dc.subjectClassificação automática de vídeospor
dc.subjectBase de Dados da LIBRASpor
dc.subjectClassificação da LIBRASpor
dc.subject.cnpqCIÊNCIAS EXATAS E DA TERRA: CIÊNCIA DA COMPUTAÇÃOpor
dc.titleClassificação automática de sinais visuais da Língua Brasileira de Sinais representados por caracterização espaço-temporalpor
dc.title.alternativeAutomatic visual sign classification of Brazilian Sign Language represented by spatio-temporal featurespor
dc.typeDissertaçãopor
Appears in Collections:Mestrado em Informática

Files in This Item:
File Description SizeFormat 
Dissertação_Marcelo Machado PPGI6.72 MBAdobe PDFThumbnail

Download/Open Preview


This item is licensed under a Creative Commons License Creative Commons