???item.export.label??? ???item.export.type.endnote??? ???item.export.type.bibtex???

Please use this identifier to cite or link to this item: https://tede.ufam.edu.br/handle/tede/5012
Full metadata record
DC FieldValueLanguage
dc.creatorSouza, Robson Silva de-
dc.creator.Latteshttp://lattes.cnpq.br/6520605275818926por
dc.contributor.advisor1Costa, Marly Guimarães Fernandes-
dc.contributor.advisor1Latteshttp://lattes.cnpq.br/7169358412541736por
dc.contributor.advisor-co1Costa Filho, Cícero Ferreira Fernandes-
dc.contributor.advisor-co1Latteshttp://lattes.cnpq.br/3029011770761387por
dc.date.issued2015-09-11-
dc.identifier.citationSOUZA, Robson Silva de. Reconhecimento das configurações de mão da língua brasileira de sinais - LIBRAS em imagens de profundidade através da análise de componentes principais e do classificador k-vizinhos mais próximos. 2015. 115 f. Dissertação (Mestrado em Engenharia Elétrica) - Universidade Federal do Amazonas, Manaus, 2015.por
dc.identifier.urihttp://tede.ufam.edu.br/handle/tede/5012-
dc.description.resumoDe acordo com o IBGE (Censo 2010), o Brasil possui 9,7 milhões de brasileiros com algum grau de deficiência auditiva, mais de cinco por cento da população. Para a maior parte destas pessoas a língua natural principal utilizada para sua comunicação é a LIBRAS (Língua Brasileira de Sinais) e não o português. O reconhecimento de sinais visa permitir uma maior inserção sócio digital da comunidade surda através da interpretação da língua de sinais pelo computador em formato de áudio ou texto. Esta dissertação apresenta o reconhecimento de um dos parâmetros globais da LIBRAS, as configurações de mão, utilizando o classificador k-vizinhos mais próximos e a técnica de redução de dimensionalidade 2D²PCA. Um conjunto de dados, robusto e representativo das condições do cotidiano, constituído de 12.200 imagens de profundidade das 61 configurações de mão, capturadas pelo sensor Kinect® foi construído. Todas as imagens foram submetidas inicialmente a uma etapa de segmentação que buscou isolar a região da mão direita do resto do corpo. Buscando a eliminação de redundância no conjunto de dados foi implementado uma etapa de extração de características, através da técnica 2D2PCA que determina as formas mais representativas de dados a partir de combinações lineares dos pixels originais. O classificador “k-vizinhos mais próximos” foi a técnica utilizada para a etapa final de reconhecimento automático das configurações de mão. O referido classificador, implementado com k=1 e matriz de característica de 10x10, conseguiu o melhor desempenho, classificando corretamente 96,31% das amostras de testes. Foram obtidas taxas de acerto de 100% para seis configurações de mão.por
dc.description.abstractAccording to Brazilian Institute of Geography and Statistic IBGE – Instituto Brasileiro de Geografia e Estatística (Censo 2010), Brazil has 9.7 million Brazilians with some degree of hearing impairment or deafness, more than five per cent of the population. For the majority of those persons the main natural communication method is the Brazilian Sign Language (LIBRAS – Língua Brasileira de Sinais), instead of the spoken Portuguese. The computer-aided recognition of signs aims to expand the social and digital inclusion of the deaf community by means of those signs translation into audio or text format. This work presents one of the global LIBRAS parameters recognition, the hand gestures, using k-nearest neighbor’s classifier and 2D²PCA dimensionality reduction technique. A robust and representative data set of daily conditions, with 12.200 depth images from 61 hand gesture, captured by Kinect® sensor, was built. Initially the images were segmented in a preprocessing step, which isolated the region of the right hand from the rest of the body. Seeking to eliminate the data set redundancy, the images were submitted to a dimensionality reduction by (2D) dimensional 2PCA technique determining the most representative forms of data from original pixels linear combination. The classifier k-nearest neighbors was the technique in the final stage in the hand gesture automatic recognition. This classifier could correctly categorize 96.31% of test samples (k = 1 and 10x10 feature matrix). Six hand gesture sets were correctly classified obtaining 100% successful rateseng
dc.description.sponsorshipNão informadapor
dc.formatapplication/pdf*
dc.thumbnail.urlhttp://200.129.163.131:8080//retrieve/12026/Disserta%c3%a7%c3%a3o%20-%20Robson%20Silva%20de%20Souza.pdf.jpg*
dc.languageporpor
dc.publisherUniversidade Federal do Amazonaspor
dc.publisher.departmentFaculdade de Tecnologiapor
dc.publisher.countryBrasilpor
dc.publisher.initialsUFAMpor
dc.publisher.programPrograma de Pós-graduação em Engenharia Elétricapor
dc.rightsAcesso Abertopor
dc.subjectLíngua Brasileira de Sinaispor
dc.subjectLIBRASpor
dc.subjectDeficiência auditivapor
dc.subjectSurdospor
dc.subjectInclusão socialpor
dc.subject.cnpqENGENHARIAS: ENGENHARIA ELÉTRICApor
dc.titleReconhecimento das configurações de mão da língua brasileira de sinais - LIBRAS em imagens de profundidade através da análise de componentes principais e do classificador k-vizinhos mais próximospor
dc.typeDissertaçãopor
Appears in Collections:Mestrado em Engenharia Elétrica

Files in This Item:
File Description SizeFormat 
Dissertação - Robson Silva de Souza.pdfReprodução Total Autorizada3.13 MBAdobe PDFThumbnail

Download/Open Preview


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.