<?xml version="1.0" encoding="ISO-8859-1"?>
<metadatalist>
	<metadata ReferenceType="Conference Proceedings">
		<site>mtc-m21b.sid.inpe.br 804</site>
		<holdercode>{isadg {BR SPINPE} ibi 8JMKD3MGPCW/3DT298S}</holdercode>
		<identifier>8JMKD3MGP3W34P/49NAEJB</identifier>
		<repository>sid.inpe.br/mtc-m21b/2023/08.29.13.00</repository>
		<lastupdate>2023:08.29.13.00.25 sid.inpe.br/mtc-m21b/2013/09.26.14.25.20 simone</lastupdate>
		<metadatarepository>sid.inpe.br/mtc-m21b/2023/08.29.13.00.25</metadatarepository>
		<metadatalastupdate>2023:09.26.02.57.58 sid.inpe.br/bibdigital@80/2006/04.07.15.50 administrator</metadatalastupdate>
		<secondarykey>INPE--PRE/</secondarykey>
		<citationkey>FerreiraPovo:2017:ReNeAr</citationkey>
		<title>Rede Neural Artificial aplicada ao reconhecimento de configurações das mãos da Língua Brasileira de Sinais</title>
		<year>2017</year>
		<secondarytype>PRE CN</secondarytype>
		<numberoffiles>1</numberoffiles>
		<size>111 KiB</size>
		<author>Ferreira, Matheus da Silva,</author>
		<author>Povoa, Lucas Venezian,</author>
		<group>CAP-COMP-SESPG-INPE-MCTIC-GOV-BR</group>
		<affiliation>Instituto Nacional de Pesquisas Espaciais (INPE)</affiliation>
		<affiliation>Universidade Federal de São Paulo (UNIFESP)</affiliation>
		<electronicmailaddress>matheus.dasilva.ferreira@hotmail.com</electronicmailaddress>
		<electronicmailaddress>lucasvenez@gmail.com</electronicmailaddress>
		<conferencename>Workshop dos Cursos de Computação Aplicada do INPE, 17 (WORCAP)</conferencename>
		<conferencelocation>São José dos Campos, SP</conferencelocation>
		<date>20-22 nov. 2017</date>
		<booktitle>Anais</booktitle>
		<tertiarytype>Poster</tertiarytype>
		<transferableflag>1</transferableflag>
		<contenttype>External Contribution</contenttype>
		<versiontype>publisher</versiontype>
		<keywords>Língua Brasileira de Sinais, Configuração das mãos, Redes Neurais Artificiais, Reconhecimento de imagens, DeepLIBRAS.</keywords>
		<abstract>A Língua Brasileira de Sinais (LIBRAS) é a língua utilizada pela comunidade surda do Brasil para se comunicar e representa a principal forma do surdo expressar a sua cultura. Por mais que a LIBRAS tenha sido reconhecida como a segunda língua oficial do país, nota-se ainda a dificuldade enfrentada pela população surda em se comunicar com a população ouvinte, seja pela falta de intérpretes ou pelo baixo número de pessoas bilíngues, o que representa um desafio para a realização de atividades diárias. Nesse sentido, a existência de uma tecnologia voltada à tradução dos sinais da LIBRAS para a Língua Portuguesa facilitaria a comunicação entre surdos e ouvintes, o que colaboraria para a inclusão social de uma parcela da sociedade. Com base nisso, este trabalho tem como objetivo utilizar Redes Neurais Artificiais (RNA) para reconhecer as configurações das mãos, ou seja, as formas que as mãos assumem durante a execução de um sinal, que corresponde a um dos cinco parâmetros responsáveis por padronizar os sinais da LIBRAS. Para tanto, o desenvolvimento ocorreu por meio de cinco etapas: captação das imagens, pré-processamento, definição da arquitetura, treinamento e validação da RNA. Na etapa de captação das imagens realizou-se à gravação dos sinais, por meio de um sensor de captura de imagens de cor e profundidade. Na etapa de pré-processamento criou-se o conjunto de imagens de configurações das mãos utilizado no processo de aprendizado e no teste das redes desenvolvidas, recortadas dos sinais gravados na etapa anterior. Na definição da arquitetura foi estabelecida e configurada uma RNA com potencial de cumprir com o objetivo deste trabalho. No treinamento, a RNA anteriormente definida foi continuamente exposta a um subconjunto das imagens, com a finalidade de aprender a classificar as configurações das mãos. Por fim, na validação, a RNA treinada foi apresentada ao conjunto restante das imagens, com o propósito de avaliar a capacidade da rede em generalizar, ou seja, reconhecer configurações em imagens não disponíveis durante o treinamento. Após a avaliação, o processo utilizado retornava para a etapa de definição, onde o resultado era empregado como base para o desenvolvimento de uma nova RNA. Ao todo, o conjunto de imagens utilizado era formado por sete configurações de mãos distribuídas em 1089 imagens, das quais 770 foram dedicadas ao treinamento e 319 ao teste. A RNA que obteve a maior taxa de reconhecimento foi uma Convolutional Neural Network (CNN), que conseguiu uma taxa de 100% no conjunto de treinamento e 83,1% no conjunto de teste, o que resultou em uma taxa geral de 95%. Portanto, espera-se que o presente trabalho, ao abordar o reconhecimento de um dos parâmetros fundamentais da LIBRAS, contribua no desenvolvimento de um sistema capaz de reconhecer e traduzir sinais em tempo real, buscando reduzir a distância entre as comunidades surdas e não surdas.</abstract>
		<area>COMP</area>
		<language>pt</language>
		<targetfile>Ferreira_rede.pdf</targetfile>
		<usergroup>simone</usergroup>
		<visibility>shown</visibility>
		<documentstage>not transferred</documentstage>
		<nexthigherunit>8JMKD3MGPCW/3F2PHGS</nexthigherunit>
		<nexthigherunit>8JMKD3MGPDW34P/49QQESB</nexthigherunit>
		<citingitemlist>sid.inpe.br/mtc-m16c/2023/09.14.00.51 5</citingitemlist>
		<citingitemlist>sid.inpe.br/bibdigital/2013/10.12.22.16 2</citingitemlist>
		<hostcollection>sid.inpe.br/mtc-m21b/2013/09.26.14.25.20</hostcollection>
		<username>simone</username>
		<agreement>agreement.html .htaccess .htaccess2</agreement>
		<lasthostcollection>sid.inpe.br/mtc-m21b/2013/09.26.14.25.20</lasthostcollection>
		<url>http://mtc-m21b.sid.inpe.br/rep-/sid.inpe.br/mtc-m21b/2023/08.29.13.00</url>
	</metadata>
</metadatalist>