@InProceedings{CarneiroAndr:2015:ViInDa,
author = "Carneiro, Heitor Guerra and Andrade Neto, Pedro Ribeiro de",
affiliation = "FATEC and {Instituto Nacional de Pesquisas Espaciais (INPE)}",
title = "Visualiza{\c{c}}{\~a}o interativa de dados e cen{\'a}rios
ambientais usando controle de gestos",
year = "2015",
organization = "Semin{\'a}rio de Inicia{\c{c}}{\~a}o Cient{\'{\i}}fica e
Inicia{\c{c}}{\~a}o em Desenvolvimento Tecnol{\'o}gico e
Inova{\c{c}}{\~a}o",
publisher = "Instituto Nacional de Pesquisas Espaciais",
address = "S{\~a}o Jos{\'e} dos Campos, SP",
abstract = "O objetivo deste projeto {\'e} implementar uma ferramenta
computacional para a visualiza{\c{c}}{\~a}o interativa de dados
espaciais. Esta ferramenta possui mecanismos para controle e
sele{\c{c}}{\~a}o de um conjunto de dados
espa{\c{c}}o-temporais, como por exemplo resultados de pesquisas
produzidas pelo Centro de Ci{\^e}ncia do Sistema Terrestre
(CCST). O ambiente computacional adotado utiliza a linguagem de
programa{\c{c}}{\~a}o Java, o sensor de gestos Microsoft Kinect,
a biblioteca para a intera{\c{c}}{\~a}o por gestos SimpleOpenNI
e o globo virtual NASA World Wind 2. O Kinect possui uma
c{\^a}mera de alta resolu{\c{c}}{\~a}o e um conjunto de
sensores capazes de detectar at{\'e} vinte
articula{\c{c}}{\~o}es do corpo humano com uma taxa de captura
de dados de trinta quadros por segundo. A biblioteca SimpleOpenNI
simplifica e acelera o desenvolvimento de aplica{\c{c}}{\~o}es
com o Kinect. Por exemplo, ela permite acesso a profundidade da
imagem captada para rastrear o usu{\'a}rio atrav{\'e}s da
constru{\c{c}}{\~a}o de uma cena tridimensional. O World Wind
{\'e} uma API que fornece um globo virtual para a
visualiza{\c{c}}{\~a}o de mapas e informa{\c{c}}{\~o}es
geogr{\'a}ficas. A arquitetura desenvolvida usa o padr{\~a}o
model-view-controller (MVC) para desacoplar a
identifica{\c{c}}{\~a}o dos gestos da visualiza{\c{c}}{\~a}o,
possibilitando altera{\c{c}}{\~o}es em quaisquer camadas
independentemente. Atrav{\'e}s da an{\'a}lise de movimento
criou-se um componente com capacidade de reconhecimento de gestos
3D, o qual considera o n{\'u}mero de imagens capturadas pela
c{\^a}mera e a movimenta{\c{c}}{\~a}o dos membros superiores do
usu{\'a}rio. A ferramenta implementada possui v{\'a}rios gestos
que ativam determinados comandos de visualiza{\c{c}}{\~a}o. Por
exemplo, gesto de deslocar a m{\~a}o direita esta associado ao
comando de mover o mapa; o gesto de aproximar e afastar as
m{\~a}os esta associado a o diminuir e aumentar o zoom,
respectivamente; o gesto segurar o mapa com uma m{\~a}o e
deslizar na horizontal com a outra esta associado a alterar os
dados a serem visualizados; o gesto de segurar o mapa com uma
m{\~a}o e deslizar na vertical com a outra esta associado a
visualizar um mesmo dado em diferentes tempos; o gesto de empurrar
efetuado com a m{\~a}o direita esta associado {\`a}
sele{\c{c}}{\~a}o de dados. A ferramenta desenvolvida {\'e} um
software livre e esta dispon{\'{\i}}vel no github. Como
trabalhos futuros, ser{\'a} desenvolvida uma ferramenta para
cria{\c{c}}{\~a}o e gerenciamento de um banco de dados espaciais
para serem usados pela ferramenta de visualiza{\c{c}}{\~a}o
usando a biblioteca TerraLib, desenvolvida pelo INPE.",
conference-location = "S{\~a}o Jos{\'e} dos Campos, SP",
conference-year = "30-31 jul.",
language = "pt",
ibi = "8JMKD3MGP3W34P/3K247LH",
url = "http://urlib.net/ibi/8JMKD3MGP3W34P/3K247LH",
urlaccessdate = "29 jun. 2024"
}