Gerado Automaticamente pelo URLibService


Relação da produção anual de dissertações de mestrado do Curso CAP

Última atualização: 05/08/09 08:55

 
 



1973
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009



   1973



Aproximação de funções contínuas por frações racionais, no sentido de chebyshev
Dias, M. R.
INPE-503-LAFE
Tissi, Plínio (orientador)
1973-09-19
Este trabalho tem por objetivo a apresentação de um algoritmo que gera a melhor aproximação, no sentido de Chebyshev, de funções contínuas por frações racionais. Serão vistos os detalhes da implementação deste algoritmo, assim como alguns exemplos de resultados obtidos serão mostrados.
Full text: no
Atualizar
 
  

Uma solução para o problema linhas escondidas no traçado de poliedros por computador
Pereira, J. A. G.
INPE-434-LAFE
Machado, Nelson C. (orientador)
1973-07-16
O problema de (linhas escondidas) para poliedros traçados por computador o problema de determinar quais arestas, ou partes de arestas, de um poliedro são visíveis para um dado ponto de observação. O presente trabalho propõe um novo algoritmo para resolver o problema das linhas escondidas. É descrito um método de classificado de arestas que elimina imediatamente a maioria das arestas totalmente escondidas. As restantes são testadas individualmente, em segmentos correspondentes as interseções da aresta com as demais, na projeção, até que se tenha examina do todo o poliedro. Os testes são estabelecidos de maneira a minimizar os cálculos. Conseqüentemente, o método aqui apresentado extremamente rápido, comparando-se favoravelmente com a maioria dos algoritmos apresenta dos na literatura. ABSTRACT: The "hidden line" problem for computer-drawn polyedra is the problem of determining which edges, or parts od edges, of a polyhedron are visible from a given vantage point. The method presented here for solving this problem is believed to be as fast as or even faster than previously know methods. An edge classification scheme is described that eliminates at once most of the totally invisible edges. The remaining are tested individually until the whole polyhedron is examined. The tests are stabilished in order to minimize calculation.
Full text: no
Atualizar
 
  

Uma linguagem de busca para sistemas de recuperação de informação
Teixeira, I. L. R.; Buss Filho, A. C.
INPE-414-LAFE
Machado, Nelson C. (orientador)
1973-07-16
Os atuais sistemas de recuperação de informação ressentem-se, em geral, de um rnétodo simples de consulta, que seja direta e fácil mente utilizado pelo usuário. O método de recuperação aqui apresentado baseia-se mana linguagem de busca, através da qual o usuário codifica sua pesquisa, manipulando palavras-chave e/ou descritores que indexam o material a ser recuperado. Desta forma, significa-se o enunciado dos termos de interesse, bem como permitese ao usuário associá-los entre si por meio de operações l do tipo OU, E e MAS NÃO. Embora orientado primordialmente para a recuperação de referências bibliográficas, o sistema criado pode ser aplicado a qualquer conjunto de dados que admita a indexação por palavra-chave ou descritor. Além disso, permite que a indexação seja feita sobre várias e diferentes características dos dados a recuperar; por exemplo, para as refere bibliográficas impossível a recuperação por nome do autor e por palavras do título, além de descritores. ABSTRACT: The current information retrieval systems usually miss a simple method of consultation, directly and easily employed by the user. The retrieval method presented here is based in a query language, through which the user codes his search, dealing with key-words and descriptors. In this manner, the listing of the terms of interest is quite simplified, and the user has the ability to associated them by means of logical operations, like OR, AND and AND NOT. Although primarily oriented towards bibliographic references this system may be applied to any data that can be indexed by key-words or descriptors. This indexation may be done over different types of characteristics of the data; for example, it is possible to retrieve any bibliographic reference by author´s name, key-words from the title and by descriptors.
Full text: no
Atualizar
 
  


   1975



Um algoritmo para correção sintática de erros em compiladores
Queiroz, M. M.
INPE-747-TPT/013
Velasco, Flávio Roberto Dias (orientador)
1975-08-01
Neste trabalho é proposto um algoritmo de correção automática de erros sintáticos em linguagens de programção. O método desenvolvido utiliza a informação sintática contida na sentença para ao encontrado um erro determinar quais as possíveis correções. Entre estas últimas é escolhida a correção mais "próxima" da sentença com erro. Para isto são estabelecidos critérios de semelhança ( "distancia") entre sentenças. Também é mostrada a implementção do algoritmo numa tradução para o Português do BASIC (BÁSICO). ABSTRACT: In this work an algorithm is proposed for the automatic correction of syntatic erros in computer program statements. When an error is found, the algorithm generates possible corrections and chooses the one "nearest" to the wrong statement. To accomplish this, measures of proximity of sentences are defined. One application of the algorithm to a translation to Portuguese of the programming language BASIC ("BÁSICO") is also shown.
Full text: no
Atualizar
 
  


   1976



CAIN: um cadastro de instituicoes
Gois, C. H. B.
INPE-1000-TPT/046
Moura, Antonio Divino
Teixeira, Iberê Lucio Ronchetti (orietador)
Renna e Souza, Celso
Buss Filho, Arry Carlos
Velasco, Flávio Roberto D.
Barbosa, Marcio Nogueira

1976-10-11
An archive structure, for storage and retrieval of information on research, sponsoring and related institutions, is presented, this structure is such as to make possible the interchange of intelligence among the IBICIT (Brazilian Institute for Scientific and Technological Information) data banks, and the integration of their archives. An hierarchic structure, based on the Institution's relations, is also explicites. Algorithms, for the creation and up-dating of the archives, are also presented. Such algorithms are already operational.
Full text: no
 
  

Um simulador para o sistema digital EAI-640
Maranhão, A. F.
INPE-1033-TPT/053
Renna e Souza, Celso de
Santana, Paulo Henrique de Assis (presidente)
Buss Filho, Arry Carlos
Teixeira, Iberê L. R.
Sonnenburg, Claudio R.
Velasco, Fávio R. Dias

1976-11-10
This work presents the development of a simulator for the EAI (Eletronic Associates, Inc) 640 Digital Computing System. The 640 is a third generation binary computer. It provides the user with an outstanding, general purpose, computing capability and includes flexible input/output and interrupt features. The simulator was implemented in the Burroughs B6700 Computing System and makes possible a virtual expansion of the real system configuration, such as peripheral devices and main storage, providing also debugging and diagnostic facilities.
Full text: no
 
  

Algol M: uma linguagem de alto nível para microcomputadores
Martins, R. C. O.
INPE-885-PE/19
Bergamini, Eduardo Whitaker (orientador)
1976-05-25
Neste trabalho uma linguagem denominada ALGOL M é apresentada. ALGOL M é uma lingugem de alto nível projetada para o desenvolvimento de "software" de suporte e aplicação para computadores de pequeno porte, tais como microcomputadores e alguns minicomputadores. Em seu projeto foi tomado como objetivo principal a capacidade de produzir código de máquina eficiente, permitindo ao mesmo tempo o acesso às características de "hardware" específicas do computador a ser programado. São apresentadas também as características gerais de um "Cross-compiler" para o ALGOL M, bem como um exemplo de aplicação para o minicomputador HP-21163.
Full text: no
Atualizar
 
  

Um sistema de recuperação de dados meteorológicos
Oliveira, A. A.; Nakaya, P. S.
INPE-1002-TPT/048
Meira Filho, Luiz Gylvan ( presidente)
Buss Filho, Arry Carlos (orietador)
Renna e Souza, Celso de
Gois, Carlos Henrique Bôto
Bersano, Miguel José
Teixeira, Iberê Lucio Ronchetti
Pereira, José Antonio Gonçalves

1976-10-29
Este trabalho apresenta um sistema de recuperação voltado para dados meteorológicos. Apesar de ter sido desenvolvido com a finalidade de recuperar dados de altitude e superfície, pode ser extendido a outros tipod de dados, generalizando desta forma a sua utilização. O método aqui apresentado basea-se numa linguagem de recuperação, através da qual o usuário codifica, de uma forma simples, os dados de seu interesse, podendo escolher períodos, horários, variáveis e outros parâmetros relativos aos dados a recuperar. Este sistema permite, portanto, que um usuário não particulamente especializado em técnicas de armazenamento e recuperação de grnades volumes de informação, possa efetuar um pedido de recuperação de dados meteorológicos, de uma maneira rápida e simples. ABSTRACT: This work presents an information retrieval system directed towards meteorological data. Although the system has been developed having the retrieval of surface and upper-air data as its goal, it can be extended to other types of data, thus generalizing its utilization. The method presented here is based on a retrieval language, through which the user codes in a very simple way the data he wants to retrieve, being able to choose periods of time, specific hours, variables and other parameters related to the retrieved data. This system thus allows an user, not particularly specialized with storage and retrieval techniques of large amounts of information, to be able to retrieve meteorological data in a quick and simple way.
Full text: no
Atualizar
 
  

Uma sistemática de armazenamento e recuperação de informações bibliográficas
Vasconcellos, N. M.; Bersano, M. J.
INPE-913-TPT/031
Teixeira, Iberê Lucio Ronchetti (orientador)
1976-06-14
Este trabalho aborda o problema de recuperação de informações bibliográficas por parte dos usuários de uma biblioteca. Um sistema é desenvolvido para o armazenamento e a recuperação destas informações, em dois níveis: semi-automático e automático. uma linguagem de consulta é proposta para a recuperação automática. O sistema desenvolvido é primeiro passo para a implementação de um controle global, da biblioteca, por computador. ABSTRACT: This work is addressed to the problem of bibliographical information retrieval by a library's user. A system is developed to store and retrieve this information in two levels: semi-automatic and automatic. A query language is proposed for the automatic retrieval. The developed system is the first step towards a complete library control by computer.
Full text: no
Atualizar
 
  


   1977



Um sistema de disseminação seletiva de informação
Cortez, I. R.; Miranda, J. I.
INPE-1169-TPT/075
Dias, Luiz Alberto Vieira (presidente)
Gois, Carlos Henrique Boto (orientador)
Santana, Paulo Henrique de Assis
Vasconcellos, Newton Marcos
Souza, Celso de Renna e
Buss Filho, Arry Carlos

1977-11-22
Um sistema de Disseminação Seletiva de Informação visa oferecer aos pesquisadores, das mais diversas áreas, um acompanhamento atualizado do que se vem publicando nas suas áreas de pesquisa, evitando informações irrelevantes. Este tipo de serviço tem se proliferado em todo mundo., nas bibliotecas especializadas. A idéia inicial foi H.P. Luhn, em 1959, e logo ganhou corpo, porque visava o uso de computadores, na época também emergido, e isto solidificou o desejo de um Centro de Documentação, que é servir a um número maior possível de leitores. A idéia fundamental de Luhn, e as novas pesquisas no sentido de tornar o sistema de DSI, e o uso de uma nova função de disseminação coloca o nosso sistema na vanguarda dos sistemas ora existentes. ABSTRACT: The aim of a Selective Dissemination Information System is to offer to distinct areas researchers an up to date accompaniment of that which is being published on their area, trying to avoid irrelevant information. This such kind of service is being proliferated on specialized libraries all over the world. The initial idea, from H.P. Luhn, has grown rapidly, since it aimed the utilization of computers, also emerging on that period. This has consolidated the Documentation Center purpose, that of being of use to as many readers as possible. To Luhn's fundamental ideas and to the modifications which have been effected throughout the years, we have incorporated new researchs, which aim to convert the system into an adaptive one, a new idea in relation to all SDI systems. This idea and the utilization of a new dissemination function places our system on the forefront of those which exist today.
Full text: no
Atualizar
 
  

Um sistema de aquisição de regra e inferência automática aplicado ao diagnóstico diferencial
Lage Filho, L.
INPE-1176-TPT/078
Kantor, Ivan Jelinek (presidente)
Velasco, Flávio Roberto Dias (orientador)
Souza, Celso de Renna e
Gois, Carlos Henrique Boto

1977-12-19
ABSTRACT: In this work we study some methods utilized in computer aided medical diagnostic, we describe an information system developed for the support of a group specialized in Community Medicine and, based on it, we propose an automatic system of health follow-up (acronym SAAS), embodying several characteristics of the models studied here. The SAAS can be included in the area of Artificial Intelligence, which deals with information systems capable of acquiring knowledge, making interferences and explaining them. Finally, we describe the implementation of the system for the acquisition of rules, one of the components of the proposed system.
Full text: no
Atualizar
 
  

Um tradutor XPL/ALGOL
Martins, Í. S.
INPE-1304-TPT/096
Bergamini, Eduardo Whitaker (presidente)
Sonnenburg, Cláudio Roland (orientador)
Velasco, Flávio Roberto Dias
Souza, Celso de Renna e
Gois, Carlos Henrique Botô
Santana, Paulo Henrique de Assis

1977-10-25
O trabalho consiste na elaboração de um tradutor da linguagem XPTJ para a linguagem ALGOL-E6700, versão 11.5, utilizando o método de análise sintática conhecido como estratégia mista de precedência O subproduto principal e possibilitar a implementação, e sistemas B6700, do gerador de compiladores desenvolvido, em XPL, por Mckeeman et al em 1970. ABSTRACT: This work presents a translator from XPL into ALGOL- B6700, version 11.5, using the mixed strategy precedence parsing method. Its main sub-product is that it makes possible the implementation, in P4700 systems, of the compiler generator developed by Mckeeman et al in 1970. ABSTRACT: This work presents a translator fron XPL into ALGOL-B6700, version II.5, using the mixed strategy precedence parsing method. Its main sub-product is that it makes possible the implementation, in B6700 systems, of the compiler generator developed by McKeeman et al in 1970.
Full text: no
Atualizar
 
  

Um estudo de propriedades de distância em gramaticas de contexto aplicadas a correção de erros
Miashiro, W. M.
INPE-1171-TPT/076
Carleial, Aydano Barreto (presidente)
Velasco, Flávio Roberto Dias (orientador)
Souza, Celso de Renna e
Buss Filho, Arry Carlos
Santana, Paulo Henrique de Assis

1977-09-22
O presente trabalho se preocupa com a recuperação de erros sintáticos em programa de computação. Esta recuperação consiste em permitir ao compilador continuar a análise do programa, mesmo quando forem encontrados erros, para que numa única execução o maior número de erros sejam revelados. Se nós conhecermos exatamente a origem do erro detectado, podemos tentar a sua correção. Tal como acontece nos códigos corretores de erros, a detecção e correção dos erros sintáticos está intinamente ligada a distância mínima entre as sentenças da linguagem. no nosso estudo, a sintaxe das linguagens de programação é modelada por gramáticas livres de contexto. São mostrados, então, alguns resultados na correção de sentenças, geradas por gramáticas com e sem as propriedades desejadas. ABSTRACT: In this work, we are concerned with the recovery of syntactical errors in computer programs. This recovery consists in allowing the compiler to carry on with the analysis of the prgram, even in the presence of syntactical errors, so that as many errors as possible are detected in a single running of the program. If we know exactly the origin of the detected errors, their correction can be tried. As in the error correcting codes, the detection and correction of syntactical errors os closely related to the minimum distance among sentences of the language. In our paper, the syntax of the programming languages is modeled by context-free grammars. Properties of the grammars that guarantes the desidered distance properties in the corresponding languages are then investigated, particularly for ll(k) grammars. Some results of the correction of sentences generated by grammars with and without desirable properties are shown.
Full text: no
Atualizar
 
  

Detecção de bordas em imagens: formulação em termos de testes e hipótese
Prado, L. O. C.
INPE-1118-TPT/067
Sobral, José Humberto de Andrade (presidente)
Mascarenhas, Nelson Delfino d'Ávila (orientador)
Souza, Celso de Renna e
Carleial, Aydano Barreto
Velasco, Flavio Roberto Dias

1977-07-25
São desenvolvidos novas técnicas estatísticas para o problema de detecção de bordas com vistas á aplicação em imagens de sa´telites de recursos naturais. A imagem é modelada por sinal e ruído independentes, aditivos, gaussianos e autorregressivos em duas dimensões. os parâmetros de modelo são determinados por medidas de correlaão. A formulação ótima em termos da teoria de detecção de sinais leva á construção de um teste envolvendo sete hipóteses atraente, envolvendo hipóteses não sobrepostas. São apresentados resultados de simulação do algoritmo aplicado a grupos de quatro pixels da imagem. ABSTRACT: New statistical techniques for the boundary detection problem are developed, with the objective of application to pictures taken by land resources satellites. The image is modeled by signal and noise which are independent, additive, gaussian and autorregressive in two dimensions. The parameters of the model are determined by correlation measurements. The optimal formulation in terms of signal detection theory leads to the construction of a test which involves seven overlapping hypothesis. A computationally attractive suboptimal test, involving non-overlapping hypothesis is developed. We present simulation results of the algorithm, when applied to goups of four pixels of the image.
Full text: no
Atualizar
 
  


   1978



Implementação no computador FM-1600 B de um interpretador BASIC
Ferreira, A. G.
INPE-1528-TDL/012
Mascarenhas, Nelson Delfino d´Ávila (presidente)
Souza, Celso de Renna (orientador)
Pedroso, Luiz Roberto Borges
Teixeira, Iberê Lucio Ronchetti

1978-11-27
Este trabalho descreve o projeto e implementação de um Interpretador BASIC-Interativo para o computador FM 1600 B da FERRANTI, destinado ao processamento de programas pequenos e simples. 0 sistema consiste de um analisador sintático de um gerador de forma intermediária um editor e um executor. ABSTRACT: This work describes the project and implementation of an Iterative BASIC Interpretator designed for the processing of small and simple programs on a FERRANTI FM 1600 B computer. The system consists of a syntax analyser, an intermediate form generator, an editor and an executor.
Full text: no
Atualizar
 
  


   1979



Uma linguagem para simulação de sistemas dinâmicos hierarquizados
Borges, H. G. V. S.
INPE-
Gielow, Ralf (presidente)
Renna e Souza, Celso e (orientador)
Barros, Maria Suelena Santiago
Dias, Múcio Roberto
Faria, Flávio Freitas

1979-12-28
Este trabalho descreve um pacote geral de "software", que foi desenvolvido para a simulação de sistemas hierarquizados no computador B6700. A idéia fundamental do trabalho é facilitar a modelagem e subsequente simulação de grandes sistemas considerando cada uma de suas partes como um subsistema. Em sua elaboração foram analisados os sistemas modeláveis por diagramas de fluxos e níveis criados por Jay W. Forrester. 0 pacote HIERTRAN foi desenvolvido, utilizando a linguagem de simulação NDTRAN. Neste documento é apresentado um manual contendo instruções, a fim de auxiliar o usuário à utilizá-lo corretamente, bem como detalhes de sua implementação. ABSTRACT: This report describes a software package for simulation of hierarchical systems, written for the B6700 computer. The main purpose of the package is to simplify the modelling and subsequent simulation of large systems, by considering each of its parts as a subsystem. Flux and level diagrams, created by J.W. Forrester, are used as modelling tools. The HIERTRAN package was programmed utilizing the NDTRAN simulation language. In this report, a user's manual as well as implementation details are presented.
Full text: no
Atualizar
 
  


   1980



Projeto de um sistema computador a bordo de aeronaves
Forjaz, H. A.
INPE-1999-TDL/041
Velasco, Flávio Roberto Dias (presidente)
Nawa, Oscar Akio (orientador)
Souza, Celso Renna e (co-orientador)
Silva, Ozires
Fregni, Edson

1980-07-16
Este trabalho descreve as etapas de desenvolvimento de um sistema computador de bordo destinado a equipar aeronaves "Bandeirante" modelos EMB-11OP1 e EMB-110P2, fabricadas pela Brasileira de Aeronáutica SA. A finalidade deste sis bordo calcular e fornecer informações que permitam a utilização otimizada das turbinas da aeronave, face ao regime de operação específico e as condições ambientes. A operação da aeronave a médio e longo prazo, significativa economia maior vida útil para as turbinas. ABSTRACT This report describes the steps followed in the development of a microcomputer"based flight instrument, primarily designed to be installed in aircrafts "Bandeirante" models EMB-11OK2., EMB-J1OP1 and EMB-110P2, manufactured by EMBRAER-Empresa Brasileira de Aeronautica S.A. The equipment is intended to reduce the pilots work load by furnishing continuous information on adequate engine torque settings, which will, additionally, insure extended operational life to the engines and significant fuel savings.
Full text: no
Atualizar
 
  

ALGOL-MS: Uma linguagem para o desenvolvimento de sistemas multiprogramados de pequeno porte
Freitas, U. M.
INPE-2282-TDL/067
Souza, Celso Renna e (presidente)
Bergamini, Eduardo Whitake (orientador)
Sonnenburg, Claudio Roland
Guimarães, Célio Cardoso
Teixeira, Iberê Lucio Ronchetti

1980-03-07
Desenvolve-se uma linguagem de alto nível, orientada para multiprogramação de computadores de pequeno porte, denominada ALGOLMS. Es ta linguagem esta apoiada em um conjunto de primitivas que formam o núcleo monitor do sistema. Desenvolve-se o núcleo monitor e um compilador cruzado, o qual gera código objeto para o microcomputador INTEL 8080. Durante a compilação do programa, inclui-se o código do núcleo monitor.
Full text: no
Atualizar
 
  

Utilizacao do algoritmo de transformação rapida de fourier (FFT)na aceleração do calculo de diagramas de irradiação de antenas parabólicas
Mazzucco Júnior, J.
INPE-2071-TDL/053
Renna e Souza, Celso de (presidente)
Dias, Luiz Alberto Vieira (orientador)
Almeida, Roberto Antônio R. de
Dias, Affonso Henrique Correa
Mascarenhas, Nelson Delfino d´Ávila

1980-12-22
Apresenta-se um sistema para simulação de antena refletora, em computador digital. Conseguiu-se uma aceleração do cálculo do diagrama de irradiação da antena, através da utilização do algoritmo da Transformada Rápida de Fourier, associado a resolução numérica de uma integral dupla oscilante, que faz parte do modelo matemático utilizado na simulação. ABSTRACT: This work presents a system for reflector antenna simulation, with digital computer. A reduction was achieved in the use for the calculation of the antennas radiation pattern, through the use of the Fast Fourier Trans form algorithm, associated with the numerical solution of cm oscillating double integral, which is part of the mathematical model used in the simulation.
Full text: no
Atualizar
 
  

Utilização do algoritmo de transformada rápida de FOURIER (FFT) na aceleração do cálculo de diagramas de irradiação de antenas parabólicas
Mazzuco Júnior, J.
INPE-TDI/
Renna e Souza, Celso de (presidente)
Dias, Luiz Alberto Vieira (orientador)
Almeida, Roberto Antonio R. de
Dias, Affonso Henrique Correa
Mascarenhas, Nelson Delfino D.

1980-12-22
Apresenta-se um sistema para simulação de antena refletora, em computador digital. Consegui-se uma aceleração do cálculo do diagrama de irradiação da antena, através da utilização do algoritmo da Transformada Rápida de FOURIER, associado a resolução numérica de uma integral dupla oscilante, que faz parte do modelo matemático utilizado na simulação. ABSTRACT: This work presents a system for reflector antenna simulation, with digital computer. A reduction was achieved in the line for the calculation of the antenna´s radiation pattern, through the use of the Fast FOURIER Transform algorithm, associated with the numerical solution of an oscillating double integral, which is part of the mathematical model used in the simulation.
Full text: no
Atualizar
 
  

Um sistema para apresentação gráfica da informação
Pachego, M.
INPE--TDI/
Almeida, José Emmanuel Gama de (presidente)
Mascarenhas, Nelson Delfino D´Ávila (orientador)
Pereira, José Antonio Gonçalves (C-orientador)
Souza, Celso de Renna e
Meireles, Domingos Sérgio

1980-08-29
O presente trabalho trata da concepção, do projeto lógico e físico e implantação de um sistema para apresentação gráfica de superfícies. Este sistema poderá ser usado na reprodução de cartas náuticas no formato padrão, na produção de perspectivas do relevo marítimo, de cartas meteorológicas (isobáricas e isotérmicas), e de mapas utilizando dados de Sensoriamento Remoto, etc. ABSTRACT: The present work deals with the conception, logical and physical project, and implementation of a system for information display in graphic form, specifically, for surface graphic representation. This system may be used in the reproduction of nautical charts, in the standard format, production of maritime perspective relief maps, meteorological isobaric and isothermal charts, maps using remote sensing data, and other similar maps.
Full text: no
Atualizar
 
  

LANAC - uma linguagem de "alto nível" para aquisição de dados e controle de processos por minicomputadores
Viola, F. E. C.
INPE--TDI/
Meira Filho, Luiz Gylvan (presidente)
Renna e Souza, Celso e (orientador)
Nawa, Oscar Akio
Dias, Múcio Roberto
Oliveira, José Roberto de

1980-02-06
Propõe-se uma linguagem de "alto nível" voltada para aquisição de dados e controle de processos, do tipo ALGOL, não apresentando, entretanto, recursividade. A implementação proposta objetiva a geração de código simbólico do tipo "assembly", para o minicomputador Hewllett-Oackard 2116B, e consiste em um compilador, escrito em ALGOL do B-6700. Adota-se um exemplo típico de aplicação para comprovação do mecanismo de sincronização de processos paralelos, por meio de sinais de tempo trocados através dos semáforos (Dilkstra, 1968). ABSTRACT: A high level ALGOL-like language, without recursion, for data acquisition and process control is proposed. The proposed implementation consiste of a compiler written in B6700-APLGOL, producing assembly code for the Hewlett-Packard 2116B minicomputer. A typical application example for testing the parallel process sunchronizing mechanism is adopted. This application uses timing signals exchanged through semaphores.
Full text: no
Atualizar
 
  


   1981



Um sistema para implantação de bancos de dados relacionais nos computadores BURROUGHS das Séries B7000/B6000
Alexandre, J. O. M.; Guerra, P. C. P.
INPE-2299-TDL/070
Velasco, Flávio Roberto Dias (presidente)
Souza, Celso de Renna e (orientador)
Furtado, Antonio Luz ( co- orientador)
Gois, Carlos Henrique Bôto
Filho, Arry Carlos Buss

1981-03-20
Este relatório apresenta o Sistema Relacional projetado para ma BURROUGHS (se B7000/B6OOO). O Sistema Relacional foi concebido para a implantação de banco de dados relacionais de propósito geral, em ambiente BURROUGHS, usando o pacote de "software" de gerência de dados, DMS-II, como ferramenta de suporte. Ele oferece aos usuários unia linguagem de alto-nível e não-programática denominada SEQUEL2/QS e as linguagens programáticas usuais como COBOL, ALGOL, PL/I. ABSTRACT: This report introduces the relational system designed for BURROUGHS machines (series B7000/B6000). The relational system was conceived to implement multipurpose relational data-bases in the BURROUGHS environment using the dbms software package, DMS-II, as a support tool. It offers the users a high-level non-procedural query language called SEQUEL2/QS, and usual procedural languages as COBOL, ALGOL, and PL/I.
Full text: no
Atualizar
 
  

Sistema de recuperação de dados documentários
Barcellos, S. O.
INPE--TDI/
Souza, Celso de Renna e (presidente)
Santana, Paulo Henrique de Assis (orientador)
Velasco, Flávio Roberto Dias
Fonseca, Ana Flávia Pereira M. da

1981-03-30
Neste trabalho propõe-se a sintaxe e a semântica de uma nova linguagem de busca. Discute-se a construção de um sistema de recuperação de informações, baseado nesta linguagem. Apresenta-se uma idéia muito aproximada das complexidades de tempo e de espaço de tal sistema, bem como um exemplo completo da execução em "batch" do sistema implementado. ABSTRACT: In this work the syntax and the semantic of a new query language is proposed. The construction of an information retrieval system based on this language is discussed. A very approximate idea of the system time and space complexities is given. A complete example of a batch execution of the implemented system is showed.
Full text: no
Atualizar
 
  

Extração de atributos espaciais em imagens multiespectrais
Dutra, L. V.
INPE--TDI/
Renna e Souza, Celso de (presidente)
Mascarenhas, Nelson Delfino d´Àvila (orientador)
Sonnenburg, Claudio Roland
Velasco, Flávio Roberto Dias

1981-03-06
Extração de atributos é um fator importatnte na determinação da precisão que se pode alcançar em tarefas de classificação de imagens multiespectrais. Os métodos tradicionais de classificação ponto a ponto não utilizam toda a informação disponível, pois desprezam o relacionamento espacial existente entre os pontos da imagem que pertencem a uma mesma classe. São desenvolvidos métodos para extração de atributos espaciais de imagens multiespectrais através de filtragem linear e não-linear. Métodos de seleção de atributos são também utilizados porque restrições físicas, custos computacionais e disponibilidade de padrões e treinamento inviabilizam o uso de um grande número de atributos extraídos de imagem. O classificador usado supõe que essas características tem distribuição gaussiana, mas o uso de filtros não-lineares não garante a normalidade das características resultantes. Usam-se, pois, curvas de transferência não-lineares para tentar recuperar o caráter gaussiano dos atributos em questão. A análise do desempenho dos atributos espaciais, em conjunto com atributos rspectrais, revelou que o uso da informação espacial melhora a precisão da classificação. ABSTRACT: Feature extraction in an important factor in determining the precision that can be attained on the classification of multiespectral images. The tradicional point-but-point classification methods do not use all the available information since they disregard the spatial relationship that exists among pixels belongin to the same class. Methods are developed to extract image spatial features by means of linear and nom-linear filtering. Feature selection methods are alsodeveloped, since it is not possible to use all the generated features because physical restrictions, computacional costs and availability of traininh patterns do not allow the manipulation of a large number of extracted image features. The classifier that is used assumes that the features have a Gaussian distribution although the use of nonlinear filters does not guarantee the normality of the resulting features. Therefore, nonlinear transfer functions are employed as an attempt to restore the Gaussian character of the involved features. The analysis of the performance of the spatial features in conjunction with the spectral ones demonstrated that the use of spatial information increases the precision of the classification.
Full text: no
Atualizar
 
  

Um tradutor para a linguagem Sequel 2/Query
Oliveira, O. M.
INPE-2351-TDL/083
Souza, Celso de Renna e (presidente)
Velasco, Flávio Roberto Dias (orientador)
Furtado, Antonio Luz
Kowaltowski, Tomasz
Nakaya, Paulo Seiji

1981-12-02
Este trabalho descreve a implementação das interfaces de da dos de um sistema de implantação de banco de dados relacionais para ma quinas Burroughs (séries B7000/86000), denominado "Sistema Relacional", cujo objetivo principal facilitar aos usuários o acesso aos dados. Este sistema se apoia no pacote "DM5 II" da Burroughs. Faz-se a recuperação de informação no sistema, por intermédio da linguagem de consulta de alto nível SEQUEL 2/QUERY. ABSTRACT: This paper describes the project and construction of the data interfaces for Burroughs machines (series B7000/B6000) relational data base system, called "Sistema Relacional", which has the purpose of simplifying the users data access. This system is supported by the Burroughs DM8 II package. In the "Sistema Relacional", information retrievel is accomplished with the high-level SEQUEL 2/QUERY language.
Full text: no
Atualizar
 
  

Técnicas heuríticas aplicadas á resolução de problemas
Oliveira, J. L.
INPE-2314-TDL/077
Neto, Atair Rios (presidente)
Renna e Souza, Celso e (orientador)
Simoni, Paulo Ouvera (co- orientador)
Elfes, Alberto
Velasco, Flávio Roberto Dias

1981-02-26
Estuda-se a aplicação de uma técnica de busca auxiliada por conhecimentos específicos sobre o domínio do problema (busca heurística) a situação em que a analise de todas as alternativas impossível ou inviável. A te de busca escolhida foi a Alfa-beta, geralmente utilizada na implementação de jogos de tabuleiro, sendo a aplicação feita em jogos diferenciais discretizados. Para o jogo localmente ótimo proposto, foi definido um valor relativo V (x1,w) Nas condições consideradas por Renna e Souza e Ciletti, foi possível estabelecer um limitante para a diferença entre o valor do jogo por eles definido e V (x bem como um limitante para a diferença entre estados, alcançados ap o mesmo n de decisões, por dois quais quer jogos iniciados no mesmo ponto. Como aplicação inicial, um jogo de tabu leiro, damas havaianas (KONANE), foi implementado. Realizou-se também um es tudo e verificou-se o desempenho do procedimento Alfa-beta, nas aplicações feitas. ABSTRACT: This document deals withan application of search techniques, assisted by specific knowledge of the problem domain (heuristic search) to situations where the analysis of all alternatives is impossible or not feasible. The selected search technique, the Alfa-beta pruning, generally used in implementing board games, is applied to a discrete version of differential games. A relative value V(x w) was defined for the proposed locally optimum game. Assuming the conditions considered by Renna e Souza and Ciletti, it was possible to establish a limit for the difference between the value of the game, as defined by them, and V(x w). A limit was also established for the difference between states reached after the same number of decisions in two games started at the same point. As an initial application, a go of h checkers (KONANE) was implemented. The performance of the Alfa-beta technique was studied and verified in the applications.
Full text: no
Atualizar
 
  


   1982



Seleção de dados para testes de programas
Anaya, R. M. S.
INPE--TDI/
Velasco, Flávio Roberto Dias (presidente)
Dias, Múcio Roberto (orientador)
Bianchi, Paulo
Martins, Ricardo Correia de Oliveira

1982-06-15
Sabe-se que a maneira prática para se obterem altos graus de confiabilidade em desenvolvimento de programas é através do processo de testes que usa conjuntos de dados adequadamente selecionados. Neste trabalho é apresentado um sistema que visa auxiliar o usuário no processo de seleção de dados para testes de programas escritos em FORTRAN. Neste sistema são combinados aspectos de análise estática e dinâmica de programas que permitem identificar os comandos e transferências de controle não executados num dado teste. Vários exemplos que ilustram em detalhes o uso do sistema são dados. ABSTRACT: It is well known that the practical way to obtain high degress of reliability in software development is through the process of testing using adequately selected data. In this work a system which intends to provide some help to the user in the process of selecting data for testing FORTRAN programs is presented. In this system it is combined aspects related to the static and dinamic analysis of programs which allow the identification of the statements and transferences of control not executed in a given test. Several examples are given to illustrate in detail the use of the system.
Full text: no
Atualizar
 
  

Técnicas gráficas para análise de dados multivariados: aplicações na análise de recursos naturais
Cerqueira, J. L.
INPE-2386-TDL/085
Renna e Souza, Celso de (presidente)
Mascarenhas, Nelson Delfino d´Ávila (orientador)
Melo, Rubens Nascimento
Velasco, Flávio Roberto Dias
Lima, Ubirajara M. Barsotti

1982-02-12
A necessidade de desenvolver ferramentas para a análise de dados multivariados, aliada ao apelo visual de representações gráficas, motiva o uso de técnicas de representação bidimensional desses dados. Este trabalho apresenta e discute os principais métodos lineares e descreve um sistema, implementado em computador, que aplica esses métodos. As aplicações são feitas na análise de imagens multiespectrais de recursos naturais. ABSTRACT: The need for tools for the analysis of multivariate data, along with the visual appeal of graphic representations, motivates the use of techniques for a two dimensional representation of the data. This work presents and discusses the main linear methods and also describes a system, implemented on a computer, which applies these methods. The applications are done in the analysis of multispectral images of natural resources.
Full text: no
Atualizar
 
  

Métodos de interpolação em imagens digitais por meio de técnicas de projeto de filtros F.I.R
Câmera Neto, G.
INPE-2663-TDL/120
Velasco, Flávio Roberto Dias (presidente)
Mascarenhas, Nelson Delfino d´Ávila (orientador)
Alens, Normonds
Bergamini, Eduardo Whitaker
Lima, Ubirajara Moura Barsotti

1982-11-05
Os métodos de interpola em processamento de imagens têm várias aplicações que incluem correção geométrica e ampliações de escala. Neste trabalho, desenvolveram-se métodos para interpolação por meio de convolução com resposta impulsiva finita. Isto conduz ao projeto do interpolador por meio das diversas técnicas disponíveis na literatura para o projeto de filtros digitais F.I.R. (Resposta ao Impulso Finita); são utilizados o método de janelamento e o método de projeto de filtros "equiripple". Alem disso, sa também apresentados algoritmos heurísticos que levam em conta a informação da densidade de bordas da imagem para o projeto de interpoladores mais eficientes. ABSTRACT: Interpolation methods in image processing are necessary in various applications, including geometric correction and scale magnification. In this work, it is dealt with interpolation by convolution with finite impulse response filters. That leads to interpolator design by means of the various technique avaliable in the literature for FIR digital filter design; the windowing method an4 the equiripple method are used. It is also presented heuristic algorithms which take in account t7-i edge information in images to design more efficient interpolators.
Full text: no
Atualizar
 
  

CERNE ("KERNEL") de sistemas operacional para suporte de programas em LANAC
Silva, L. J. N.
INPE-2676-TDL/123
Velasco, Flávio Roberto Dias (presidente)
Souza, Celso de Renna e (orientador)
Guimarães, Célio Cardoso (co-orientador)
Ferraretto, Mario Dias
Freitas, Ubirajara Moura de

1982-09-17
Apresenta-se um cerne ("kernel") de sistema operacional para o computador DEC PDP-11/10, a fim de suportar a execução de programas escritos em LJANAC, uma linguagem para o desenvolvimento de sistemas dedicados de controle de processos e aquisição de dados, a qual envolve gere de recursos em tempo real e contém estruturas para multi-programação. O cerne, que está em estado operacional, controla a escala de processos concorrentes, segundo as prioridades atribuídas eles; executa as operações de sincronização entre eles; a gerência as transferências de dados, sinais de controle e informações de estado entre o processador e os periféricos. ABSTRACT: An operating system ("Kernel") for the DEC PDP-11/2O computer is presented, supporting the execution of LI4ZVAC programs. EJI4NAC is a language for process control and dedicated data acquisition systems development, that involves real time resource management and contains multiprogramming facilities. The kernel, which is in operation, controls the concurrent process scheduling, based on process priorities; executes sychronizing operations among processes; and manages the data, control signals and state information transfers between processor and peripherals.
Full text: no
Atualizar
 
  


   1983



Um sistema para gerenciamento do atendimento de pedidos a um banco de imagens
Aguirre, J. L. B.
INPE-3151-TDL/168
Dias, Múcio Roberto (presidente)
Souza, Celso de Renna e (orientador)
Silva, Orion de Oliveira (co-orientador)
Barbosa, Marcio Nogueira
Silva, Carlos Sérgio A. da

1983-10-13
Em substituição a procedimentos manuais anteriores, um sistema automatizado e implementado para o gerenciamento do atendimento d pedidos de usuários a um banco de imagens de sensoriamento remoto, com aplicação específica ás imagens LANDSAT. O sistema abrange desde a entra da de pedidos na base de dados até a saída dos produtos e controla os diversos passos de produção para cada item. Técnicas e soluções especiais são necessárias devido ás severas limitações de hardware e software do computador hospedeiro. ABSTRACT: An automated system is implement to supersede existing manual procedures in fulfilling user requests made to a remote sensing data bank, concerning specifically LAWDSAT imagery. The system controls the several production steps from request entry to the shipment of each final product. Special solutions and techniques are employed due to the severe limitations, in both hardware and software of the host minicomputer system.
Full text: no
Atualizar
 
  

Árvores de procura virtual compacta e ávores binárias com endereços ordenados para organização de arquivos
D´Ippolito, E.
INPE--TDI/
Renna e Souza, Celso de (presidente)
Seehusen, Hans Jurgen (orientador)
Dias, Luiz Alberto Vieira
Velasco, Paulo Augusto Silva
Buss Filho, Arry Carlos

1983-12-09
Um estudo de dois tipos de árvore de procura binária é apresentado. Primeiramente, Árvores Binárias com Endereços Ordenados usando Árvores Virtuais para balanceamento foram implementadas com acesso direto em disco. Simulações feitas no CYBER 170/750 apresentam uma redução da taxa média de transferência na ordem de 50% para blocos de tamanho realístico (500 "bytes"). Testes em microcomputador, sem multiprogramação ( Scopus uC 10) e com armazenamento da árvore em disquetes (tamanho do bloco de 128 "bytes"), apresentaram 40% de redução do tempo total de procura. A segunda árvore de procura binária analisada é a Árvore de Procura Virtual Compacta (APVC), desenvolvida neste trabalho. Uma APVC é basicamente uma Árvore Binária Virtual cm folhas adicionais contendo as chaves reais e os registros. Todos os nós internos da APVC tem grau 2, o que garante uma utilização ótima de armazenamento. O número médio de acessos é pouco maior (aproximadamente 2) que o de outras árvores balanceadas. Incersões e eliminações, mantendo a estrutura de acesso, são muito eficientes (0.7-0.3 acessos adicionais para atualização por inserção/eliminação. Por causa da separação entre a árvore de procura (somente ponteiros) e as informações reais (chave e registro), as APVCs são especialmente úteis para sistemas de armazenamento hierarquico. Simulações feitas com acesso direto em disco, utlizando endereços ordenados e APVCs, mostram que a redução da taxa média de transferência de blocos por procura é significante se o tamanho do registro é maior que 2 vzes o tamanho do endereço dos nós. ABSTRACT: A study of two types of binary search trees has been done. First, Addressed Ordered Binary Trees using Virtual Trees for balancing has been implemented with direct disc access. Simulations done on the CYBER170/750 show a reduction of the block transfer rate of the oder of 50% for realistic block sizes (500 bytes). Tests with a single user microcomputer (Scopus uC 10) with disquettes (blocksize about128 bytes) show that 40% of the total search time can be saved. The second binary search tree analized is the Compacted Virtual Search Tree (CVST), developed in this work. A CVST is basically a Virtual Binary Tree with additional leaves containing the actual keys and records. All internal nodes of a CVST have a degree of 2, which guarantees an optimal storage usage. The mean access number is slightly higher (about 2) than those of other balanced trees. Insertions and deletions (maintaining the tree structure) are very efficient (0.7/0.3 addicional write accesses por incertion/deletion). Because on the separation of the search tree (just pointers) an the actual information (Key and record), a CVST is especially useful for hierarchical storage systems. Simulations have been done with direct access, using CVST as well as address ordering . The reduction of the mean block transfer rate per search is significant if the record size is more than 2 times the lenght of the pointers.
Full text: no
Atualizar
 
  

Um analizador estático de programas FORTRAN
Fernandes, C. T.
INPE-
Renna e Souza, Celso de (presidente)
Velasco, Flávio Roberto Dias (orientador)
Pacitti, Tércio
Moura, Arnaldo Vieira
Dias, Múcio Roberto

1983-09-01
Este trabalho mostra o desenvolvimento e implementação de um analisador estático de programas. Este analisador destina-se á: a) descoberta de anomalias no fluxo de dados de programas; b) geração de medidads de complixidade que avaliem a dificuldade de compreensão, operação e manutenção de programas; c) geração de documentação tal como referências cruzadas, grafo de chamada de sub-rotinas etc. O sistema, denominado DÁDIVA, está implementado em FORTRAN ANS/66 e pode ser utilizado para analisar programas escritod em FORTRAN ANS/66. ABSTRACT: This work shows the development and implementation of a static analyser of programs. The purpose of this analysis is: a) to detect anomalies in the data flow of a program; b) to produce complexity measures which evaluate the difficulty in program understanding, operation and maintenances; c) to produce documentation such as crossed references, subrotinne call graph etc. The system, named DÁDIVA, is implemented in FORTRAN ANS/66 and can be used to analyse programs written in FORTRAN ANS/66.
Full text: no
Atualizar
 
  

Proposta de um sistema semi-automatico para teste de programas
Ferreira, N. C. R.
INPE-3262-TDL/178
Souza, Celso e Renna e (presidente)
Dias, Múcio Roberto (orientador)
Moura, Arnaldo Vieira
Velasco, Flávio Roberto Dias
Silva, Orion de Oliveira e

1983-06-10
Tendo em vista que o processo de testes com uso de dados adequadamente selecionados apresenta-se como a maneira prática para obter altos graus de confiabilidade em desenvolvimento de programas, este trabalho traduz um esforço no sentido de desenvolver ferramentas de auxílio a seleção de dados para testes de programas escritos em FORTRAN. Em sua essência, apresenta o desenvolvimento de um sistema interativo de análise de programas que fornece ao usuário, ao final de uma execução de um dado programa, um conjunto de predicados obtido po Execução Simbólica parcial que envolve o tratamento simbólico de variáveis de entrada deste mesmo programa. Este conjunto de predicados pode ser utilizado na identificação de um novo teste a ser submetido ao programa. Exemplos completos de utilização deste sistema são também apresentados. ABSTRSACT: Since the process of testing using adequately selected data is the practical way to obtain high degrees of reliability in software development, this work reflects the effort towards the development of software tools to be used in the selection of testing data for FORTRAN programs. In essence, it presents the development of an interactive system for analysing programs which provides the user, at the end of an execution of a given program, with a set of predicates obtained through partial Symbolic Execution involving the symbolic treatment of input variables of this given program. This set of predicates can then be used in the identification of a new set of testing data to he submitted to the program being tested. Complete examples are given to illustrate in detail the use of the system.
Full text: no
Atualizar
 
  

Projeto de linguagem LANAC-II e a sua implementação para o disco MB-8000
Fischer, S. D.
INPE-3090-TDL/163
Martins, Ricardo Corrêa de Oliveira (presidente)
Souza, Celso de Renna e (orientador)
Mendes, Manuel de Jesus
Velasco, Flávio Roberto Dias
Senne, Edson Luiz França

1983-12-21
Apresentam-se neste trabalho a especificação e a implementação da linguagem LAIVAC-II uma segunda versão da linguagem LANAC. LANAC-II corno a primeira versa desenvolvida no INPE / CNP que orientada para programação concorrente.É indicada primordialmente para sistemas dedicados em ambiente de monoprocessamento para aqueles com características de tempo real e de controle de processos. A linguagem objetiva o desenvolvimento de programas mais confiáveis, que tenham facilitadas a sua leitura e a sua manutenção LAJVAC-II baseia-se no Algol 60,é não-recursiva dispõe: de um comando para expressar concorre de sema para a comunicação e sincronização de processos e de um mecanismo especial para criar regiões críticas. Para sua implementação foi necessário desenvolver um compilador cruzado, escrito em Burroughs Extended Algol do computador B-6800, que gera código assembly absoluto para um minicomputador SISCO MB-8000 a partir de uma forma interne diária do tipo quádrupla. A linguagem necessita também de um suporte de execução chamado Cerne, cujos requisitos ba juntamente com a proposta inicial dos algoritmos de suas primitivas, são descritos neste trabalho. Atualmente o compilador LANAC-II encontra-se totalmente implementado, a menos geração de código para operações em ponto flutuante. Apesar de se terem realizado, com bons resultados, alguns testes com estruturas da linguagem para programação seqüencial, o seu desempenho só poderá ser avaliado mais concretamente quando o Cerne estiver implementado e operacional. ABSTRACT The specification and implementation of LANAC-II, the second version of the Algol-like programming language LANAC, are presented in this report. Both of the versions are intended for concurrent programming and were developed at INPE/CNPq. LANAC-II is designed primarilly for dedicated computer systems, involving only one processor, especially those with real time and process control characteristics. The language aims at making possible to write more reliable programs, which are also more readable and maintainable. LANAC-II is a no recursive language and, besides the Algol 60 structure, also has a statement to express concurrency, semaphores for process communication and synchronization, and a special construct to create critical regions. In order to implement it in a SISCO MB-8000 minicomputer, a crosscompiler was written in Burroughs Extended Algol CB-6800 computer) to generate absolute assembly code, using quadruples as intermediate code. The language also needs a kernel Cerne to support it. This report defines the basic requirements of this kernel and the first specification of its primitives. At present the LANAC-II compiler is completely implemented, except for the cadet generation for floating,point operations. Although the language sequential constructs have been tested and good resulted obtained, ail of LANAC-IIs power could not yet be tested. This will only be possible when the Cerne is coded and operational.
Full text: no
Atualizar
 
  

Z- árvores virtuais: uma temática de balanceamento para árvores de caminhos multiplos
Petrusanis, M. F. R. O.
INPE-3093-TDL-164
Souza, Celso de Renna e (presidente)
Seehusen, Hans Jurgen (orientador)
Dias, Luiz Alberto Vieira (co-orientador)
Setzer, Valdemar Waingort
Silva, Orion de Oliveira

1983-11-28
Neste trabalho será apresentada a primeira implementação e avaliação com simulações de Z-Árvores que são árvores de caminhos múltiplos com chaves similares ás B-Árvores. Para que o baixo custo de recuperação seja garantido, requer-se que a árvore esteja balanceada, introduzindo para isto um método de balanceamento, que é a Técnica da Z-Árvore Virtual (TZAV). Comparada com a Técnica de B-Árvores, a TZAV tem as vantagens de baixo custo nas alterações e algolrítmos simples, não sendo requeridas técnicas de "overflow" e "underflow". Uma desvantagem da TZAV é a de pende do conhecimento aproximado da distribuição das chaves. Considerando que um nó da Z-Árvore é armazenado em um bloco, o número médio de trans fere de blocos é obtido com inserção e eliminações de chaves aleatórias. Esta taxa de transfere de blocos é baixa e da mesma ordem das B-Árvores. A memória utilizada da TZAV pode ser aumentada através de uma representa adequada das folhas, sendo requeridas para este fim técnicas de divisão e junção de folhas. A taxa mínima de utilização de memória é de 50%. Nas similações feitas, a taxa de utilização de memória é, na media, 90%. ABSTRACT: This work presents the first implementation and numerical valuation of Z-Trees, which are multiway search trees similar to B-Trees. In order to obtain low retrieval costs, the trees have to be kept balanced. This is done by a balancing technique the Virtual Z-Tree Technique (VZTT). Compared to B-Trees, the VZTT has the advantages of low update costs and simple algorithms, which do not require overflow and underflow techniques. A disadvantage of the VZTT is the necessity of an approximate knowledge of the key distribution. Assuming that one node of a Z-Tree occupies one block the mean block transfer rate is obtained by insertions and deletions of random keys. The block transfer rate for VZTT is of the order of B-Trees. The storage usage of VZTT can be increased by an adequate representation of the leaves which requires division and junction techniques. With this leaf representation, the minimum storage usage is 50% and in the simulation done of the order of 90%.
Full text: no
Atualizar
 
  


   1984



Solução analítica de equações diferenciais ordinárias de primeira e segunda ordem por computador
Bittencourt, G.
INPE-3507-TDL/192
Souza, Celso de Renna e (presidente)
Dias, Luiz Alberto Vieira (orientador)
Pereira, Antonio Eduardo Costa
Tavares, Santiago Alves
Senne, Edson Luiz França

1984-10-15
Neste trabalho descrevem-se um sistema solucionador de equações diferenciais ordinárias de primeira e segunda ordem, sua implementação e os resultados obtidos. O sistema foi desenvolvido contando com a capacidade de manipulação simbólica apresentada pelo programa "REDUCE 2", que e um sistema geral de manipulação simbólica desenvolvido na Universidade de Utah, E.U.A. Utilizou-se o computador B-6800 do INPE-CNPq. Aborda-se o problema de tr formas diferentes: solução por métodos clássicos que utilizam integração de funções, soluções por um método geral de séries de potências e reconhecimento de classes de equações e busca da solução em tabela. O sistema e capaz de interpretar a equação de entrada e, controlado por opções do usuário aliadas características da equação escolher um método adequado para determinar a solução. Para realizar as funções descritas acima foram implementadas rotinas que expandem a capacidade de manipulação simbólica do programa "REDUCE 2". ABSTRACT: It is presented in this work a system to solve ordinary differential equations of first and second orders, its implementation and the obtained results. The system was developed based on the symbolic manipulation capabilities of the "REDUCE 2" program, a general symbolic manipulation system, developed at the Utah University, USA. The B-6800 INPE-CNPq computer was used. The problem is tackled by three approaches: classical methods solutions using functions integration, general power series method solutions, and classes of equations recognition followed by search of solutions via table-look-up. The system is capable of interpreting the input equation and, by means of user controlled options coupled to the equation characteristics choose a proper method to determine the solution. In order to perform the above described functions, routines were implemented to expand the symbolic manipulation capabilities of the "REDUCE 2" program.
Full text: no
Atualizar
 
  

Registro translacional de imagens: Métodos correlacionais e sequênciais
Erthal, G. J.
INPE-3456-TDL/189
Pereira, José Antônio Gonçalves (presidente)
Mascarenhas, Nelson Delfino d´Ávila (orientador)
Velasco, Flávio Roberto Dias
Sakane, Fernando T.

1984-08-10
Em processamento de imagens, uma opção típica de pré-processamento está ligada á necessidade de sobrepor uma ou mais imagens obtidas de uma mesma cena, de modo que haja uma correspondência ponto a ponto entre elas. Esta operação é denominada registro de imagens. Este trbalho explora a classe dos métodos de registro de imagem translacional. Neste caso, os critérios de similaridade usadas e as abordagens para reduzir o custo computacional são dois pontos importantes na definição do algoritmo desejado. Aqui, são explorados dois métodos de registro. O promeiro baseia-se na teoria de testes sequenciais de hipóteses, sob as hipóteses gaussiana, binomial e exponencial, modificados segundo a proposta de Chien e Fu. O segundo método estudo utiliza a correlação binária aplicada á geração de dados de imagem registrados para fins de classificação multitemporal. Descreve-se também um sistema para registro de imabens que utiliza esta metodologia. ABSTRACT: typical preprocessing operation in the image processing area refers to the needs for superimposing one or more images obtained from the same scene, in a way that there is a pixelwise correspondence between them. This operation is called image registration. This work explores the class of translational image registration methods. In this case, the similarity criteria used and the approaches to reduce t computational cost are two important points in t definition of t desired algorithm. Here, two image registration methods are explored. One is based on the theory of sequential tests of hypothesis, under the Gaussian, binomial and exponential hypothesis, modified by Chien and Fu approach. The second method studied uses the binary correlation applied to t generation of registered image data to be used in multitemporal classification. A system for image registration using t methodology is described.
Full text: no
Atualizar
 
  

PASCAL-MP: manipulador algébrico e numérico de polinômios
Lombardi, J. C.
INPE-3229-TDL/176
Renna e Souza, Celso de (presidente)
Tavares, Santiago Alves (orientador)
Senne, Edson luiz França (co-orientador)
Raupp, Marco Antônio
Dias, Luíz Alberto Vieira

1984-04-03
O objetivo deste trabalho é possibilitar, de uma maneira simples e eficiente, a manipulação algébrica e numérica de plonômios de multiplas variáveis e conficientes reais. Trata-se de uma linguagem de programação composta de u7m subconjunto da linguagem PASCAL acrescido de comandos especiais de manipulação algébrica de polinômios de múltiplas variáveis, podendo operar em dois modos, algébrico e numérico, sem que essa mudança no modo de operação seja perceptível ao usuário. Sua principal aplicação está na solução de problemas em que , após realizadas as operações algébricas, seja necessária a realização das operações numéricas ou então em problams interativos composto de operações algébricas e numéricas. ABSTRACT: The subject of this work is to make possible, in a simple and efficient way, the algebraic and numerical manipulations of multiple variables and real coefficients polynomials. It is a programming language composed of a subset of PASCAL language added of special statements for algebraic manipulation of multiple variables polynomials, which can operate in two manners, algebraic and numeric, without leaving the user percept these changes. Its main application is the solution of problems that, after the alqebraic operations be realized, numerical operations are needed, or in interactive problems composed of algebraic and numerical operations.
Full text: no
Atualizar
 
  

Um método para redução de ambiguidade em segmentação de imagens
Mota, F. A. A.
INPE-3394-TDL/186
Souza, Celso Renna e (presidente)
Velasco, Flávio Roberto Dias (orientador)
Sakane, Fernando T.
Mascarenhas, Nelson Delfino d´Ávila
Simoni, Paulo Ouvera

1984-08-10
No desenvolvimento de sistemas mecanizados de percepção visual distingue-se, atualmente, um conjunto de fases que caracterizam a modelagem computacional do processo perceptivo. Nas fases de segmentação e interpreta alem do compromisso a respeito da eliminação de in consiste depara-se com o problema da ambiguidade. Propõe neste trabalho uma abordagem para tratar, ao n- de identifica de objeto, tais questões através de relacionamentos sema e de operações paralelas iteradas (operações de relaxação) sobre um modelo discreto de rotulação de segmentos (grafos rotulados). Pretende-se reduzir ao máximo a ambiguidade através de um único processo de eliminação sucessiva, em lugar de um processo para cada segmentação possível. A dissertação fundamenta-se, principalmente, na caracterização algébrica do operador de relaxação e na argumentação formal, através da álgebra discreta, que evidencia a sua validade computacional. ABSTRACT: Nowadays, in the development of automatic systems of visual perception, a set of phases that characterize the computational modelling of the perceptive process are distinguished. During the segmentation and interpretation phases, besides the compromise regarding the elimination of inconsistencies, there appears the ambiguity problem. In this work it is proposed an approach to deal with those questions, in the level of the identification of the object, using the semantic relationships and iterated parallel operations (relaxation operations) upon a discrete model that labels segments (labelled graphs). It is intended to reduce to the maximum the ambiguity through a s-ingle process of successive elimination, instead of a process for each possible segmentation. The dissertation is based mainly in the algebraic characterization of the relaxation operator and in the formal treatment, through discrete algebra, which puts into evidence its computational validity.
Full text: no
Atualizar
 
  

SITAPCI:Sistema automático de traçado de placas de circuitos impressos
Novackoski, V.
INPE-3354-TDL/183
Velasco, Flávio Roberto Dias (presidente)
Sonnenburg, Claudio Roland (orientador)
Pereira, José Antonio Gonçalves (co-orientador)
Santos, Márcio L. Xavier dos
Martins, Ricardo Corrêa de O.

1984-07-20
Apresenta-se um sistema de projeto assistido por computa dor para gera automática de mascaras de placa de circuitos impressos (pcb). O sistema automatiza a fã de travado do projeto de placas de duas faces, e foi implementado com modo de opera "batch" em um computador de grande porte. Na primeira parte e apresentado um modelo abstrato de uma pcb. Usando este modelo, são desenvolvidos todos os algoritmos, funções de custo e critérios de otimiza bem como uma linguagem de alto nível para descrever as placas. Os produtos finais são os desenhos feitos pela "plotter" das ma de tal forma que elas possam ser diretamente fotografadas para a produção dos circuitos impressos. ABSTRACT: A computer aided desing system for the automatic generation of printed circuit board (pcb) masks is presented. the system automates the routing phase of the desing of two layer boards and has been implemented in batch mode in a large scale computer. In the first part, an abstract model of a pcb is presented. Using this model, all the algorithmics, cost functions and optimization criteria are developed, as well as a high level language to describe the boards. The end products are the drawings done by the plotter of the masks in such a way that they can be directly photographed for the production of the printed circuits.
Full text: no
Atualizar
 
  

Um tradutor da linguagem SEQUEL 2 para álgebra relacional
Petrusanis, B. R.
INPE-3484-TDL/190
Souza, Celso de Renna e
Silva, Orion de Oliveira (orientador)
Omar, Nizam
Dias, Luiz Alberto Vieira
Buss Filho, Arry Carlos

1984-09-13
A linguagem SEQUEL 2 foi elaborada e´é extensivamente utilizada como uma linguagem de acesso ao Banco de Dados Relacional tanto por programadores profissionais como por usuários não-especializadosem programação. Executando o uso de conceitos de variáveis limitantes quantificadores, a SEQUEL 2 apresenta um conjunto de operações simples em tabelas, que tem o poder de recuperação ao Cálculo dos Predicados de Primeira Ordem e da Álgebra Relacional. O objetivo deste trabalho foi realizar um tradutor da Linguagem SEQUEL 2 para a linguagem de acesso ao Banco de Dados baseada na Álgebra Relacional. Além disso, implementou-se um Banco de Dados Relacional simplificando com o objetivo de criar um ambiente onde o Tradutor pudesse ser testado. Portanto, o usuário pode ter acesso a um Banco de Dados através de duas linguagens: SEQUEL 2 e Álgebra Relacional.
Full text: no
Atualizar
 
  

EDITE: Um sistema de entrada de dados interativa por terminais
Silva, M. A.
INPE-3937-TDL/228
Souza, Celso de Renna e (presidente)
Dias, Múcio Roberto (orientador)
Ferraz, Inhaúma Neves
Dias, Luiz Alberto Vieira
Buss, Arry Carlos

1984-11-21
Apresenta-se a descrição de um sistema "on-line" de entrada de dados por terminais de vídeo que oferece a possibilidade de detecção e correção de erros durante a digitação. A detcção dos erros se dá pela execução de testes fornecidos previamente pelo usuário. os testes constituem -se em expressões lógicas que envolvem um ou mais dados de entrada. O sistema comunica-se cum um número arbitrário de terminais, podem ser usados na entrada de dados referentes a uma ou mais aplicações. A interação do sistema com o usuário se dá através de telas do tipo "menu", utilizando duas linguagens especialmente criadas para este fim, a saber : a LDS ( Linguagem do tipo de Definição de Serviço) e a LO (Linguagem de Operação). Trata-se de linguagens "nonprecedural". A "LDS" permite a especificação de expressões lógicas e aritiméticas utilizadas, respectivamente, na verificação dos dados a serem digitados e na geração de novos dados. A LO é uma linguagem de comandos que oferece ao usuário as diversas opções em cada etapa de utilização do sistema. A utilização deste sistema oferece a possibilidade de uma redução substancial no reforço usualmente despendido na elabraçãode programas específicos de verificação de dados de entrada. ABSTRACT: This work presents the description of an on-line data entry system, which offers the possibility of error detection and correction at digitation time. Error detection is performed through the execution of tests, provided by the u previously. The tests themselves are logic expressions dealing with one or more entering data. The system is capable of handling an arbitrary number of terminals which can be used for entering data refering to one or more applications. The interaction with the user is done through the use of two languages specially designed for this purpose, namely: LDS (Servive Definition Language) and LO (Operation Language). Both are nonprocedural languages. The LDS provides means for the specification of logic and arithmetic expressions, which are used, respectively, in the error detection phase and for the generation of new data. The LO is a command-type of language which offers the user the several options at each step in the utilization of the system. The use of this system aims at a substantial reduction in the effort which is usually spent in writing programs for checking the correctness of entering data.
Full text: no
Atualizar
 
  

Geração de superfícies livres usando "SPLINE" ponderado
Vijaykumar, N. L.
INPE--TDI/
Renna e Souza, Celso de (presidente)
Pereira, José Antonio Gonçalves (orientador)
Santos, Marcio Lourival Xavier dos
Tavares, Santiago Alves
Dias, Luiz Alberto Vieira

1984-09-20
O método de geração de superfícies livres proposto por Coons é largamente utilizado em projetos de carrocerias, carenagens e outras superfícies de grande complexidade, impossíveis de ser descritad analiticamente. Para a descrição das "gaiolas" (grandes) que descrevem primariamente estas superfícies, são tradicionalmente utilizados interpoladores do tipo Bézier ou "B- Spline" de grande eficiência computacional, porém com a desvantagem de os pontos de controle não pertencerem, em geral, ás curvas geradas, o que dificulta as modificações do projeto. O presente trabalho propões, para a geração das "gaiolas", o método chamado " Spline" Pnderado, de grande eficiência computacional e sem a desvantagem citada sobre os pontos de controle, os quais pertencem ás curvas geradas. Este método é uma decorrência muito particular das idéias do Coons. ABSTRACT: The surface generating method proposed by Coons is very much used in designing automobile bobies, ship hulls and other complex forms, which are impossible to be analytically described. In order to describe the "cages", which basically provide these surfaces, Bézieror B- Spline methods are traditionally used, but with the disadvantage that the control points do not belong to the generated curves, maring difficult modifications in the desing. The present work proposes, for generating the "cages", a method know as Weighted Splines, of a great computacional efficiency and without the restriction regarding the control points, which belong to the generated curves. This method is know to be a particular case of Coons ideas.
Full text: no
Atualizar
 
  


   1985



Geração de imagens com dados auxiliares registrados a margens TM-Landsat
Escada Jr., J. B.
INPE-3982-TDL/234
Silva, orion de Oliveira (presidente)
Mascarenhas, Nelson Delfino d'Ávila (orientador)
Dutra, Luciano Vieira
Lima, Ubirajara M. B. de
Barbosa, Márcio Nogueira

1985-03-22
O presente trabalho tem por objetivo implementar um sistema para armazenar e recuperar dados auxiliares correlacionando-os com uma cena obtida pelo sensor remoto "Thematic Mapper", de forma que estes dados auxiliares possam ser tratados como uma imagem do "Thematic Mapper". Os recursos disponiveis no Subsistema de Processamento do Departamento de Geracao de Imagens de Satelite do INPE para geracao de imagens em meio fotografico ou digital permitirao posteriormente a geracao de imagens artificiais geocodificadas com as mesmas caracteristicas de uma cena do sensor "Thematic Mapper". Os niveis de cinza de cada "pixel" desta imagem artificial representarao nao a radiancia de um determinado ponto do solo, mas o dado auxiliar associado aquele ponto. ABSTRACT: The present work aims at implementing a system for storing and recovering auxiliary data correlating them with a given Thematic Mapper scene, in a way that these auxiliary data can be treated as Thematic image. The resources available at the Processing Subsystem of the Image Generation Department of INPE (Instituto de Pesquisas Espaciais - Institute for Space Research) for generating photographic or digital images will then allow the generation of geocoded artificial images with the same characteristics of a Thematics Mapper scene. The gray levels associated with each geocoded image pixel will represent not the terrain radiometry, but the corresponding auxiliary data.
Full text: no
Atualizar
 
  

Uma biblioteca de pontos de controle para imagens MSS Landsat
Ii, F. A. M.
INPE-3591-TDL/195
Pereira, José Antônio Gonçalves (presidente)
Mascarenhas, Nelson Delfino d'Avila (orientador)
Alens, Normonds
Renna e Souza, Celso de
Nogueira, Barbosa Marcio

1985-03-22
O objetivo deste trabalho e desenvolver um sistema para criacao, manutencao e gerenciamento de uma biblioteca de pontos de controle para imagens MSS Landsat. Um ponto de controle e uma caracteristica fisicamente detectavel numa cena, cuja localizacao geodesica e precisamente conhecida. O uso destes pontos e de fundamental importancia num sistema de correcao geometrica de imagens de satelite. A biblioteca permitira que pontos de controle pertencentes a uma dada cena sejam recuperados de uma maneira rapida e eficiente, para possibilitar melhor desempenho no processo de correcao de imagens. ABSTRACT: The objective of this work is to develop a system for the creation, maintenance and management of a ground control point library for MSS Landsat images. A ground control point is a physically detectable characteristics in a scene, with a precisely know geodetic placement. The use of those points is of fundamental importance in a system for the geometric correction of satellite images. The library will allow control points that belong to a scene to be retrived in a rapid and efficient manner, in order to achieve a better performance in the process of image correction.
Full text: no
Atualizar
 
  

Aspectos computacionais de sistemas de tempo real
Murata, M.
INPE-4157-TDL/269
Souza, Celso de Renna e (presidente)
Nakanishi, Tatúo (orientador)
Pereira, José Antonio Gonçalves (co-orientador)
Santos, José Abel Royo dos
Tavares, Santiago Alves

1985-12-16
Nas mais variadas áreas de aplicação, os computadores tem sido utilizados no controle de monitoração de processos de tempo real. A forte dependência entre os processos e os respectivos sistemas de computação tem requerido dos projetistas cuidados especiais na análise de requisitos e na determinação de hardware e software para o desenvolvimento destes sistemas. Esta dissertação descreve um levantamento dos tópicos relevantes de hardware e software para os sistemas de controle de processos em tempo real de maneira bastante ampla, bem como a discussão de alguns destes tópicos. Entre outros tópicos, discute-se a influência de arquitetura dos computadores, do sistema de comunicação dos suportes básicos de programação e das linguagens de programação na composição da característica do sistema em tempo real. ABSTARCT: Vomputers have been used in real time process control and monitoring in the apllication areas. A strong dependency between the processes and the respective computers systems have required that special care should be taken in the requirements analysis and in the hardware and software definition for the development of these systems. This dissertation describes the relevant hardware and software topics with respect to real time process control in a broad manner, as well as discusses some of these topics in more detail. The influence of computer architecture, communication system, programming, mechanisms supports, programming language, ade other topics on the real time system composition are discussed.
Full text: no
Atualizar
 
  

Traçado automático de carta sinótica
Pellegrino, S. R. M.; Pereira, J. A. G.
INPE-3146-RPE/456
Pereira, José Antônio Gonçalves (orientador)
1985-03-12
Descreve-se um sistema (SINÓRAFO) desenvolvido para tragar cartas sinóticas com base no banco de dados meteorológico do INPE. O SINÓGRAFO faz o traçado contorno da América do Sul e das fronteiras internacionais, em projeção mercator, e faz a leitura dos dados das estações meteorológicas (a partir do banco de dados), localizando-as no mapa. São também indicados os fenômenos de vento, pressão, temperatura, tempo passada, tempo presente, tipo de nuvem e quantidade de precipitação. ABSTRACT: This work describes a system (SINÓGRAFO) developed to plot Synoptic charts, based on INPEs metheorological data bases. SINÓGRAFO draws South America 5 contour and international political divisions, in Mercator projection and reads (from the data base) the data related to the metheorological stations indicating them on the map. Wind, pressure, temperature, past weather, present weather, cloud type and ram amount are also indicated.
Full text: no
Atualizar
 
  

Sistema diagnóstico: uma ferramenta para a construção de sistema especialistas
Sandri, S. A.
INPE-3890-TDL/222
Dias, Luiz Alberto Vieira (presidente)
Souza, Celso de Renna e (orientador)
Senne, Edson Luiz França (co-orientador)
Pereira, Antonio Eduardo Costa
Simoni, Paulo Ouvera

1985-10-25
Este trabalho apresenta o sistema DIAGNÓSTICO, uma ferramenta para a construção de sistemas especialistas. A representação de conhecimento adotada e a de regra de decisão do tipo SE premissa ENTÃO (x) conclusão, onde x atesta a crença de que a conclusão é verdadeira se a premissa o for. O sistema consiste em quatro módulos: INICIALIZAÇÃO, AQUISIÇÃO,CONSULTA e EXPLANAÇÃO. O módulo de INICIALIZAÇÃO inicia lisa os arquivos do sistema e adquire palavras-chave. O módulo de AQUISIÇÃO interage com o especialista para adquirir as regras que comporão o banco de conhecimento de um dado dom-z O módulo de CONSULTA utiliza o banco de conheci mento e os dados do usuário para fornecer respostas a um problema pro posto, utilizando encadeamento retroativo de regras. O módulo de EXPLANA ÇÃO permite ao usuário acompanhar uma consulta através de uma linguagem de comandos. Além disto, o trabalho apresenta dois pequenos sistemas especialistas construídos pelo SISTEMA DIAGNOSTICO: um sistema para diagnóstico do mau funcionamento de buzinas de automóveis e um sistema para previsão de precipitação pluviométrica para a cidade de São José dos Campos. ABSTRACT: This work presents the DIAGNOSIS SYSTEM, a tool for building expert systems. The knowledge representation adopted is decision rules such as IF premise THEN (x) conclusion, where x states the belief that the conclusion is true if the premise is true. The system consists of four modules: INICIALIZATION, ACQUISITION, CONSULTATION and EXPLANATION. The INICIALIZATION module inicializes the system files and acquires key words. The ACQUISITION module interacts with the specialist to acquire the rules which will constitute the knowledge base of a given domain The CONSULTATION module uses the knowledge base and the users data to give the answers to a proposed problem, utilizing backward-chaining of rules. The EXPLANATION module lets the user follow a consultation through a command language. This work also presents two small expert systems built by the DL4GNOSIS SYSTEM: a system for diagnosis of automobile horn malfunction and a sys tem for pluviometric precipitation prevision for the city of São José dos Campos.
Full text: no
Atualizar
 
  

Projeto de implementação do módulo supervisor de um sistema de processamento de imagens
Santellano, J.
INPE-3835-TDL/211
Souza, Celso Renna e (presidente)
Lima, Ubirajara M. B. (orientador)
Oliveira, Júlia Leocádia de (co-orientador)
Song, Siang Wun
Pereira, José Antonio Gonçalves

1985-10-04
Apresentam-se as características arquitetônicas referentes aos recursos materiais (hardware) e lógicos (software) de um eis tema de processamento de imagens projetado e desenvolvido no INPE de São José dos Campos. Descrevem-se o projeto e a implementação do Módulo Supervisor que estabelece uma comunicação com o usuário do sistema por meio de uma linguagem de comando. ABSTRA CT:This report presents the hardware and software of a digital image processing system designed and developed at INPE in São José dos Campos/SP, Brasil. I-t also describes the design and implementation of the Supervisor Module that is responsible for user system communication through a command language.
Full text: no
Atualizar
 
  

Uma ferramenta para desenvolvimento de sistemas de simulação em tempo real
Santos, C. L. R.
INPE-3979-TDL/233
Souza, Celso de Renna e (presidente)
Almeida, Roberto Antonio Rodrigues de (orientador)
Pereira, José Antonio Gonçalves (co-orientador)
Oliveira, Júlia Leocádia de (co-orientador)
Koo, Robert Liang

1985-12-19
Este trabalho apresenta o desenvolvimento de uma ferramenta para teste e documentação dos subsistemas componentes de um sistema de simulação em tempo real, escrito em linguagem Fortran. Esta ferramenta pode ser vista como um ambiente que simulação de todos os subsistemas do sistema simulado, com exceção de: o subsistema em teste. A documentação de cada subsistema é a ele anexada. Os resultados da simulação realizadas apresentados em tabelas e gráficos. A ferramenta foi utilizada no desenvolvimento do Simulador de Treinamento da aeronave T/27 da Empresa Brasileira de Aeronáutica (EMBRAER), desenvolvido no Centro Técnico Aeroespacial - CTA (IPD/PEA).Seguem anexos os relatórios de saída de simulação e documentação do subsistema atmosfera que e parte integrante deste simulador de treinamento. ABSTRACT: This report presents the development of a tool for testing and documenting the constituent subsystems of a real time simulation system, written in FORTRAN language. This tool can be seen as an environment to simulate the operation of all subsystems of the simulated system, except one: the subsystem under test. The documentation of each subsystem is attached to it. Simulation results are presented by means of tables and curves. The tool was used along the development of the flight simulator for the Empresa Brasileira de Aeronáutica (EMBRAER) T/27 airplane, developed at the Centro Técnico Aeroespacial - CTA (IPD/PEA). Along with this report, there are some printouts about the results of a simulation and about the documentation of the subsystem atmosphere which is part of the simulator related above.
Full text: no
Atualizar
 
  


   1986



Implementação de um interpretador PROLOG com otimização
Allan, R.
INPE-3865-TDL/218
Tavares, Santiago Alves (presidente)
Souza, Celso de Renna e (orientador)
Pereira, Antonio Eduardo Costa (co-orientador)
Passos, Emmanuel Piseces Lopes
Fraga, Paltonio Duann (co-orientador

1986-03-07
Apresenta-se a implementação de um interpretador PROLOG, cujas estruturas de dados foram modificadas para uma forma diferente da usual para facilitar o entendimento. A otimização mais generalizada, a otimização da última chamada, foi implementada sobre estas estruturas. Outras otimizações menores para recuperação de espaço também estão contidas no programa. Mostra-se algumas extensões possíveis para aplicações numéricas de uma maneira eficiente e compatível com a lógica de predicados. ABSTRACT: A PROLOG interpreter implementation is shown. The data structures were modified to a different way in order to be easier to understand. The most general optimization, the last call optimization, was implemented over these data structures. Other minor optimizations for space recovery are also contained in the program. Some extensions for numerical applications is shown in such a way to be efficient and compatible with predicate logic.
Full text: no
Atualizar
 
  

Ferramentas de instrumentação para teste de programas
Capretz, L. F.
INPE-3983-TDL/235
Renna e Souza, Celso de (presidente)
Silva, Orion de Oliveira (orientador)
Liesenberg, Hans Kutr Edmund
Tavares, Santiago Alves

1986-03-13
A produção de programas confiáveis e um imperativo em nossos dias. Tudo que é abordado neste trabalho leva em consideração esta premissa. São estudados vários métodos, técnicas e ferramentas para testes de programas, e apresentados problemas e limitações encontrados durante o processo de teste. Finalmente, e proposta uma ferramenta de instrumentação para testes de programas que possibilita a obtenção de informações adicionais sobre programas. Esta ferramenta analisa comandos e asserções colocados no código-fonte do programa na forma de comentários ("probes") e constrói um outro programa instrumentado, no qual são feitas, em tempo de execução, exibições, verificações e analises baseadas na instrumentação inserida. ABSTRACT: The production of reliable programs is very important nowadays; this premisse was taken in account in this work. Several methods, techniques and tools for programs testing are studied, and problems and limitations found during the testing process are presented. Finally, an instrumentation tool for program testing is proposed, which allows to obtain additional information about programs. This tool analyses commands and assertions put into the source code of the program as comments (probes'; and makes another program (instrumented program), in which, at the execution time, displays, verifications and analyses based in the inserted instrumentation are done.
Full text: no
Atualizar
 
  

Proposta de uma metodologia para o projeto conceitual de bancos de dados distribuídos
Costa, P. O.
INPE-4315-TDL/282
Souza, Celso de Renna e (presidente)
Nakanishi, Tatúo (orientador)
Silva, Orion de Oliveira (co-orientador)
Melo, Rubens Nascimento
Filho, Arry Carlos Buss

1986-07-08
As metodologias de projeto de Banco de Dados Distribuídos (BDDS) repousam no ciclo de vida do software, mas deixam para a fase de Projeto Lógico as considerações para a distribuição dos dados pelos diversos Bancos de Dados (BDs) do sistema. Este enfoque faz com que o desenvolvimento do projeto do BDD seja feito globalmente, não permitindo que ele seja feito por etapas; além disto, grande parte do trabalho realizado para a integração das visões perdido na fase de distribuição. Neste trabalho, e proposta uma metodologia de projeto conceitual de BDD que obtém um esquema global com pequeno esforço e custo, e que contém as linhas gerais de todo o sistema distribuído. No desenvolvimento de cada um dos BDs do sistema distribuído sa utilizadas metodologias convencionais para o seu projeto. Para ilustrar a aplicação desta metodologia, obtémse o modelo conceitual (distribuído) de um Sistema de Pessoal hipotético. ABSTRACT: The methodologies for the Distributed Data Base (BDD) design relies on the software life cycle. Fiowever, t left to the Logical Design phase the considerations for the distribution of the data by the various Data Bases (BD) of the system. This approach diffícults the stepwise design; besides this fact, a great part of the work done to the views integration is lost on the distr-Lbution phase. This work proposes a methodology for the conceptual design of the BDD, which obtains a global schema with a little effórt and cost and contains the mas ter une for ali the distributed systera. ?or the development of each of the BDs of the distributed system conventional methodologies for its design are used. Toiliustrate the application of this methodology, the (distributed) conceptual model for a hypotethic personal sys tem is obtained.
Full text: no
Atualizar
 
  

Geração de modelos de regras de decisão: uma abordagem centrada na aprendizagem indutiva
Oliveira, P. P. B.
INPE-4299-TDL-276
Rodrigues, Valter (presidente)
Souza, Celso de Renna e (orientador)
Senne, Edson Luiz França (co-orientador)
Valente, José Armando
Simoni, Paulo Ouvera

1986-09-11
Apresenta-se uma persquisa realizada com o objetivo de criar um mecanismo para geração de modelos (descrições) das regras de decisão constituintes de uma base de conhecimento. O mecanismo definido fundamenta-se em um processo de aprensizagem indutiva proposto e opera a partir de classes de regras definidas na base. Tais classes são formadas por regras que possuem alguma cláusula de conclusão comum e referem-se a um mesmo conjunto de objetos na premissa. O enfoque de aprendizagem adotado permite a criação de conjceitos disjuntivos. Prevê-se no processo que conceitos disjuntivos possam ser generalizados para um outro que os englobe , o que representa uma forma simples de aprendizagem baseada em conhecimento. tetou-se o mecanismo de aprendizagem apenas para a geração de descrições características, mas, conforme se procura mostrar, ele também poderia ser usado para a geração de descrições discriminantes. Os resultados obtyidos e a própria experiência adquirida no trabalho permitem concluir que, a fim de que os modelos de regras possam melhor caracterizar o conhecimento expresso na base, são necessárias formas mais elaboradas para a definição das classes de regras. ABSTRACT: A research for the creation of a mechanism to allow the generation of models (descriptions) of the rules which constitute a knowledge base is presented. The mechanism which was defined is based on au inductive Learning process which is proposed, and works from rule classes defined in the base. Such classes are composed of rules which have some common conclusion clause and refer to a some set of objects. The learning approach allows the creation of disjunctive and conjunctive concepts. This process allows the generalization of disjunctive concepts for another that encompasses the formers, which represents a simple way of knowledge-based learning. The learning mechanism was tested only for the generation of characteristic descriptions, but, as its tried to show, it co also be used for the generation of discriminate descriptions. The results obtained, as well as the acquired experience along the work, allow to conclude that, in order that the models may better specify the knowledge expressed in the base, more sophisticated ways of defining the rule classes are necessary.
Full text: no
Atualizar
 
  

Aquisição e tratamento de dados para um sistema geográfico de informações
Oliveira, M. O. B.
INPE-4172-TDL/272
Tavares, Santiago Alves (presidente)
Pereira, José Antônio Gonçalves (orientador)
Santos, Márcio L. Xavier dos
Mascarenhas, Nelson Delfino d´Ávila

1986-02-26
Este trabalho apresenta um metodo para digitalizacao e tratamento de mapas tematicos a ser integrado num sistema maior, o Sistema Geografico de Informacoes (SGI). O presente sistema esta sendo desenvolvido em equipamentos convencionais, utilizando ferramentas de computacao grafica . Sao apresentados as diversas fases do sistema, bem como a descricao dos algoritmos nessas fases. ABSTRACT: This work presents a method for digitalization and treatment of thematic maps to be integrated in a greater system is being, the Geographical Information System (SGI). The present sustem is being developed in standard equipment, and using computer graphics tools. The different system phases are presentend, as well as the description of the algorithms used in these phases.
Full text: no
Atualizar
 
  

Determinacão de campos de ventos a partir do deslocamento de nuvens e sequencias de imagens de satélites geoestacionarios
Oliveira, E. A.
INPE-4099-TDL/256
Pereira, José Antônio Gonçalves (presidente)
Mascarenhas, Nelson Delfino d´Ávila (orientador)
Setzer, Alberto W. (co-orientador)
Santos, Márcio Lourival Xavier dos
Banon, Geraldo Jean Francis

1986-06-30
Os campos de ventos sao conjuntos de vetores indicativos da velocidade e direcao do vento numa regiao, e podem ser obtidos atraves do rastreiro de nuvens em uma sequencia de imagens de satelites meteorologicos. Este trabalho descreve a implementacao de um sistema em desenvolvimento no INPE, para a determinacao de campos de ventos em baixos niveis, utilizando imagens do satelite GOES-W. Este sistema sera usado na obtencao de dados para modelos de previsao numerica do tempo e na analise de situacoes sinoticas individuais. Descrevem-se as principais caracteristicas dos sistemas existentes para a determinacao de ventos e detalham-se os modulos que compoem o sistema em desenvolvimento. ABSTRACT: Wind fields are sets of vectors which indicate the speed and direction of the wind in a certain region. They can be obtained through cloud tracking in a sequence of geostationary meteorological satellites image. This paper describes a system under development at INPE for low cloud wind estimation in sequences of images of the GOES-W satellite. This system will be used in data acquisition for numerical weater prediction and in the analysis of individual synoptic situations. The relevant characteristics of the existing systems for cloud wind extraction are describe, and the modules belonging to the system under development are referred to in detail.
Full text: no
Atualizar
 
  

Restauração de radioImagens solares
Ribeiro, E. A.
INPE-4312-TDL/279
Pereira, José Antônio Gonçalves (presidente)
Mascarenhas, Nelson Delfino d´Ávila (orientador)
Costa, Joaquim Eduardo Resende (co-orientador)
Lima, Ubirajara M. B. de

1986-06-26
Este trabalho apresenta o problema geral de restauraçãop de imagens e descreve sucintamente os métodos propostos para resolvê-los. A seguir, insere-se problema no contexto de imagens de radioastronomia, evidenciando os aspectos físicos de formação de imagens. Apresentam-se os resultados computacionais utilizando o método de técnicas de regressão para restauração de imagens. Analisa-se o mau condicionamento deste método devido a presença de ruído aditivo na imagem e ao erro de arredondamento do computador: usa-se a análise do número de condição como ferramenta para ilustrar o problema do mau-condicionamento. Apresentam-se os resultados de simulação onde se tem controle do processo de degradação a aplica-se o método proposto ao caso das imagens reais de radioastronomia. Indicam-se os problemas do desconhecimento do fenômeno da degradação e o esforço computacional para sua solução utilizando as técnicas de regularização. ABSTRACT: The general problem of image restoration is proposed, as well as a brief description of the methods to solve it. Then, this problem is placed in the context of radioastronomy images by considering the physical aspects of image formation. By using regression techniques for image restoration computational results are presented. The ill-conditioning of this method due to the presence of additive noise in the image and computer round-off error is analysed; the analysis of condition number is also used as a tool to illustrate the ill-conditioning problem. Alternative methods are presented, such as Inverse Filtering, Fourier Domain Solution etc., as well as their computational limitations. Restoration results through the use of regression techniques and the solution for the problem of oscillations due to ill-conditioning are discussed. Simulation results are presented where there exists control over the degradation process, and the proposed method is applied to real radioastronomy images. The problems of lack of knowledge of the degradation process and the computational effort for its solution by using regularization techniques are also indicated.
Full text: no
Atualizar
 
  

Um estudo de compactação de dados usando métodos numéricos
Silva, J. E. O.
INPE-4317-TDL/284
Raupp, Marco Antonio (presidente)
Silva, Orion de Oliveira (orientador)

1986-06-04
Este trabalho descreve três métodos de compactação de dados utilizando técnicas de Análise Numérica. Cada método apresenta resultados práticos obtidos no Burroughs 6800, bem como, susgestões sobre como mellhorar a performance das implementações. ABSTRACT: This paper describes three methods of data compactation by using Numerical Analysis techniques . Each method presents practical results detained in Burroughs-6800, as well as suggestions on how to improve the performance of the implementations.
Full text: no
Atualizar
 
  

Máquinas de arquitetura distribuída-considerações sobre testes de "software"
Spinola, M. M.
INPE-4091-TDL/252
Souza, Celso de Renna e (presidente)
Silva, Orion Oliveira (orientador)
Neto, João José (co-orientador)
Melnikoff, Selma S. Shimizu
Nakanishi, Tatúo

1986-02-27
Sistemas distribuídos tem sido utilizados em escalas crescentes em diversas aplicações. As diferenças existentes entre esses sistemas e os sistemas concentrados trazem impactos nas metodologias de desenvolvimento do software e dos seus testes. Uma metodologia para realizar testes de software distribuído e apresentada, identificando-se técnicas e ferramentas que podem ser adotadas com a finalidade de simplificar esta atividade. Este trabalho trata do desenvolvimento de uma metodologia para testes de software distribuído. Esta metodologia resulta da experiência adquirida durante os testes de software de uma máquina de arquitetura distribuída particular. Algumas propostas para aprimoramento dessa metodologia são também apresentadas. ABSTRACT: Distributed systems have been used at growing rates in many applications. The existing differences between these systems and centralized systems bring impacts on the software development and test methodologies. A methodology to make tests on distributed software is presented, identifying techniques and tools that can be adopted in order to simplify this task. This work is concerned with the development of a methodology for testing d software. This methodology had resulted of the experience acquired during the software tests of a particular distributed architecture machine. Some proposals to improve this methodology are also presented.
Full text: no
Atualizar
 
  


   1987



Uma abordagem unificada para os problemas de processamento digital de imagens: a morfologia matemática
Barrera, J.
INPE-4311-TDL/278
Dias, Luiz Alberto Vieira (presidente)
Mascarenhas, Nelson Delfino d'Avila (orientador)
(orientador), Gerald Jean Francis Banon
Alens, Normonds
Velasco, Flavio Roberto Dias
Rodrigues., Valter

1987-06-18
Esta dissertacao apresenta uma ferramenta matematica, baseada na teoria de conjuntos, que e util para resolver muitos problemas em processamento de imagens: a Morfologia Matematica. De fato esta ferramenta se constitui em uma abordagem unificada para lidar com problemas de processamento de imagens de naturezas distintas (restauracao, segmentacao, analise, codificacao, et.)que ate entao eram tratados por algoritmos especificos. Esta dissertacao tambem apresenta um sistema computacional, desenvolvido no INPE, baseado em operacoes da Morfologia Matematica e alguns problemas de processamento de imagens resolvidos neste sistema. ABSTRACT: This thesis presents a Mathematical tool, based on set theory, that is useful to solve many problems in image processing: Mathematical Morphology. In fact, this tool is a unified approach to deal with image processing problems of different natures (restoration, segmentation, analysis, coding, etc.) up to that time were treated by specific algorithms. This thesis also presents a computational system, developed at INPE, based on Mathematical Morphology operations and some problems of image processing solved with this system.
Full text: no
Atualizar
 
  

BOLETIM: um sistema especialista para previsão de tempo
Duarte, V. H. À.
INPE-4538-TDL/329
Filho, Luiz Gylvan Meira (presidente)
Souza, Celso de Renna e (orientador)
Giorno, Fernando
Sanri, Sandra Aparecida
Moura, Antonio Divino

1987-08-21
O BOLETIM é um Sistema Especialista cujo domínio de conhecimento é a Meteorologia, mais especificamente, a área de Previsão do Tempo. Sua tarefa é fazer o prognóstico do tempo, para 24 horas, para o Estado do Rio Grande do Sul. Esta tarefa e baseada na interpretação de fotos de satélites e de cartas de superfície e de altitude. O processo de aquisição de conhecimento, ponto focal desta dissertação, contou com a participação dos meteorologistas do Instituto Nacional de Meteorologia, como fonte de conhecimento. Atualmente, o BOLETIM possui um conjunto de 885 regras. A ferramenta computacional adotada para construção do BOLETIM foi o sistema ESE/VM, utilizando como mecanismo de inferência o encadeamento direto. ABSTRACT: BOLETIM is an Expert System, the knowledge domain of which is Meteorology more especifically, the area of weather forecasting. Its task is to predict weather condití6ns in the State of Rio Grande do Sul, for a period of 24 hours. This task is based cm the interpretations of satellites photographs and surface and altitude maps. The process of knowledge acquisition, focal point in this dissertation, has the collaboration of the National Meteorology Institute (INEMT]T). Actually, BOLETIM contains a set of 885 rules. The computational tool adopt for BOLETIM building was ESE/VM, using forward chaining as the inference mecanism.
Full text: no
Atualizar
 
  

Desenvolvimento de um sistema de modelagem digital de terreno para microcomputadores
Felgueiras, C. A.
INPE-4406-TDL/303
Pereira, José Antônio Gonçalves (presidente)
Dias, Luíz Alberto Vieira (orientador)
Magalhães, Leo Pini
Santos, Marcio Lourival Xavier dos

1987-08-24
Este trabalho descreve os aspectos teoricos e de implementacao de um sistema de Modelagem Digital de Terreno, MDT, para ser executado em microcomputadores. Esse sistema esta integrado a um Sistema Geografico de Informacoes que permite combinar os dados do MDTs com mapas tematicos, imagens de satelite e outras informacoes pictoricas, para obter mapeamentos derivados. ABSTRACT: This work describes theoretical and implementation features of a Digital Terrain Modeling System, DTM. This system runs in a microcomputer and is integrated with a Geographic Information System which allows the combination of DTM data with thematic maps, satelite images, etc..., to obtain new derived maps.
Full text: no
Atualizar
 
  

Inserção, remoção e alteração de dados em banco de dados relacionais: uma aplicação ao Projeto Relacional do INPE/DSC/DIN
Santos, A. V.
INPE-4137-TDL/266
Souza, Celso de Oliveira (presidente)
Silva, Orion de Oliveira (orientador)
Silva, Carlos Sérgio A. da
Viola, Francisco Eduardo C.

1986-4-11
Este trabalho descreve uma interface de atualização do Banco de Dados no sistema relacional desenvolvido pelo INPE para os Sistemas Burroughs B6000/B7000. ABSTRACT: This work describes an interface for Data Base update to the relational system developed by INPE for systems Burroughs B6000/ B7000.
Full text: no
Atualizar
 
  

Um sistema automático para extração de informações de um CAD, seleção, sequenciamento e execusão de processos de torneamento
Vescovi, M. R.
INPE-4350-TDL/294
Simoni, Paulo Ouvera (presidente)
Amaral, Paulo Faria Santos (orientador)
Oliveira, Valter (co-orientador)
Pinto, Benedito Geraldo Miglio
Viola, Francisco Eduardo de Carvalho

1987-07-17
Este trabalho é dedicado ao desenvolvimento e implementação de um sistema que visa a automação de importantes etapas de um sistema CAD-CAM para operações de torneamento. Estas etapas são o reconhecimento e a extração de informações de sistemas CAD a respeito das superfícies a serem usinadas, e seleção, sequenciamento e execução dos processos de usinagem destas superfícies. Inicialmente são apresentadas cada uma destas etapas, bem como o estado da arte em cada uma delas. Em seguida, é apresentada a Linguagem Básica CN juntamente com uma série de funções propostas com a finalidade de tornar esta linguagem mais eficiente e flexível. A Linguagem de Alto Nível (LANCNC), contendo comandos para execução dos processos de usinagem, comandos para sincronização com sistemas externos e outros comandos comuns a linguagens estruturadas, é apresentada em detalhes. Os programas para automação das etapas de re conhecimento de superfícies usinavéis e das etapas de seleção e sequenciamento dos processos de usinagem destas superfícies são apresentados. Finalizando, é apresentado o sistema CNC em que foi implementado este trabalho, e é implementado um exemplo de torneamento de uma peça a fim de mostrar os resultados em cada uma das etapas. ABSTRACT: This work is concerned with the development and implementation of a system whose goal is the automation of important parts of a CAD-CAM system for turning operations. These parts are the recognition and extraction of information from CAD systems about the surfaces to be machined; and the selection, sequencing and execution of processes to machine these surfaces. The state of the art in each of these parts is presented. The Numerical Control Basic Language is presented and some functions are proposed in order to give this language more eficiency and flexibility. A high level Language For Numerical Control, with commands for execution of machining processes, sincronization with external systems and commands common to structured Languages, is detailed. The programs for automating the recognition of the surfaces to be machined, the selection and the sequencing of the machining processes, are also presented. Finally, the CNC system where this work was implemented is presented together with an example of the turning operation of the implemented system.
Full text: no
Atualizar
 
  


   1988



Um Sistema para Execução de Especificações JSD
Ambrosio, A. M.
INPE-4915-TDL/381
Dias, Luiz Alberto Vieira (presidente)
Velasco, Flávio Roberto Dias (orientador)
Jino, Mário
Simoni, Paulo Ouvera

1988-06-08
Modelos operacionais para desenvolvimento de software foram propostos como uma alternativa aos modelos convencionais (específica, projeta e implementa). Um dos princípios básicos dos modelos operacionais é que e possível executar diretamente a especificação de requisitos de software. Neste trabalho, o método CTSD ("Jackson System Development") e considerado como um modelo operacional e, para tanto, uma linguagem e um esquema são propostos que possibilitem a execução de especifica JSD. É, também, implementado um sistema que analisa especifica e permite que elas sejam executadas. ABSTRACT: The operational approach for software development was suggested as an alternative to the conventional approach (specify, project and implement). One of the basic principles of the operational approach is the direct execution of the software requirements specification. In this work, the JSD approach ("Jackson System Development") is considered as an operational approach and, as such, a language and a scheme are proposed that make possible the execution of JSD specifications. It is also implemented a system that analyzes specifications and allows their execution.
Full text: no
Atualizar
 
  

Uso de casamento estrutural para registro de imagens de satélite
Bins, L. S.
INPE-4734-TDL/345
Mascarenhas, Nelson Delfino d'Avila
Velasco, Flavio Roberto Dias, (orientador)
Netto, Marcio Luiz Andrade
Carvalho., Joao Marques de

1988-07-26
Tradicionalmente, o registro de imagens de satelite esta baseado no uso de metodos de correlacao. Um problema inerente destes metodos e que eles sao sensiveis as transformacoes geometricas e radiometricas. Nesta dissertacao e estudada uma classe de metodos os quais nao sao sensiveis a uma grande classe de transformacoes geometricas e radiometricas: o casamento estrutural. Ao inves de registrar duas imagens intensidades, o casamento estrutural registra as descricoes simbolicas de nivel intermediario da visao das imagens. Tambem e proposto um metodo de casamento estrutural que usa tecnicas de relaxacao. O metodo consiste dos seguintes passos. Primeiro, as imagens sao segmentadas e os objetos extraidos sao representados usando atributos tais como: descritores de forma e de tonalidades de cinza. Para cada imagem as relacoes espaciais entre os objetos e computada e uma descricao na forma de grafos direcionados obtida. Um grafo de associacao e gerado a partir das possiveis correspondencias entre nodos e entre arcos das duas descricoes. O melhor casamento entre as estruturas e computado usando tecnicas de relaxacao. Atraves de uma escolha apropriada dos atributos e das relacoes espaciais o casamento pode ser achado ainda que em presenca de distorcoes geometricas e radiometricas entre as imagens. Esta dissertacao mostra alguns experimentos como o metodo proposto em imagens de satelite e imagem com mapa. ABSTRACT: Traditionally registration of satellite images is based on correlation methods. A problem inherent to this kind of aproach is the sensitivity to geometric and radiometric transformations. Here a class of methods wich is insensitive to a large class off geometric and radiometric transformations are studied: the structural matching. Instead of registering two intensity images, structural matching registers the intermediate simbolic descriptions of the images. On the other hand, a method of structural matching is proposed, wich uses relaxation techniques. the method consists of the following steps. First, the images are segmented and the extracted objects are represented using shape and gray level descriptors. For each image, the spatial relation between the objects is computed and a description in the form of a directed graph is obtained. Second, an association graph is generated by establishing the possible correspondences between nodes and between arcs. The best match between structures is computed using relaxation techniques. Through a proper choice of attribute descriptors and spatial relations a matching can be found even iii the presence of geometric and radiometric distortions. This dissertation show some experiments with the proposed method applied to satellite images and images and maps.
Full text: no
 
  

Modelos de correção geométrica para imagens HRV - SPOT
Machado e Silva, A. J. F.
INPE-5001-TDL/395
Banon, Geral Jean Francis (presidente)
Mascarenhas, Nelson Delfino d´Ávila (orientador)
Silva, José Fernando Custódio da
Lugnani, João Bosco
Dias, Luiz Alberto Vieira

1988-10-27
A correção geométrica apresenta-se como uma ferramenta extremamente importante nas diversas aplicacoes de Sensoriamento Remoto. Por este motivo, ela deve incluir o rol das tarefas que compoem o pre-processamento de imagens. A literatura apresenta diversos modelos matematicos para este fim, bem como modelos para refinar a correcao geometrica. Esta dissertacao busca apresentar, analisar e comparar alguns metodos de correcao geometrica, procurando estudar a relacao entre custos computacionais e precisao alcancados. Alguns criterios de avaliacao geométrica sao discutidos, por se tratar do instrumento pelo qual e possivel comprovar a excelencia ou nao dos modelos adotados. ABSTRACT: Geometric correction is a very important tool of remote sensing aplications. Therefore, it must include tasks which compose the preprocessing of the images. There are several mathematical models ofr the geometric correction itself, and also for its refinement. Here, some geometric correction methods are presented, analysed and compared, and the relation between computacional costs and presicion is studied. Some geometric evalution standards are discussed, as they are the instrument to confirm the quality of the adopted models.
Full text: no
Atualizar
 
  

Processamento de imagens de satélite usando estruturas simbólicas do baixo nível da visão
Monteiro, A. M. V.
INPE-4638-TDL/337
Mascarenhas, Nelson Delfino d´Ávila (presidente)
Velasco, Flávio Roberto Dias (orientador)
Tozzi, Clésio
Banon, Gerald J. F.

1988-06-10
No processamento automatico de imagens de satelites, tarefas como a segmentacao das imagens em regioes significativas, e mesmo a classificacao das cenas, tem sido tradicionalmente executadas, usando como entrada a imagem "bruta" gerada pelos satelites (ja consideradas a restauracao e operacoes de eliminacao de ruidos). Os resultados obtidos, em muitos casos, nao tem sido muito precisos, especialmente quando comparados com a eficiencia de fotointerpretes (humanos)para as mesmas tarefas. Os "ganhos" em resolucao espacial dos satelites mais recentes tem aumentado ainda mais o problema. O proposito desta dissertacao, e a adocao de modelos correntes de percepcao visual humana como paradigma de organizacao para sistemas de processamento de imagens de satelites. Em particular, usamos o ESBOCO PRIMÁRIO ("PRIMAL SKETCH"), como definido por David Marr, para que seja o ponto inicial para as tarefas de processamento. Esta dissertacao mostra alguns experimentos usando o ESBOCO PRIMÁRIO para executar segmentacao em imagens de satelites, discriminacao de texturas e aplicado ao mapeamento geologico de regiões. ABSTRACT: In automatic satellite image processing, tasks such as segmentations of the image into meaningfull objects and even classification heve been commonty performed using as input the raw satellite cases the results obtained heve not been very good, specially when compared with the performance of (human) photointerpreters in the same tasks. The increase in spatial resolution of recent satellites has added to the problem rather than improved it. The proposal of this dissertation is the adoption of current models of human visual perception as the paradigm to organize processing systems for satellite images. In particular it is proposed thar the "PRIMAL SKETCH", as defined by David Marr, be the starting point of the processing instead of the raw image. This dissertation shows some experiments using the "PRIMAL SKETCH" to perform segmentation of satellite imagery and discusses the aplicability of the method.
Full text: no
Atualizar
 
  

Uma abordagem centrada em regras de produção para a divisão de ambientes e palnejamento no sistema de navegação visual (SNV)
Nogueira, C. A. M.
INPE-4813-TDL/360
Dias, Luiz Alberto Vieira (presidente)
Rodrigues, Valter (orientador)
Cardozo, Eleri
Velasco, Flávio Roberto Dias
Simoni, Paulo Ouvera

1988-12-12
Nesse trabalho, e apresentado uma proposta para o planejamento da navegação no caso de um robô móvel inteligente em ambientes estruturados. Para isso, utiliza-se de uma abordagem mista, baseada nos objetos (obstáculos) e espaços livres. A representação do conhecimento acerca do ambiente hierárquica e utiliza-se de níveis de abstração na resolução do problema. São desenvolvidos conceitos geométricos que permitem a divisão de um ambiente qualquer, contendo objetos, em regiões poligonais convexas. 0 caminho entre dois pontos e determinado de acordo com um procedimento monotônico. ABSTRACT: In this work we present a proposal for the planning of the navigation of an intelligent mobile robot in structured environments. For this purpose we use a mixed approach based on objects (obstacles) and empty spaces. The representation of knowledge about the environment is hierarchical while abstraction levels are used in the problem solution. Geometric concepts which permit the partition of any environment into convex polygonal regions are developed. The path between any two points is determined according to a monotonic procedure.
Full text: no
Atualizar
 
  

Projeto de software para um centro de missão de coleta de dados
Souza, J. P. M.
INPE-4648 - TDL/339
Pereira, José Antonio Gonçalves (presidente)
Nakanishi, Tatuo (orientador)
Monard, Maria Carolina
Rozenfeld, Pawel

1988-04-04
O Centro de Missão de Coleta de Dados (CMCD)destina-se à recepção e processamento dos dados transmitidos pelo satélite de coleta de dados da Missão Espacial Completa Brasileira (MECB), mantendo-se disponíveis para acesso remoto de usuários via rede telegráfica e/ou telefônica. O sistema de "software" a ser desenvolvido possui características de processamento em tempo real. O objetivo deste trabalho é realizar as fazes de análise e projeto deste sistema, propondo uma metodologia que englobe técnicas para desenvolvimento de sistemas de tempo real e de banco de dados. Os resultados obtidos deverão ser úteis ao projeto do centro de missão que servirá à MECB. ABSTRACT: The Centro de Missão de Coleta de Dados (CMCD) receives and processes the data transmitted by the data collecting satellite of Missão Espacial Completa Brasileira (MECB), keeping them available for remote user accesses through telex and/or telephone lines. The software to be developed presents real time processing characteristics. The purpose of this work is to perform the analysis phase of this system proposing an especific methodology which includes real time systems and base techniques. The results shall be usefull for the desing of the MECB mission center.
Full text: no
Atualizar
 
  


   1989



Um sistema interativo aplicado ao problema linear quadrático
Acerbi, R.
INPE-4945-TDL/386
Rodrigues, Valter (presidente)
Simoni, Paulo Ouvera (orientador)
Cardozo, Eleri (orientador)
Yoneyama, Takashi
Neto, Antonio Felix Martins

1989-03-01
Neste trabalho apresenta-se uma ferramenta que se destina a auxiliar o projeto de controle ótimo, empregando especificamente a abordagem LINEAR QUADRÁTICO em sistemas multivariáveis e invariantes no tempo. Propõe-se uma arquitetura para um SISTEMA INTERATIVO, baseado em conhecimento extraído de simulações. Através desse conhecimento é possível orientar o projetista na escolha de matrizes de ponderação, em função de especificações de projeto. Descreve-se também os resultados das simulações, que permitiram observar o comportamento de parâmetros em função de elementos das matrizes de ponderação. São exibidos detalhes da implementação realizada e mostrados resultados de testes realizados com sistemas. ABSTRACT: In this work a new tool for aided optimal control design, based on the Linear Quadratic approach for multivariables and time invariant systems, is presented. An architecture for a interactive system, based on knowledge, extracted from simulations, is proposed. This knowledge aids to orientate the designer in ponderations matrixes choice, from design specifications. Simulations results that have aided to observe parameters behaviour from ponderations matrixes elements are described. Implementations details and test results are exposed too.
Full text: no
Atualizar
 
  

Classificação de imagens de alta resolução usando atributos de textura
Andrade, V. M. B.
INPE-4888-TDL/379
Mascarenhas, Nelson Delfino d´Ávila (presidente)
Banon, Gerald Jean Francis (orientador)
Tozzi, Clésio Luis
Filho, Raimundo Almeida
Dias, Luiz Alberto Vieira

1989-02-28
A maioria dos classificadores atualmente utilizados na analise de imagens usam apenas as caracteristicas espectrais para diferenciar as classes. Esses classificadores foram originalmente desenvolvidos para analise de dados Landsat-MSS. Com o surgimento de novos sensores de variadas resolucoes especiais, e necessaria a revisao dos metodos de classificacao. Estudos a respeito da influencia da resolucao na classificacao apontam dois fatores responsaveis pelo desempenho de classificacao: os pixels misturados e o "ruido de cena". Da presenca do ruido de cena decorre o aparecimento de uma caracteristica adicional na imagem, a textura. Na primeira parte deste trabalho, e feita uma avaliacao do desempenho de classificacao em funcao da resolucao espacial. E verificado um decrescimo da confusao media na classificacao a medida que a resolucao diminui. No entanto, nas imagens de baixa resolucao, observa-se bem, devido ao aumento dos pixels misturados, o aumento da abstencao media. Na segunda parte, sao propostas algumas medidas (ou atributos)de textura, que podem ser extraidas de pequenas janelas de imagem. Extraindo-se atributos de textura para cada pixel, sao geradas "bandas de textura". As vinte "bandas de textura" propostas sao analisadas visualmente e estatisticamente numa imagem da regiao urbana de Sao Jose dos Campos. A partir desta analise duas "bandas de textura" foram selecionadas e usadas na classificacao daquela imagem. E verificada uma melhoria no desempenho de classificacao no sentido de que se observa um decrescimo na confusao media, sem um real acrescimo na abstenção. ABSTRACT: Most classifiers commonly used in image analysis rely solely on spectral caracteristics to differentiate classes. These classifiers were originally developed to be use with Landsat-MSS data. With the news sensors at different spacial resolutions it is necessary to revise the image classification methods. Studies about spacial resolution effects on classification shows that classification accuracy is influenced by two factors: the mixed pixels and "scene noise". The presence of "scene noise" provides one more image caracteristic, the texture. In the first part of this work, an evaluation of the classification accuracy as a function of spacial resolution is made. It is verified that confusion error rates decrease with smaller resolutions. However, for small resolution image, it can be observed, due to the increasing rate of mixed pixels, an increasing rate of non-classified pixels. In the second part, some texture measures (or features) are proposed. They are extracted from small image windows. By extraction of the textural feature at each pixel, "texture bands" are created. The twenty proposed "texture bands" are visually and statistical analysed from an image os São José dos Campos urban area. Form this analysis, two " texture bands" are selected and used to classify this image. A better classification accuracy is verified, in the sense that a decreasing confusion error rate without a significant increasing rate of non-classified pixels is observed.
Full text: no
Atualizar
 
  

Representação e manipulação de imagens gráficas utilizando árvores quaternárias
Cordeiro, J. P. C.
INPE-5069-TDL/408
Velasco, Flávio Roberto Dias (presidente)
Rodrigues, Valter (orientador)
Santos, Clésio Saraiva dos
Dias, Luiz Alberto Vieira
Pereira, José Antonio Gonçalves

1989-09-12
Conversão entre representações, pesquisa de adjacência, operações de conjunto e transformações sac tarefas básicas em sistemas que manipulam imagens gráficas em diversas áreas de pesquisa e aplicação. Neste trabalho sac elaborados e implementados procedimentos para pesquisa de adjacência, operações de união, intercessão e rotação por ângulos retos, sobre imagens representadas por arvores quaternárias (quadrees). A geração de árvores quaternárias a partir de imagens dadas nas formas matricial, raster e vetorial, e da representação raster de uma quaternária de imagem, sac abordadas neste trabalho. Alguns aspectos da estrutura de arvore quaternária clássica e linear sac considerados. ABSTRACT: Convertion between representations, neighbour finding and set operations are basic tasks for systems that deal with graphic images in several research and apllication areas. This work focuses on the implementation oh some procedures for neighbour finding, basic set angles, involving images represented by quadtres, as well raster and vector format. The task of obtaininh a raster of the classical and linear quadtree structure are considered.
Full text: no
Atualizar
 
  

Uma ferramenta para auxílio na reutilização de software
Teixeira, M. M. R.
INPE--TDI/
Simoni, Paulo Ouvera (presidente)
Velasco, Flavio Roberto Dias (orientador)
Omar, Nizam
Rodrigues, Valter

1989-09-12
Neste trabalho discutimos a aplicabilidade da reutilização de software para redução nos seus custos de produção. Apresentamos os vários caminhos para reutilização de software e propomos uma metodologia baseada no trabalho de Prieto-Diaz e Freeman. A metodologia e discutida, assim como a correspondente ferramenta e o seu emprego ilustrado com exemplos. Finalmente, sao consideradas as dificuldades remanescentes para a reutilização de software, bem como possíveis soluções. ABSTRACT: In this work we discuss the applicability of reuse as a way of achieving reduction on software prodution costs. We present the various existing methods of reuse and a hierachical multi face methodology is proposed, based on Prieto-Diaz Freeman´smrthod. Aspects and details of the proposed methodology and corresponding tool, with examples, are also presented. Finally, remainning dificulties and possible solutions are considered.
Full text: no
Atualizar
 
  


   1990



Desenvolvimento de um banco de dados interativo com elementos gerados por varredura para um sistema CAD
Horna, A. F. P.
INPE-5118-TDI/420
Banon, Gerald Jean Francis (presidente)
Durão, Otávio Santos Cupertino (orientador)
Magalhães, Léo pini
Dias, Luíz Alberto Vieira

1990-03-13
Este trabalho descreve a implantação de um software interativo que implementa um modelador geométrico com caracter´sticas hierárquicas para a construção de sólidos, em um sistema CAD. Os sólidos gerados por varreduras são então compostos entre sí, usando opreções booleanas, para a obtenção da forma final desejada. Inicialmente justfica-se a escolha utilizando seu funcionamento, com o objetivo de viabilizar a transportabilidade do modelador geométrico a outros sistemas, usando pacotes gráficos padronizados, faz-se uma comparação com outros padrões. ABSTRACT: This work presents the development of an Interactive software that implements a geometrical modeller with hierarchical features for the construction of solids in a CAD system. In this work the solids are built following a hierarchical binary tree structure whose lowest level elements are used for generating solids through the technique known as rotational or translational sweeping, either around a revolution axis or along a straight line, respective The swept generated so are then composed with each other, using boolean operations, in order to obtain the final desired form. First, the kind of data base structure used is justified and its operation described; then a geometric modeling theoretical basis is presented as well as the main solid representation schemes. Finally, with the purpouse of increasing the feasibility of the transportability of the geometric modeller to other Systems, using standard graphic packages, a comparison with the most used graphic standards is made.
Full text: no
Atualizar
 
  

Combinação dos métodos HATLEY e WARD/MELLOR para sistemas tempo-real
Mayoral, A. L. R.
INPE-5078-TDL/412
Velasco, Flávio Roberto Dias (presidente)
Dias, Luiz Alberto Vieira (orientador)
Omar, Nizam
Nakanishi, Tatuo

1990-03-05
O uso crescente das técnicas de análise estruturada de sistemas em aplicações comerciais levou a tentativas de se usar essas mesmas técnicas em aplicações de engenharia. Por sua vez, sua utilização no desenvolvimento de sistemas tempo-real mostrou a necessidade de se estender o m para representar aspectos peculiares a tais sistemas. Duas extensões foram feitas: a de Hatley e a de Ward e Mellor. Este trabalho analisa dois métodos e faz sua combinação. O método hídrico resultante usa a abordagem dirigida pro eventos, a estrutura do modelo de requisitos de Hatley, á qual se juntou os diagramas de estrutura do método JSD para modelar entidades externas. ABSTRACT: The increasing use of structured analysis techniques for business applications yelded to its use for engineering applications. In so doing, the use of structured analysis for real-time systems development showed the need to extend the method to represent aspects specific to those systems. Two such extensions where made, one by Hat and the other by Ward and Mellor. This work describes a combination of these t real-time structured analysis methods. The hybrid method uses the event-driven approach (from Ward and Mellor) in the Hatleys requirements model structure. JSD structure diagrams where added to the model structure to describe external entities.
Full text: no
Atualizar
 
  

Um sistema para controle de versões de software
Motta, M.
INPE-5199-TDL/428
Nakanishi, Tatúo (presidente)
Velasco, Flávio Roberto Dias (orientador)
Jino, Mario
Silva, Orion de Oliveira
Dias, Luiz Alberto Vieira

1990-03-01
Neste trabalho foram estudados os principais conceitos relacionados com a disciplina Gerenciamento de Configurações de Software. Algumas ferramentas (SCCS, RCS, PAL, CMS/MMS) que automatizam parte das atividades do processo de gerenciamento de configurações foram descritas. Baseado nas características essenciais destas ferramentas foi especificado um Sistema para Controle de Versões de software (SCV) para ser executado em um microcomputador do tipo IBM-PC sob o sistema operacional MS-DOS. Além das características essenciais, o SCV incorpora, também, um modelo simples do ciclo de vida do software e da estrutura de gerenciamento. Um protótipo do sistema com as suas funções principais foi implementado. ABSTRACT: In this work the main concepts related to Software configuration Management have been studied. Some tools (SCCS, RCS, PAL e CMS/MMS) that automate part of activities involved in the configuration management process have been described. Based on the essencial features of these tools, a Version Control System (SCV) has been specified to run on IBM-PC - like microcomputers under the MS-DOS operational system. Besides the essencial characteristics, the SCV incorporates also a simple model of the Software life and management structure. A prototype of the SCV with its main functions has been implemented.
Full text: no
Atualizar
 
  

Uma aplicação de conceitos da teoria de gestalt na interpretação de imagens para a navegação de robos móveis
Odashima, E. K.
INPE-5225-TDL/438
Simoni, Paulo Ouvera (presidente)
Rodrigues, Valter (orientador)
Miyagi, Paulo Eigi
Durão, Otávio Santos Cupertino
Velasco, Flávio Roberto Dias

1990-02-14
Neste trabalho foi abordado a parte de visão artificial para um SNV (Sistema de Navegação Visual), i. e., um veículo capaz de se deslocar de um determinado local para outro, sem que haja a interferência de um agente externo. o paradigma concebido é baseado no conhecimento da Psicologia da Gestall e no conhecimento da geometria do espaço, que são representados por regras de produção. ABSTRACT: In this work we deal the part of artificial vision for a VNS (Visual Navigation System), i.e., a vehicle capable to deslocate from a determined place to other without interference of an external agent. The objective of the study was the segmentation of a image of interior scene in free space and obstacles to posterior use in the construction of a cognitive map of the robots environment of actuation. The paradigm conceived is based in the know of Gestalt Psychology and in the know of space geometry, that are represented by production rules.
Full text: no
Atualizar
 
  


   1992



Visualização e simulação de um problema físico real baseadas em modelagem fisica com o uso da animacao por computador
Ferreira, C. A. S. V.
INPE-5492-TDI/509
Dias, Luiz Alberto Vieira (orientador)
1992-10-23
Apresenta-se uma aplicacao de Animacao por Computador com seus problemas e necessidades envolvendo o uso da Dinamica para a simulacao do movimento. Um dos maiores problemas em se fazer Animacao por computador e criar movimentos que parecam o mais natural e realistico possivel. Uma alternativa e o uso da Dinamica para o controle dos movimentos, onde os objetos sao tratados como tendo massa e outras propriedades fisicas, agindo sob influencia de torques e forcas externas e internas. Uma das dificuldades com essa tecnica e a determinacao das forcas e torques requeridos para cada movimento e para isso e necessario aplicar as leis fisicas que regem o movimento.
Full text: no
Atualizar
 
  

Uma nova heurística para problemas de cobertura de conjuntos
Lopes, F. B.
INPE-5471-TDI/502
Carvalho, Solon Venâncio de (presidente)
Lorena, Luiz Antônio Nogueira (orientador)
Júnior, Edgard Dias Batista

1992-10-14
Este trabalho apresenta uma nova heuristica para problemas de cobertura de conjuntos baseada em uma relaxacao Surrogate Continua e em um metodo de otimizacao de subgradientes. Nos propomos um controle do tamanho do passo adequado para a relaxacao Surrogate, o qual prove bons limites em poucas iteracoes dos subgradientes, quando comparado com outras relaxacoes. Alem disto, o algoritmo combina testes de reducao do tamanho do problema e uma tecnica para evitar a ordenacao preliminar durante a solucao da relaxacao Surrogate Continua. Outra caracteristica do trabalho e a definicao de uma estrutura de dados eficientes de modo a resolver problemas de grande porte (1000 linhas por 12000 colunas) em micro-computadores. Os testes computacionais indicam resultados de melhor qualidade que os de um algoritmo baseado em uma relaxacao Lagrageana, principalmente em relacao ao tempo computacional. ABSTRACT: This work presents a new heuristic for set covering problems, based upon Continuous Surrogate relaxation and subgradient optimization. We propose an adequate step size control that provides the Surrogate bounds in few subgradient iterations, comparing to other relaxations. The algorithm also combines problem reduction tests and a technique to avoid the preliminary sorting to solve the Continuous Surrogate relaxation. Another feature is the definition of an efficient data structure in order to solve large set covering problems (up to 1,000 rows and 12,000 columns). Computational tests indicate better-quality results then algorithms based on Lagrangian relaxation in terms of final solutions and mainly in computer times.
Full text: no
Atualizar
 
  

Uma ferramenta para a geração de arcabouços de sistemas especialistas
Marengoni, M.
INPE-5493-TDI/510
Sandri, Sandra Aparecida (presidente)
Bittencourt, Guilherme (orientador)
Simoni, Paulo Ouvera
Banon, Gerald Jean Francis
Souza, Celso de Renna e

1992-12-10
Neste trabalho e proposto uma ferramenta que podera integrar uma interface grafica com um ambiente para a geracao de sistemas especialistas. O uso da ferramenta esta dividido em tres fases. Inicialmente o usuario, de forma interativa, especifica suas necessidades de acordo com o problema a ser tratado. Na segunda fase, estas especificacoes sao utilizadas pelo gerador para selecionar, de uma biblioteca, os modulos que contem as funcoes necessarias para estruturar um sistema especialista. Estes modulos sao integrados em um sistema unico que pode ser compilado. Finalmente, o sistema compilado pode ser utilizado para desenvolver um sistema especialista para resolver o problema inicial. A ferramenta sera provida ainda de primitivas graficas e mecanismos para a integracao de algoritmos externos necessarios a manipulacoes especiais de imagens. A mativacao para a implantacao de ferramenta veio da necessidade de se construir sistemas especialistas com diferentes neveis de complexidades para o dominio de processamento de imagens. Uma outra motivacao e a possibilidade do uso da ferramenta num laboratorio de pesquisa e ensino em representacao de conhecimento de conhecimento e arquitetura de sistemas especialistas. esta ferramenta e a parte de inteligencia artificial de um projeto mais amplo de um laboratorio inteligente para o processamento de imagens, onde atividades de pesquisa e desenvolvimento de produto possam ser executadas de forma eficiente. O modulo de geracao de motores de inferencia, cuja especificacao e implementacao representa a principal contribuicao deste trabalho, e descrito em detalhes, tambem sao apresentados os embasamentos teoricos dos componentes do modulo e detalhes da implementacao deste trabalho. ABSTRACT: A tool is proposed that integrates a modular graphical interface with an expert system shell generator. The use of the tool is divided in three phases. Initially, the user interactively specifies his needs according to the intended problem. In the second phase, these specifications are used by a shell generator system to select, from a program library, the modules containing the functions needed to build an expert system shell satisfying the specifications. These modules are integrated in a stand alone system, and this system is compiled. Finally, the compiled version of the specified shell is used to develop an expert system to solve the intended problem. The tool also provides graphical primitives and mechanisms for the integration -of external algorithms needed for special image manipulations. The tool implementation has been motivated by the need to construct expert systems with different levels of complexity in the domain of image processing. A further motivation was the possibility of using such a tool as a teaching and research laboratory in knolwedge representation and expert system architecture. This tool represents the artifical intelligence part of a larger project of developing an intelligent laboratory for image processing, where research and product development activities could be performed efficiently. The main contribution of this work is the specification and implementation of the inference engine generator module. This module is described in details and basic theoretical aspects about the components of the module are provided.
Full text: no
Atualizar
 
  


   1993



Um ambiente experimental para a engenharia de software
Sant'Anna, N.
INPE-5540-TDI/528
Pereira, José Antônio Gonçalves (presidente)
Nakanishi, Tatuo (orientador)
Monard, Maria Carolina
Melnikoff, Selma Shin Shimizu

1993-08-13
Os sistemas de software vem a cada dia sendo emp[regados em maiores proporcoes nos mais variados campos de conhecimento. A Engenharia de software seguindo, esta tendencia, se tornou uma area ampla com varios modelos, metodologias e ferramentas (chamadas de tecnologia de engenharia de software) emergentes a uma velocidade muito acentuada. Estas tecnicas continuaram a serem propostas e em virtude disso surge a necessidade de conhece-las melhor. O trabalho aqui proposto, apresenta um ambiente experimental para a engenharia de software (AEES) que atraves de experimentos controlados obtem dados sobre a utilizacao destas tecnicas. Os resultados obtidos da anlise destes dados irao melhorar o conhecimento e tornar mais facil a aplicacao das tecnicas de engenharia de software. A integracao do AEES a um ambiente de engenharia de software permite que os resultados experimentais obttidos possam ser repassados para ambientes reais de denvolvimento de software melhorando a qualidade e a produtividade nos sistemas gerados. ABSTRACT: Software systems are becoming increasingly useful in a great variety of knowledge areas. Software Engineering, followuing this trend, has become an area with a large quantity of emerging methodologies, models and tools ( Known by the general name of Software Engineering Techniques) covering the entire software life cicle. These techniques will keep being proposed and so it is necessary to know them all well. This paper presents an experimental environment ( Experimental Environment for Software Engineering - AEES) that has been developed in order to obtain data from controlled experiments which use Software Engineering Techniques. The results obtained through the analysis of these data will increase the knowledge about these tecniques and their use. Integrating AEES with a software development environment aloows for hte application of experimental results to projects, achieving higher levels of quality and productivity.
Full text: no
Atualizar
 
  


   1994



Um Modelo de Computação Evolutiva para uma Arquitetura Cliente-Servidor
Gatto, R. C.
INPE--TDI/
Lorena, Luiz Antonio Nogueira (presidente)
Bittencourt, Guilherme (orientador)
Monteiro, Antonio Miguel Vieira
Simoni, Paulo Ouvera
Silva Filho, Antonio Carlos Roque da

1994-03-28
Algoritmos Genéticos - um dos paradigmas de Computação Evolutiva - são algoritmos de busca e otimização cuja característica principal é, a partir de um conjunto inicial de pontos do espaço de busca de um problema a resolver, atingir outros pontos melhores e possivelmente ótimos como solução deste problema, através de um processo evolutivo análogo ao processo evolutivo natural dos seres vivos. Neste tipo de algoritmo identificamos certos aspectos que não necessitam ser alterados em função de sua aplicação a um ou a outro tipo de problema. Esses aspectos considerados básicos ou genéricos, podem assim ser encarados como serviços possíveis de serem prestados por uma máquina a outras de forma que várias aplicações desse tipo de algoritmo possam compartilhar desses recursos para desempenho de seus processos evolutivos, o que é uma característica da arquitetura Cliente-Servidor. O trabalho aqui apresentado trata do desenvolvimento e implementação, sobre uma arquitetura tipo Cliente-Servidor, de um modelo de Computação Evolutiva baseado em Algoritmos Genéticos. O presente trabalho mostra também como podemos explorar o modelo proposto para implementar o que se chama de Co-Evolução: algoritmos genéticos independentes que trocam informações entre si para o aprimoramento de um processo evolutivo global.
Full text: no
Atualizar
 
  

Novas heurísticas para o problema generalizado de atribuição
Narciso, M. G.
INPE--TDI/
Yanasse, Horácio Hideki (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Simoni, Paulo Ouvera
Carvalho, Solon Venâncio de
Batista Júnior, Edgard Dias

1994-02-28
Neste trabalho, tem-se a proposta de novas heuristicas para o problema generalizado de atribuição (Generalized Assignment Problem). Para atingir este objetivo, foram usadas as relaxações Lagrangeana e Surrogate e uma heuristica de Martello e Toth, combinadas com o método de otimização por subgradientes os resultados das heuristicas, para uma série de dados de entrada, são mostrados, bem como os resultados obtidos com as heuristicas de Martello e Toth e Klastorin, as quais são conhecidas na literatura para aproximar a solução do problema generalizado de atribuído. Foram obtidas com as heuristicas propostas soluções viáveis de boa qualidade, isto é, os valores obtidos se aproximam bastante da solução ótima de cada problema, conforme testes realizados com classes de problemas conhecidos na literatura. Além disso, as heuristicas propostas geram limites superiores próximos a solução ótima de cada problema. ABSTRACT: We propose in this work new heuristics f or generalized assignment problem. To achieve this objective, Lagrangian and Surrogate relaxation and Martello & Toth heuristic have been used, combined with a method of optimization by subgradients. For a serie of input data, the results of heuristics are showed and compared with Martello & Toth and Klastorin heuristics, best known in literature for aproximate the generalized assignment problem solution. Feasible solutions, which are near to optimal solutionsf have been gotten, according to tests performed with classes of problems of the literature. The heuristics also give upper bounds to the optimal solution of each problem. This study also presents. in appendix A, an heuristic that get results with average 0.5% of diference in relation to the optimal solution for each class of test problems of the literature.
Full text: no
Atualizar
 
  

Inferências heurística sobre direções de fluxo em redes de drenagem
Paiva, J. A. C.
INPE-5588-TDI/550
Lorena, Luiz Antônio Nogueira (presidente)
Dias, Luiz Alberto Vieira (orientador)
Monteiro, Antonio Miguel Vieira
Pinto, Sérgio dos Anjos Ferreira
Bittencourt, Guilherme

1994-03-08
Os seres humanos sao habeis para identificar as direcoes de fluxo em redes de drenagem. provenientes de representacoes como fotografia areas ou imagens de sensoriamento remoto.Aparentemente, a geometria bi-dimensional de uma rede e em muitos casos suficiente para se derivar as fontes e destinos de uma drenagem, a partir de um procedimento automatico que nao necessitaria de informacoes adicionais, como declividades e alturas do terreno. A formalizacao do problema de tal forma que o mesmo possa ser automaticamente solucionado, tem mostrado as dificuldades em se derivar automaticamente as direcoes de fluxo em umarede de drenagem. Para o processo de inferencia das direcoes de fluxo e importante se fazer uma analise mais detalhada dos elementos principais que compoem um rede de drenagem. Este trabalho de dissertacao faz um estudo detalhado dos componesntes de uma hidrografia atraves da formalizacao dos seus elementos principais pontos de cabeceira, embocaduras, juncoes, lagos, ilhas, baseados na estrutura matematica de grafos.É apresentado como certos processsos de inferencia podem ser representados em termos dos grafos, identificando possiveis simplificacoes na complexidade da rede de drenagem. Em adicao a formalizacao dos elementos da rede,esta dissertacao desenvolve um modelo computacional para se derivar automaticamente a embocadura de uma bacia hidrografica, e consequentemente as ordens dos rios. Este modelo computacional se baseia exclusivamente na conectividade dos canasis e nos angulos formados pelos canais em junções.HEURISTIC INFERENCE ABOUT FLOW DIRECTIONS IN RIVER NETWORKS ABSTRACT: Humans are very good in deriving flow directions of a river network from such representations as photographs or remotely sensed images. Apparently, the 2- dimensional geometry of the network is in most cases sufficient to derive its sources and destinations by reasoning about the flow directions of a river network, and they need no additional information about slopes or heights. Formalizing the problem such that it can be automatically solved, however, has proven to be an extremely difficult task. Within the realm of the inference process about flow directions in river networks, a particulary important problem is the analysis of relevant hydrological features. This thesis work describes the development of a study for river networks and formalizes the features in terms of a graph. It is shown how certain reasoning processes, simplifying the complexity of a river network, can be expressed as graph operations. Besides, a computational model to derive the destination of a river network is proposed. It is based on the connectivity of channels and the angles at which channels intersect at junctions.
Full text: no
Atualizar
 
  


   1995



Utilização da morfologia matemática na análise de imagens microscópicas
Camargo Neto, J.
INPE--TDI/
Sandri, Sandra Aparecida (presidente)
Banon, Gerald Jean Francis (orientador)
Dutra, Luciano Vieira
Pedroso Jr, Moacir

1995-04-20
Full text: no
Atualizar
 
  

Otimização de leiaute utilizando busca tabu
Furtado, J. C.
INPE-5670-TDI/562
Yanasse, Horácio Hideki (presidente)
Lorena, Luiz Antônio Nogueira (orientador)
Carvalho, Solon Venâncio de
Soma, Nei Yoshihiro

1995-02-23
A busca de melhores leiautes é um problema de otimizacao combinatoria que surge em uma grande variedade de contextos de planejamento espacial, como no leiaute de departamentos em uma industria. Como nao existe algoritmo de otimizacao conhecido que obtenha uma solucao otima global em tempo polinomial, usam-se metodos heuristicos. Estudamos o assunto aplicando a seguinte sequencia de passos para um dado problema: 1) Geramos uma solucao inicial atraves do procedimento de aglomeracao; 2) Geramos uma outra solucao inicial, recolocando as facilidades aleatoriamente; 3) Aplicamos a busca tabu as duas solucoes iniciais geradas; 4) Comparamos os resultados obtidos no passo 3. Este procedimento é aplicado a quatro casos: os de 12, 15, 20 e 30 facilidades. No espaco destinado a alocacao das facilidades ja existiam areas ocupadas e que nao podiam ser utilizadas pelas facilidades, o que aumentou consideravelmente a dificuldade de tratamento do problema. Comparando os leiautes iniciais produzidos no passo 1 com os produzidos no passo 2, concluimos que o procedimento de aglomeracao gerou leiautes iniciais de melhor qualidade. No passo 4, percebemos que a busca tabu, quando aplicada a solucao inicial produzida pelo passo 1, gera leiautes finais de qualidade ligeiramente superiores aos obtidos, quando este procedimento é aplicado a solucao inicial produzida pelo passo 2. Concluimos que independentemente da qualidade da solucao inicial, a busca tabu é uma heuristica eficiente no processo de busca. ABSTRACT: The search of better layouts is a combinatorial optimisation problem that arises in a wide variety of spacial planning contexts, in looking for a Layout of departments industry. Since no polinomial-time algorithm for attainning a global optimal solution is known some heuristics techniques are used. We study this subject, for a given problem, performing the following steps: 1) We generate an initial solution by using a clustering procedure; 2) We generate another initial solution, rearranging them randomly; 3) We apply the tabu search to the two initial solutions generated above; 4) We compare the results obtained in the step 3. The procedure is applied to four cases, namely, those with 12, 15, 20 and 30 facilities. In the space assigned to facilities there were occupied areas and the facilities cannot be used there, so we increased the difficulty of the problem. When we compared the initial layouts obtained in step 1 with the obtained in step 2, we conclued that step 1 obtained better layouts. From step 4, we conclued that the tabu search obtained sligthly better final layouts when applied to initial solutions generated in step 1 than those obtained starting from solutions generated in step 2. So we conclude that tabu search is an efficient search procedure independent of the quality of the initial solution..
Full text: no
Atualizar
 
  

Um modelo de interface para pesquisa e recuperação de informações em redes de computadores
Gonçalves, P. F.
INPE--TDI/
Sandri, Sandra Aparecida (presidente)
Simoni, Paulo Ouvera (orientador)
Oliveira, Carlos Alberto de
Oliveira, Pedro Paulo Baldi de
Lorena, Luiz Antonio Nogueira
Senne, Edson Luiz França

1995-03-29
O trabalho consiste em uma proposta de modelo de interface entre um usuário de computador e o conjunto de redes de computadores interconectados mundialmente. O modelo proposto utiliza técnicas de Inteligência Artificial e tem por objetivos principais auxiliar o usuário a efetuar pesquisa e recuperação de informações nas redes dispensando conhecimento sobre sua estrutura e seus mecanismos de acesso. O modelo se propõe a servir de interface comum entre o usuário e os diversos serviços de rede. Oferece ao usuário a possibilidade de acessar os serviços através da descrição das funções que deseja executar, em vez de fornecer os comandos próprios a cada serviço. Neste modo de atuação, cabe á interface a tarefa de selecionar os serviços mais adequados num certo instante e de encontrar o sequenciamento das ações necessárias. ABSTRACT: The present work consists of a proposed model of interface between a computer user the set of interconnected computer networks worldwide. The proposed model uses Artificial Intelligence techniques and has as main objectives to help users make information search and retrieval in the networks, without the user having knowledge about networks structures and access mechanisms. The model to be a common interface between a user and the various networks services. It offers users the possibility to access services by giving descriptions of the functions s/he wants to execute, rather than giving appropriate commands for each service. In this usage mode, it is left to the interface the task of selecting more adequate services in a given moment and of finding proper sequences of actions to accomplish the task.
Full text: no
Atualizar
 
  

Um método de ajuste de superfície para grades triangulares considerando linhas características
Namikawa, L. M.

INPE-6122-TDI/583
Travelho, Jerônimo dos Santos, (presidente)
Dias, Luiz Alberto Vieira, (orientador)
Pereira, José Antonio Gonçalves
Souza, Celso de Renna e

1995-12-06
A geração de modelos de terreno realísticos deve incorporar as linhas características porque estas linhas representam elementos morfológicos importantes da superfície. Os modelos de grade irregular triangular podem modelar as descontinuidades representadas pelas linhas características e tendem a ser mais precisos do que os modelos de grade retangular regular por eliminarem processos de interpolação intermediários. A superfície mais simples a ser ajustada em um retalho triangular é o plano que contém os três vértices do triângulo. Esta superfície fornece resultados que podem não ser satisfatórios quando utilizada para gerar resultados derivados como a declividade. Um resultado melhor pode ser obtido com o ajuste de uma superfície de 5o grau. Os métodos de ajuste para superfície existentes ignoram as linhas características. O objetivo desta dissertação é apresentar um método de geração de modelo de grade triangular e de ajuste de uma superfície de 5o grau que utiliza as informações das linhas de quebra. ABSTRACT: In order to produce realistic Digital Terrain Models (DTM), one needs to preserve the ridges and valley lines (the breaklines). The use of triangular grids allows us to model real surfaces with better accuracy, since there is no need for intermediate interpolations, as in the case with rectangular grids. However the visualization with triangular irregular networks (TIN) tends to conceal the breaklines, thus producing a non realistic representation. This work presents a method that uses breakline information and triangular surface fitting, allowing a realistic DTM generation with the advantages of TIN representation.
Full text: yes
Atualizar
 
  


   1996



Sistema computacional de detecção de queimadas com imagens AVHRR/NOAA
Fernandes, A. E.
INPE-6715-TDI/631
Dutra, Luciano Vieira (presidente)
Dias, Luiz Alberto Vieira, (orientador)
Velho, Haroldo Fraga de Campos
Barros, Maria Suelena Santiago

1996-02-28
Este trabalho apresenta uma proposta de desenvolvimento de um sistema computacional integrado, de deteccao operacional de queimadas, utilizando as imagens do sensor Advanced Very High Resolution Admistration AVHRR, recebidas diariamente pelo INPE. A revisao bibliografica abrange os conceitos basicos de sensoriamento remoto e algumas tecnicas de processamento digital de imagens que foram utilizadas no sistema proposto. Este sistema consiste na identificacao digital do ""pixel"" considerado como queimada, extracao de suas coordenadas geograficas e integracao ao Sistema de Informacoes Geograficas desenvolvido no Instituto Nacional de Pesquisas Espaciais (INPE). O sistema proposto e constituido das seguintes etapas: criacao do arquivo de parametros orbitais; ajuste do arquivo de parametros orbitais atraves de pontos de controle localizados manual ou automaticamente; processamento digital da imagem para a identificacao dos ""pixels"" considerados como queimadas com a obtencao de suas coordenadas geograficas; visualizacao grafica das localizacoes das queimadas em mapas previamente digitalizados; e a elaboracao de produtos finais para os usuarios. Este sistema foi desenvolvido para ambiente de microcomputador da linha IBM-PC e e totalmente compativel com os softwares SGI e SITIM desenvolvidos pela Divisao de Processamento de Imagens (DPI) do INPE. ABSTRACT: This work presents a proposal to develop an integrated computational system for operational detection of fire, using of the AVHRR (Advanced Very High Resolution Radiometer) on-board of the NOAA (National Oceanic and Atmospheric Admistration) series satellite& Bibliographic revision includes remote sensing basic concepts and some image digital processing techniques. The system includes the identification of fire considered pixels, extraction of their geographic coordinates and integration to INPEs Geographic Information System (GIS) developed at Brazilian Institute for Space Research (IINPE). The necessary steps are: creation of orbital parameters file, adjust of that file using control points, image digital processing to identify fires and obtention of its geographic coordinates, graphic visualization of fire points in maps and elaboration of final products. This system was developed for IBM-PC microcomputer environment and is full compatible with SGI and SITIM softwares, which were developed by INPE.
Full text: no
Atualizar
 
  

Aproximação de distribuições de probabilidade não-exponencial por distribuições do tipo fase
Miranda, M. N.
INPE--TDI/
Carvalho, Solon Venâncio de (orientador)
1996-11-1
A distribuição do tipo fase pode ser vista como uma representação do tempo até a absorção numa cadeia de Markov. Esta distribuição engloba as distribuições de Erlang e a distribuição hiperexponencial. Através do método dos estágios, ela permite a inserção de tempos aleatórios não exponencialmente distribuídos em modelos não Markovianos. O problema a ser tratado consiste em obter uma distribuição do tipo fase FPH que aproxime uma distribuição de probabilidades contínua e positiva F(t) dada. Em trabalho anterior [Bobbio & Telek, 1992a] trataram este problema. Nesta referência é gerada uma amostra a partir da distribuição a ser aproximada e, usando a amostra gerada, é realizada a estimação dos parâmetros da distribuição do tipo fase pelo método da máxima verossimilhança. Esta dissertação propõe-se a utilizar uma nova abordagem onde o problema de estimação dos parâmetros será formulado como um problema de minimização de uma função de distância estocástica diretamente proporcional a f(t) -fpH (Po, A, t)] onde f(t) e fpH (Po,A,t) são as funções densidade de probabilidade de F(t) e Fp respectivamente, Po e A são os parâmetros a serem determinados. ABSTRACT: The Phase distribution can be considered as a generalisation of the exponential distribution with negative parameter that incorporates the Erlang and the hyperexponential distributions. This distribution through the method of stages, allows the insertion of non-exponentially distributed random times in non Markovian Models. The problem to be treated is to find a Phase distribution (FFH) that best fits a given positive and continuous probability distribution function (F(t)). A previous work [Bobbie & Telek, 1992a] treated this problem using samples generated from the analytical expression of the distribution to be fitted. The parameters estimation of the Phase distribution is performed using the maximum likelihood method. This work suggest to estimate the parameters minimizing a probability distance function proportional to [-[f(t) - fph( Po, A, t)] where f(t) and fph( are the probability density functions of F(t) and Fph(t), respectively, and P and A are the parameters to be found.
Full text: no
Atualizar
 
  

Fatores de qualidade na fase de desenvolvimento em ambiente orientado a objetos: estabelecendo estilos para o projeto
Méllo, F. G. A.
INPE--TDI/
Oliveira, Carlos Alberto de (presidente)
Nakanishi, Tatuo (orientador)
Carvalho, Solon Venâncio de
Monard, Maria Carolina

1996-03-29
Este trabalho tem por objetivo encontrar as características subentendidas na filosofia da orientação a objetos, que podem ser usadas como regras ou diretivas para auxiliar projetistas c programadores a desenvolver programas de boa qualidade. Ser independente das metodologias existentes foi um pré requisito. Conforme o estudo foi se desenrolando, houve a necessidade de gastar um pouco mais de tempo analisando o mesmo, problema sob a perspectiva da filosofia de desenvolvimento estruturada. A conseqüência foi o surgimento de um conjunto básico de diretivas desta filosofia. Então, mais esforço teve que ser levado em consideração com o objetivo de demonstrar quais daquelas diretivas podiam ou não podiam ser usadas no Projeto Orientado a Objetos. Depois disto, a ação foi concentrada em.
Full text: no
Atualizar
 
  

Avaliação do interpolador Akima sobre modelos numéricos de elevação
Rangel, R. R.
INPE-6338-TDI/590
Pereira, José Antônio Gonçalves (presidente)
Dias, Luiz Alberto Vieira (orientador)
Campos, Velho Haroldo Fraga de
Chaves, Antônio Hugo Pereira

1996-02-14
Este trabalho apresenta uma comparação estatística entre diversos métodos de interpolação tridimensional aplicados a Modelos Numéricos de Elevação. Para o estudo, foi considerado como área teste um terreno real localizado nas coordenadas 410 25 N e 74° 59 W, perto de West Point e Hudson Valley, USA. Este terreno, representado por uma grade composta de 3lx3l pontos com 69,81 metros de espaçamento na direção E-W e 92,51 metros na direção N-S, foi subamostrado, gerando uma nova grade de 11x11 pontos com 209,43 metros de espaçamento na direção E-W e 277,53 metros na direção N-SA partir dos dados de altimetria da grade regular subamostrada, o terreno original foi reconstituído através das interpolações Linear, Lagrange, Bézier, B-Spline, j3-Spline e Akima. As superfícies de erro geradas foram analisadas estatisticamente e os resultados desta análise apresentados graficamente e através de tabelas. Desta maneira, foipossível determinar que, nas condições do presente estudo, a Interpolação Akima para ajuste de superfícies suaves baseado em procedimentos locais ( Akima, 1974) foi o método que apresentou melhor desempenho. ABSTRACT: This work presents a statistic comparison between several tridimensional interpolation methods applied to Digital Elevation Models. For the study, was considered as test area a real terrain localized at 41° 25 N and 74° 59 W, near West Point and Hudson Valley, USA. This terrain, represented by a 31x31 points grid with 229.04 ft E-W spacing and 303.51 ft N-S spacing, was subsampled, generating a new 11x11 points grid with 687.11 ft E-W spacing and 910.53 ft N-S spacing. From subsampled regular grid altimetry data, the original terrain was recreated through Linear, Lagrange, Bézier, B-Sp 3-Spline and Akima Interpolations. The obtained Error Surfaces was statistical analysed and the analysis results presented graphically and by tables. Thereafter, was possible to determine that, on actual study conditions, the Bivariate Interpolation and Smooth Surface Fitting Based on Local Procedures (Akima, 1974) was the method which demonstrated better performance.
Full text: no
Atualizar
 
  


   1997



União das metodologias mapas use case e coad&yourdon para modelagem de sistemas
Achite, L. M.
INPE--TDI/
Carvalho, Solon Venâncio de (presidente)
Nakanishi, Tatuo (orientador)
Monteiro, Antônio Miguel Vieira
Cunha, Adilson Marques da

1997-05-02
Atualmente existem diversas metodologias de modelagem de sistemas que seguem o paradigma da orientação a objetos, porém a grande maioria concentra-se em identificar objetos e seus relacionamentos, sem se preocupar em mostrar, em nível mais alto de representação, o funcionamento de um determinado sistema. Isto pode não ser um problema na modelagem de sistemas simples, porém o problema tende a aparecer quando se está desenvolvendo um sistema complexo e amplo. O objetivo deste trabalho de pesquisa é Investigar uma nova metodologia, cuja principal função seja modelar um sistema com elementos que possibilitem uma melhor visualização do seu funcionamento, propor a união dessa metodologia com uma metodologia orientada a objetos e por fim apresentar uma análise critica da aplicação prática desta união, a partir de um estudo de caso. ABSTRACT: At the present time, there is a variety of object oriented methodologies for modelli.
Full text: no
Atualizar
 
  

Simulação do volume de dispersão de poluentes de uma fonte pontual utilizando animação
Bortolotto, E.
INPE--TDI/
Travelho, Jerônimo dos Santos (presidente)
Dias, Luiz Alberto Vieira (orientador)
Campos Velho, Haroldo Fraga de
Zuffo, João Antonio

1997-02-28
Este trabalho tem como objetivo principal investigar as características necessárias para a modelagem, com simulação física, de um sistema de partículas submetido a ação de forças externas com o propósito de mostrar visualmente, através de animação, o volume de dispersão de poluentes de uma fonte pontual. São utilizados os princípios da dinâmica como método de controle de movimento em animação aplicada ao movimento das partículas. Na abstração do ambiente de simulação são consideradas a força de gravidade e ação do vento atuando no sistema. Finalmente o protótipo desenvolvido com a implementação do sistema apresenta os resultados da simulação em forma de quadros seqüenciais animados. Estes resultados mostram que o sistema atende os objetivos propostos simulando o seu comportamento satisfatoriamente. ABSTRACT: The aim of this work is to examine the features necessary to model with physical simulation a particle system submited to actions of external forces, in order to present its visibility, trough animation, of the volume of the disperse pollutants from a punctual source. The dynamic principles are used as a control method for the motion applyed on the motion animation particles. In the abstraction of the simulate enviroment, the gravity force and the wind action are considered to influence the system. Finally, the prototype is builded with the system implementation to show the results of simulation in sequential animate frames. These results show that the system attends the aim proposed, simulating its behaviour.
Full text: no
Atualizar
 
  

Uma abordagem morfológica para casamento de padrões
Faria, S. D.

INPE-6346-TDI/597
Sandri, Sandra Aparecida (presidente)
Banon, Gerald Jean Francis (orientador)
Dutra, Luciano Viera
Lotufo, Roberto de Alencar

1997-02-03
Nesta dissertacao e apresentada uma representacao morfologica para o casamento de padroes em imagens em niveis de cinza. Esta representacao e dada pela composicao do Operador de Casamento de Padroes com o Operador de Localizacao do Maximo Global, a qual pode ser expressa em termos das seguintes classes de operadores elementares da Morfologia Matematica: dilatacoes, erosoes e anti-dilatacoes. Com base nesta representacao e proposto um metodo para casamento de padroes em imagens em niveis de cinza, o qual e implementado no sistema Khoros. Alguns experimentos com este metodo utilizando imagens digitais (TM/Landsat e fotografias aereas) sao apresentados. ABSTRACT: In this work, a morphological representation for template matching in grayscale images is presented. This representation is obtained through the composition of the Pattern Matching Operator with the Operator for Global Maximum GrayLevel Location, which can be expressed in terms of the following classes of Mathematical Morphology elementary operators: dilations, erosions and antidilations. Based on this representation a method for matching in grayscale images is proposed and implemented on the Khoros system. Finally, some experiments using this method are presented for digital images (TM/Landsat and aerial photography).
Full text: yes
Atualizar
 
  

O Método de campo de fase aplicado a problemas de solidificação
Fazenda, Á. L.
INPE--TDI/
Travelho, Jerônimo dos Santos (presidente)
Fabbri, Maurício (orientador)
Ramos, Fernando Manuel
Raupp, Marco Antonio

1997-02-21
Este trabalho apresenta um resumo dos métodos usados para resolução de problemas de solidificação e mostra algumas simulações utilizando o Método de Campo de Fase. Este método mostrou-se adequado principalmente quando se considera a possibilidade de solidificação em regimes termodinâmicos metaestáveis, particularmente, a partir de liquidos super-resfriados. ABSTRACT: This work presents the main ideas of the methods usually utilized to solve solidification problems and shows some simulations obtained by using the Phase Field Method. This method have demonstrated the ability to solve problems in metastable thermodynamic mode, in special case when the liquid is undercooled.
Full text: no
Atualizar
 
  

Componente Gerenciador de Dados Configurável
Ferreira, M. G. V.
INPE--TDI/
Nakanishi, Tatuo (presidente)
Carvalho, Solon Venâncio de (orientador)
Pereira, José Antonio Gonçalves
Melnikoff, Selma Shin Shimizu

1996-11-22
A enorme ênfase em produtividade nesta década tem levado a indústria de software a propor mecanismos que acelerem o desenvolvimento de sistemas de software principalmente utilizando a reutilização. Desta forma a proposição de um Componente Gerenciador de Dados (CGD) Configurável tem por objetivo a sua reutilização por várias aplicações evitando-se que as mesmas precisem conter códigos para acessar a base de dados. O detalhe importante é que o CGD pode ser configurado para ser utilizado por várias aplicações, O CGD é portanto uma camada de software que fica entre a aplicação e o banco de dados, facilitando os trabalhos dos desenvolvedores de software nas metodologias orientadas a objeto. O CGD recebe as solicitações do aplicativo para armazenar ou recuperar objetos, e ele realiza esta tarefa, seja interfaceando com um banco de dados relacional ou com um sistema de arquivos. ABSTRACT: The great emphasis on the productivity during this decade led the software development industry to adapt processes which speed up the software system development, mainly, by means of software reutilization. Therefore, the proposed Configurable Data Manegemet Component (CGO) aims at its reutilization by several applicatives avoiding the need for them to have a special code to access the databases. An important feature is that CGD can be configured in much a way as to be used by various applicatives. CGD is therefore, software Iayer between the applicative and the database, making the object oriented software development process easier. CGD receives requests from an applicative to store or retrive the objects. It performs this task both ways interfacing a relational database or an archiving system.
Full text: no
Atualizar
 
  

Um modelo simbólico-conexionista para interpretacao de cenas
Ferreira, S.
INPE-6842-TDI/649
Sandri, Sandra Aparecida, (presidente/orientadora)
Banon, Gerald Jean Francis
Simoni, Paulo Ouvera
Carvalho Filho, Edson Costa de Barros

1997-11-19
Neste trabalho, e proposto um modelo hibrido para a interpretacao de cenas. Os objetos em uma cena sao identificados e classificados e em seguida, as relacoes entre eles sao interpretadas utilizando suas coordenadas e conhecimento sobre o tipo de cena. No modelo hibrido proposto, duas redes neurais sao utilizadas em sequencia para efetuar a classificacao dos objetos na cena. A primeira rede, do tipo Kohonen, e utilizada para recuperar padroes imperfeitos. A segunda rede, do tipo Backpropagation, associa um codigo de classificacao a cada objeto advindo da rede de Kohonen. Apos a classificacao dos objetos, um sistema especialista baseado em quadros (compilado) identifica a estrutura da cena atraves do uso de regras para encontrar as relacoes entre os objetos classificados. Um prototipo para o reconhecimento de equacoes matematicas, e tambem apresentado, onde detalhes de implementacao do modelo proposto, podem ser observados. Para mostrar a generalidade do modelo proposto, apresenta-se tambem um prototipo para o reconhecimento de formulas quimicas, que foi obtido a partir do outro prototipo, com a substituicao da base de conhecimento do sistema especialista. ABSTRACT: In this work, a hybrid model for scene interpretation is proposed. The objects in a scene are first of all identified and classified, and then the relationships existing among these objects are interpreted using the objects coordinates and knowldege about the scene. In the proposed hybrid model, two neural networks are used in sequence in order to classify the objects. The first one, a Kohonen network, is used to restore imperfect patterns. The second one, a Backpropagation network, associates a classification code to each object issued by the Kohonen network. After all the objects are classified, a (compiled) expert system identifies the scene structure, using rules of thumb to interpret the relationships existing among the classified objects. A prototype for the recognition of mathematical equations is also presented, from which details about the model implementation can be observed. in order to highlight the model generality, a prototype for the recognition of chemical equations is also proposed. This prototype was obtained from the mathematical equations one, by the substitution of the expert system knowledge base.
Full text: no
Atualizar
 
  

Proposta de um esquema de controle de elementos de software para a abordagem orientada a objetos
Itami, S. N.
INPE-6394-TDI/610
Carvalho, Solon Venancio de (presidente)
Nakanishi, Tatuo (orientador)
Monteiro, Antonio Miguel Vieira
Monard, Maria Carolina

1997-04-07
Um dos problemas mais desafiadores no campo da Engenharia de Software e o de gerenciar e controlar as alteracoes de todos os elementos de software gerados e mantidos durante o ciclo de vida do software. Este e o objetivo do Gerenciamento de Configuracao de Software - GCS. O progresso da tecnologia de GCS permitiu a ampliacao da sua funcionalidade, tornando o GCS nao somente um elemento de gerenciamento mas tambem um elemento de suporte aos trabalhos dos desenvolvedores. Procurando buscar solucoes para a abordagem orientada a objeto, com relacao as atividades do GCS, este trabalho propoe um Esquema de Controle de Elementos de Software cuja finalidade e gerenciar e controlar as alteracoes dos elementos de software, entre os quais as classes de objetos, gerados e mantidos durante o desenvolvimento de software orientado a objeto. ABSTRACT: One of the challenging problems in the field of Software Engineering is the management and the control of the changes of all software elements generated and maintained during the softwares life cycle. Solving this problem is the goal of Software Configuration Management (SCM). The progress of SCMs technology allowed the enlargement of its functionality, making it a managing element tool as well as a developers task supporting one. Researching solutions for SCMs activities related to the object-oriented approach, this work proposes a Software Elements Control Scheme which has the capability of managing and controlling the changes of software elements, including classes of objects, generated and maintained during object-oriented software develop.
Full text: no
Atualizar
 
  

A realidade virtual em aplicações científicas
Machado, L. S.
INPE-6389-TDI/605
Dias, Haroldo Fraga de Campos Velho (presidente)
(presidente), Luiz Alberto Vieira (orientador)
Pereira, Jose Antonio Goncalves
Zuffo, Joao Antonio
Nogueira, Elcio

1997-04-04
Com o desenvolvimento tecnologico, a Realidade Virtual tornou-se mais viavel e barata, podendo ser construida e explorada atraves de um simples computador pessoal (PC). No entanto, o uso de um computador pessoal nao significa necessariamente uma experiencia de RV totalmente desprovida de interacao e/ou recursos de estereoscopia para sua visualizacao. Este trabalho utiliza um computador pessoal e o software REND386 para a criacao de um mundo virtual, onde e possivel observar o satelite CBERS em atuacao no espaco, permitindo verificar a viabilidade e vantagens da Realidade Virtual quando utilizada em aplicacoes cientificas. Conceitos referentes a Realidade Virtual, Computacao Grafica e Estereoscopia, dentre outros necessarios para o desenvolvimento do trabalho, sao tratados aqui. ABSTRACT: The progress of tecnology turned possible, and economically viable Virtual Reality (VR) with personal computer (PC). The use of PC's does not mean a VR without interaction and/or stereoscopy for its visualization. This work uses a PC and the REND 386 software for the creation of a virtual word, where it is possible to observe the CIBERS satellite in space. This permits to acess the advantages of VR when used in scientific applications. Are presented concepts, concerning to Virtual Reality, Copumter Graphics, and Stereoscopy, among others, that are necessary for the study performed.
Full text: no
Atualizar
 
  

Controlador nebuloso para aproximação de aeronaves
Mussi, C.
INPE--TDI/
Rios Neto, Atair (presidente)
Sandri, Sandra Aparecida (orientadora)
Lopes, Roberto Vieira da Fonseca
Madeira, Fernando

1997-02-27
O controle automático de aeronaves, nos dias atuais, é baseado em controle Convencional, com equações de movimento de alta complexidade. No controle automático de aproximação para pouso de uma aeronave, todos os comandos aplicados derivam de cálculos efetuados a partir de dados fornecidos por sensores do ILS (Instrument Landing System), através de seus equipamentos de bordo ou de solo. O ILS, através do seu equipamento no solo, fornece ao equipamento de bordo a trajetória que deve ser percorrida pela aeronave até a pista de pouso, tanto em relação ao desvio lateral (eixo da pista) como, longitudinal (rampa de aproximação). Neste trabalho é proposto um controlador nebuloso que utilizando o conhecimento de especialistas, fornece ao piloto, humano ou automático, as correções a serem efetuadas na atitude da aeronave, para que esta mantenha a rampa de aproximação e possa ser levada de uma altura inicial, de aproximadamente 2.500 pés (825 metros) até uma altura de decisão, de cerca de 100 pds (30 metros). A lógica nebulosa foi utilizada neste trabalho, porque ela permite reproduzir a habilidade do piloto (através de um sistema especialista), permite uma rápida prototipagem e assegura que as transições no comando sejam graduais, levando a maior segurança e conforto para o piloto e passageiros. O método utilizado no controlador foi o de Mamdani com uma base de 7 regras. Ele foi implementado no Matlab, com a ferramenta Fuzzy Logic Toolbox, e testado no simulador Jeppesen FS200 para diversas situações diferentes. ABSTRACT: Typically, the automatic control of aircraft is based on conventional control, with equations of high complexity. In conventional control, all the commands applied to an aircraft derive from calculations made from data which are provided by either an onboard or a ground based equipment. As an aircraft approaches an airport to land, the ILS (Instrument Landing System), by means of its ground equipment, provides the airborne equipment with information regarding the path to be flown by the aircraft towards the runway, in terms of both lateral deviation (runway axis) and longitudinal deviation (glide path). In this work we proposed a fuzzy controller that, with the knowledge of a specialist, gives the pilot, either human or automatic, the convenient corrections concerning the aircraft's attitude, in order to guide it from an initial altitude around 2.500 feet (825 meters) to a decision altitude of 100 feet (30 meters), where the pilot is supposed to have the runway in sight and complete the approach and landing by his own means. Fuzzy logic has been employed in this work because it allows the reproduction of a pilot's ability (through na expert system), because it allows a short duratioin on the prototyping phase and because in ensures gradual changes in the comand, what yields more safety and confort to the pilot and passengers. The controller uses Mamdani method with a rule base of 7 rules and implemented using the Fuzzy Logic Toolbox availlable in Matlab, and has been tested in the Jeppesen FS-200 simulator for several different situations.
Full text: no
Atualizar
 
  

Geração de Malhas Triangulares Não-Estruturadas
Negrão, J. J. P.
INPE--TDI/
Velho, Haroldo Fraga de Campos (presidente)
Travelho, Jenonimo dos Santos (orientador)
Lorena, Luiz Antonio Nogueira
Azevedo, João Luiz Filgueiras de

1997-03-10
Nesta dissertação é apresentado um método de geração de malhas triangulares não-estruturados, especificamente um método tipo avanço da frente modificado. Este técnica possui três estágios: inicialmente é gerada uma malha, que em seguida é suavizada, e depois pode ser refinada e desrefinada. O método apresentado foi desenvolvido voltado para aplicações em problemas STIFFe métodos Multigrid. ABSTRACT: This dissertation presents a unstructured triangular grid generation method. The method is a modified advanced front kind. This technique consists of three stages: initially, triangular grid is generated, after this step the grid is smoothed, and finally it can be refined or unrefined. This method was developed for the use of numerical methods applied to STIFF problems and Multigrid methods.
Full text: no
Atualizar
 
  

Uma heurística construtiva aplicada á coloração de grafos
Ribeiro Filho, G.
INPE--TDI/
Carvalho, Solon Venâncio de (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Oliveira, Pedro Paulo Baldi de
Senne, Edson Luiz França

1997-02-21
Apresenta-se nesta dissertação a aplicação de uma nova heurística construtiva ao problema de coloração de grafos. A heurística basicamente gera, combina e seleciona soluções aproximadas de coloração de subgrafos do grafo do problema original, de modo que se construa ou se aproxime ao máximo de uma coloração para o grafo original completo. São apresentados testes com instâncias de vários tamanhos e cuja coloração é conhecida. Os testes feitos em microcomputador mostram resultados promissores. ABSTRACT: A new generic algorithm, already applied to other combinatorial optimization problems, is adapted and applied to the graph coloring problem. As the generic algorithms, a dynamic list of individuals is maintained. each element of the list holds an approximate coloring for a subgraph of the original graph and, repeatedly, two individuals are selected and combined to produce another approximated coloring for another subgraph, often with more, trying to construct a solution to the original graph with the fewest possible conflicts. At each iteration, elements are removed from the list, according to composed evaluation criteria. The heuristic parameters are studied and experimented. For some test instances, using only microcomputers and reasonable time, very interesting results are presented. The same general heuristic is adaptedto another approach, reduce the problem size by finding and removing independent sets inside the original graph.
Full text: no
Atualizar
 
  

Interação configurável
Souza, G. J.
INPE--TDI/
Carvalho, Solon Venâncio de (presidente)
Nakanishi, Tatuo (orientador)
Oliveira, Carlos Alberto de
Torres, Germano Lambert

1997-02-26
Devido a crescente demanda por software, cresce também a preocupação dos desenvolvedores em produzir aplicativos com interfaces mais amigáveis, e de forma mais rápida possível. No presente trabalho, é proposto um modelo de uma Interface Configurável (IC) que tem como objetivo permitir a sua utilização por várias aplicações e que possa ser adaptada ao perfil do usuário. Desta maneira, a IC poderá ser: modificada em seu aspecto (aparência e funcionalidade) para adaptar-se ao usuário; e reutilizada, através da alteração de seus parâmetros, de modo que possa ser aproveitada por uma nova aplicação. ABSTRACT: Due to the rising demand for software, the developers are more and more concerned with producing applications with user friendly interfaces and quick development. This work proposes a Configurable Interface (CI) model with the aim of allowing its utilization by several applications and adaptable to the user needs. In this way, the CI can be modified in its aspect (appearence and functionality) to adapt itself to the user; and reused through its parameters change, such that it can be used by a new application.
Full text: no
Atualizar
 
  


   1998



Uma Aplicação do Algoritmo Genético Construtivo ao Problema de "BIN-PACKING" Unidimensional
Aquino, H. O. Q.
INPE--TDI/
Carvalho, Solon Venâncio de (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Oliveira, Pedro Paulo Baldi de
Furtado, João Carlos

1998-06-19
Esta dissertação de mestrado tem como objetivo aplicar um método heurístico denominado Algoritmo Genético Construtivo (AGC), ao Problema de Bin Packing Unidimensional (PBP). Verificamos que através da heurística podemos gerar, combinar e selecionar uma população de esquemas (blocos construtivos) do problema, de modo que se consiga construir uma solução ótima ou, ao menos, se aproximar do menor número de caixas (bins) para distribuir e empacotar cada unidade de vários itens dados. O processo parte de uma população inicial de esquemas, através da distribuição aleatória de itens em uma certa quantidade de caixas estimada a partir de um número mínimo, conhecido como número teórico, previamente calculado. O número de caixas estimado deve, portanto, ser maior que o número teórico e posteriormente diminuído. A heurística apresenta junto aos esquemas, propriedades do problema em estudo, o que permite se fazer avaliações, determinando o quão promissor é cada um. Os esquemas são então avaliados diretamente através de funções apropriadas, sendo que os melhores são incentivados a se recombinar com outros para gerar novos esquemas ou estruturas completas. As estruturas que não conseguem obter boa avaliação são eliminadas da população, conforme a determinação de um critério de poda. Ao final do processo, estruturas de qualidade superior são obtidas. Neste trabalho, as aplicações são realizadas utilizando-se instâncias do PBP de diferentes tipos e tamanhos. Aplicamos também o AGC sobre instâncias de um Problema de (Scheduling). Os resultados são mostrados e comparados com os de outras heurísticas ("First-Fit Decreasing" - FFD e "Longest-Processing Time" - LPT ). Por fim, as conclusões, acompanhadas de algumas sugestões são apresentadas. ABSTRACT: This dissertation has as objective to apply a method heuristic denominated Constructive Genetic Algorithm (AGC), to Unidimensional Bin-Packing Problem ( BPP ). We verified that through the heuristic we can generate, to combine and to select a population of schemas (building blocks) of the problem, so that it gets to build a optimal solution or, at least, to approach of the smallest number of bins to distribute and to pack each one of several items data. The process part of an initial population of schemas through the aleatory distribution of items in a certain amount of bins starting from a minimum number, well-known as theoretical number, previously calculated. The heuristic presents the schemas that carries information about properties of the problem in study, what allows to do evaluations, determining the as promising it is each one. The schemas are then directly appraised through appropriate functions, and the best are stimulated to recombine with others to generate new schemas or complete structures. The structures that dont get to obtain good evaluation are eliminated of the population, according to the determination of a pruning approach. At the end of the process, structures of superior quality are obtained. In this work, the applications are accomplished being used instances of BPP of different types and sizes. We also applied AGC 011 instances of a Problem of Scheduling. Results are shown for instances from the literature using a microcomputer implementation and significant conclusions are described.
Full text: no
Atualizar
 
  

Estudo numérico do escoamento interno dos bocais de queimadores com leito poroso
Enari, E. H.
INPE--TDI/
Stephany, Stephan (presidente)
Travelho, Jerônimo dos Santos (orientador)
Ferrari, Carlos Alberto
Bizzo, Waldir Antonio

1998-03-11
O presente trabalho consiste no estudo numérico do escoamento de dois queimadores, um para chamas pré-misturadas c outro de chamas difusivas. Estes queimadores tem uma região com esferas de vidro para simular um meio poroso com a função de uniformizar o fluxo. São mostrados os resultados obtidos a partir de urna modelagem bidimensional com malha não uniforme, considerando regime estacionário axissimétrico. A modelagem do escoamento em meios porosos recebeu uma atenção especial, principalmente em relação aos efeitos do contorno no escoamento. Na região próxima à parede - cerca de dois diâmetros da esfera, a porosidade foi considerada variável. O objetivo do presente trabalho é verificar se os perfis de velocidade na saída dos bocais dos queimadores são uniformes ou não. ABSTRACT: The current workpresents the numerical modeling of burners with an internal region filled with glasses' spheres, for simulate a porous media . A pre-mixed and a diffusive flame burner are studied with and without a multiple-perfured outlet plate, which is modeled as a porous layer. A finite volume method with non-uniform mesh is used and modeling included variable porositv close to the burner walls (chanelling effect). Effects of pressure gradient and porosity in the velocity profile are shown and the results elucidate that the outlet plate lead to uniforme velocity profiles, as it is experimentally known.
Full text: no
Atualizar
 
  

Simulação de filas Gi/G/m e verificação de aproximações destas por filas Ph/Ph/m
Ferreira, J. O.

INPE-7011-TDI/659
Yahasse, Horácio Hideki, (presidente)
Carvalho, Solon Venâncio de, (orientador)
Salles, Maria Creusa Bretas
Rodrigues, Rita de Cássia Meneses

1998-08-13
A avaliação de desempenho de um sistema de fila GI/G/m é um clássico problema difícil. Estes sistemas de filas com múltiplos servidores são notoriamente difíceis de serem analisados analiticamente, sendo que uma solução analítica exata somente é possível para casos especiais, tais como as filas M/M/m, M/D/m, M/K2 /m, GI/H2/m, GI/EK/m, GI/Ph/m, Ph/D/m e Ph/Ph/m. Os modelos de simulação por computadores, apesar de exigirem muitos recursos de hardware (memória de trabalho e de armazenagem de massa, velocidade de processamento da CPU) e de consumirem muito tempo na execução das rodadas da simulação, permitem considerações mais próximas das situações reais. Os modelos de simulação podem ser bastante úteis na checagem de suposições necessárias num modelo analítico e na checagem dos resultados do modelo analítico. Este trabalho trata da estimação de medidas de desempenho, em equilíbrio, de filas GI/G/m através de simulação. Também é tratada a verificação de aproximações de filas GI/G/m por filas Ph/Ph/m. ABSTRACT: The performance evaluation of a GI/G/m queueing system is a classic hard problem. These multi-server queues are notoriously difficult to be evaluated analytically and, a analytic solutions is possible only for special cases, just as the queues M/M/m, M/D/m, M/K2 /m, GI/H2/m, GI/EK/m, GI/Ph/m, Ph/D/m e Ph/Ph/m. The computer simulation models, despite of requiring many hardware resources (work memory, storage memory, processing speed of the CPU) and consuming large amount of computer times in the execution of the simulation runs, allow the evaluation of more realistic models. The computer simulation models can be convenient enough to check the validity of assumptions needed in an analytic model and to check the results of the analytic model. This study deals with the estimation of steady-state (long-run) measures of performance for GI/G/m queueing systems through simulation models. It also checks the GI/G/m queues approximations by Ph/Ph/m queues.
Full text: yes
 
  

Síntese de textura utilizando modelos estatísticos espaciais
Filgueiras, E. Q.

INPE-7499-TDI/714
Monteiro, Antonio Miguel Vieira (presidente)
Dutra, Luciano Vieira (orientador)
Freitas, Corina da Costa
Pereira, Jose Antonio Goncalves
Mascarenhas, Nelson Delfino d'Avila

1998-07-13
0 escopo deste trabalho concentra-se no uso de metodos capazes de geracao de texturas sinteticas de aparencia natural, a partir da reproducao de padroes fonte previamente selecionados. Modelos estatisticos espaciais sao a base para os metodos utilizados, especificamente a modelagem baseada em processos autorregressivos e de media movel para a estimacao de parametros e geracao de padroes de textura. Dois metodos sao utilizados para a estimacao de parametros, ambos baseados em processos autorregressivos. 0 primeiro metodo e baseado na utilizacao da funcao de autocorrelacao linear e na concatenacao de linhas e colunas da textura analizada. 0 segundo metodo utiliza a funcao de autocorrelacao bidimensional concatenada, sendo capaz de evitar a acumulacao de erros ocasionada por correlacoes indesejadas geradas pelo processo de concatenacao de linhas e colunas, ao ser utilizada a autocorrelacao linear. 0 procedimento de sintese e baseado na geracao de um campo ruido branco bidimesional de media zero e mesma variancia dos residuos obtidos a partir do processo de modelagem, que e o ruido branco motor de um processo autorregressivo bidimensional, o qual resultara na textura sintetica. Para imagens de radar de abertura sintetica, foi utilizada uma tecnica de pre-processamento submetendo as amostras das imagens a transformacao pela curva raiz cubica, como uma forma de obtencao de distribuicao aproximadamente gaussiana. Imagens obtidas por sensores oticos dos satelites Landsat-5 e JERS-1 tambem sao submetidas aos metodos, bem como texturas naturais tais quais marmore e granito. Um programa computacional grafico multiplataforma utilizando linguagem IDL foi desenvolvido, contendo todas as funcionalidades necessarias para a modelagem autorregressiva e a sintese de texturas. ABSTRACT: The scope of this work is the use of methods capable of generating natural looking synthetic textures reproducing previously selected source patterns. Spatial statistic models are the basis for the used methods, specifically autoregressive moving average modeling for parameter estimation and texture pattern generation. Two methods are used for parameter estimation; both are based on autoregressive processes. The first method is based on using the linear autocorrelation function and on concatenating rows and columns of the analyzed texture. The second method uses a concatenated two dimensional autocorrelation function, and is able to avoid cumulative errors caused by undesired correlations generated by the row and column concatenation process using linear autocorrelation. The synthesis procedure is based on generating a zero mean two dimensional random white noise field which has the same variance as the residuals obtained from the modeling process. This white noise is the driver for a twodimensional autoregressive process, which results in a synthetic texture. For synthetic aperture radar images, a pre-processing technique using cubic root transformation on the image samples is used, as a way to obtain a near-Gaussian distribution. Images obtained by Landsat-5 and JERS-1 optical sensors are also tested, and so do natural textures such as marmour and granite. A graphic multiplatform computer-based program was developed using IDL language, containing all necessary functionalities for autoregressive modeling and texture synthesis.
Full text: yes
Atualizar
 
  

Desenvolvimento de um Algoritmo Exato para a Solução de um Problema de Sequenciamento de Padrões de Corte
Limeira, M. S.
INPE--TDI/
Yanasse, Horácio Hideki (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Carvalho, Solon Venâncio de
Arenales, Marcos Nereu

1998-02-18
Considere uma situação de corte de madeira onde diferentes itens têm de ser cortados de grandes chapas. Cada tamanho de item cortado é colocado em uma pilha que permanece aberta até que o último item daquele tamanho seja cortado, O problema de minimização de pilhas abertas é determinar um sequenciamento dos padrões de corte que minimiza o número máximo de pilhas abertas. Neste trabalho desenvolveu-se um novo algoritmo exato para a solução deste problema de sequenciamento de padrões de corte. O método proposto foi implementado em C++ em um microcomputador tipo PC. Testes computacionais foram realizados comparando este novo algoritmo com um outro anteriormente proposto na literatura. ABSTRACT: Consider a wood cutting setting where different panels have to be cut from large boards. Each cut panel size is put into a stack which remains opened until the last panel of that size is cut. The minimization of open stack problem is to determine a sequence of the cutting patterns that minimizes the maximum number of open stacks. In this work was developed a new exact algorithm for solving this problem of sequencing cutting patterns. The method proposed was implemented in C++ in a kind PC microcomputer. Computational tests were performed comparing this new algorithm with another one previously proposed in the literature.
Full text: no
Atualizar
 
  

Projeto de interfaces para álgebra de mapas em geoprocessamento no ambiente SPRING
Lucena, I. S.

INPE-9307-TDI/820
Monteiro, Antônio Miguel Vieira (presidente)
Câmara, Gilberto (orientador)
Nascimento, Mário Antonio (co-orientador)
Gattass, Marcelo

1998-09-14
Os Sistemas de Informação Geográfica (SIG)oferecem procedimentos de manipulação de mapas para que o usuário possa expressar modelos de análise espacial. Estes procedimentos, denominados Álgebra de Mapas, usualmente são expressos em linguagens, que permitem ordenar seqüências de transformações do dados geográficos para gerar novos mapas a partir dos mapas existentes. O Sistema de Processamento de Informações Georeferenciadas (SPRING), desenvolvido pelo Instituto Nacional de Pesquisas Espaciais (INPE), possui uma linguagem para Álgebra de Mapas denominada: Linguagem Espacial para Geoprocessamento Algébrico (LEGAL). Apesar do grande poder expressivo de uma linguagens como LEGAL, seu uso requer noções de fundamentos de programação, competência nem sempre disponível entre os especialistas em Geoprocessamento. Como alternativa ao uso de LEGAL, este trabalho desenvolve uma interface amigável para Álgebra de Mapas no ambiente SPRING, denominada Álgebra de Mapas por Objetos (AMO), que permite a geração de programas em LEGAL através de diagramas de fluxo. O processo de definição dos requisitos para o desenvolvimento de AMO inclui uma revisão dos conceitos de Geoprocessamento, modelagem de dados geográficos, análise espacial, álgebra de mapas em LEGAL e a revisão de interfaces para álgebra de mapas existentes no mercado ou propostas na literatura. A interface AMO representa uma contribuição para o uso da tecnologia SPRING em projetos ambientais e de agropecuária, por fornecer a uma vasta gama de usuários uma ferramenta de fácil utilização para expressar problemas complexos de análise espacial. Adicionalmente, o projeto da interface AMO foi concebido com base em noções gerais de Geoprocessamento, podendo deste modo ser estendido para outros SIG. ABSTRACT: Most implementations of Geographical Information Systems (GIS)include procedures, which allow the user to express complex spatial analysis models. These procedures are refereed to as Map Algebra, and are usually expressed by a language, which provides operations that generate new maps from an existing ones. The GIS system developed by National Institute of Space Research (INPE), includes the a spatial algebra language, whose use requires notions of programming languages. Such knowledge is not always available in the GIS user community. As an alternative to direct programming using this programming language, we have developed a friendly user interface for expressing Map Algebra programs, called (AMO)that means Map Algebra with Objects. AMO uses the flow diagram paradigm, which is a natural way of expressing spatial analysis problems, and enables the automatic generation of Map Algebra programs. In order to develop AMO, we have analyzed different alternatives for Map Algebra interfaces, including programming languages, forms and flow diagrams. AMO is an improvement of INPEïs GIS technology, as it allows non-expert users a straightforward way of expressing complex spatial analysis problem. Finally, the AMO design has been based on general principles of GIS, and the interface can be extended for use with other systems.
Full text: yes
Atualizar
 
  

Computação gráfica em HTML: potencial da ferramenta com implementações
Macedo, L. F.

INPE-7300-TDI/712
Ning, Carlos Ho Shih (presidente)
Dias, Luiz Alberto Vieira (orientador)
Mendes, Celso Luiz
Chaves, Antonio Hugo

1998-08-28
Com a crescente popularizacao e aumento de desempenho dos computadores pessoais, a Computacao Grafica ganhou novo alento. A Computacao Grafica, fortemente impulsionada pela industria de entretenimento, e provavelmente um dos ramos da computacao que tem evoluido mais rapidamente nos ultimos anos. Este rapido desenvolvimento tem gerado novos desafios aos alunos e professores da area por exigir um grande esforco de aprendizado e atualizacao. Este trabalho pretende mostrar que o aprendizado de Computacao Grafica pode se dito de maneira interativa, por meio do computador. Para tal, em vez da abordagem tradicional de livros, mostrar-se-a que textos escritos em HTML e com hyperlinks (ligacoes automaticas entre paginas, bastando clicar com o mouse em cima das palavras sublinhadas) podem ser mais eficientes. Para mostrar a viabilidade desta nova abordagem, foram escolhidas algumas areas da Computacao Grafica que, embora nao sejam as mais basicas, sao de dificil aprendizagem em funcao da dificuldade destes topicos econtrarem-se concentrados na literatura ou pela complexidade dos conceitos. Tal e o caso da interpolacao, onde nao basta apenas saber utilizar um interpolador, mas e preciso analisar-se o contexto para selecionar o interpolador mais adequado a cada caso. Outro tema vasto e que ha alguns anos era tratado de forma independente da Computacao Grafica e o Processamento de Imagens. Neste trabalho apenas alguns topicos da vasta area de Processamento de Imagens serao mostrados. Finalmente outro topico que requer analise e reflexao e a Manipulacao de Objetos Tridimensionais. Neste caso tambem, apenas uma pequena secao do assunto sera mostrada. Em principio seria possivel apresentar um grande numero de exemplos e implementacoes, como ate chegou-se a cogitar no inicio dos trabalhos, porem, devido ao alto custo em tempo para desenvolver as implementacoes, que foram implementadas pelo autor especialmente para este trabalho, optou-se por apresentar apenas um pequeno numero de aplicativos. Esta opcao foi sugerida pelo Comite que avaliou a Proposta de Dissertacao, onde a banca examinadora optou por limitar o escopo do trabalho aos topicos efetivamente apresentados, visto se tratar de uma Dissertacao de Mestrado e nao de um projeto de software comercial. Espera-se que o texto seja usado por professores e alunos com algum conhecimento de Computacao Grafica, de preferencia em C++ e/ou JAVA, como leitura complementar ou de referencia. ABSTRACT: With the growing popularization and increase of performance of personal computers, the Graphic Computation won new encouragement. Strongly impelled by the industry of entertainment, it is probably one of the branches of the computation that has been developing faster in the last years. This fast development has been generating new challenges to the students and teachers in the area for it demands a great effort in learning and updating. This work intends to show that the learning of Graphic Computation can be done in an interactive way, by means of the computer itself For such, instead of the traditional study books, it will be shown that texts written in HTML and with hyperlinks (automatic connections among pages, sending the reader from underlined words to related subjects with a mouse click) can be more efficient. To show the viability of this new approach, there were chosen some areas of the Graphic Computation that, although not among the most basic ones, are of difficult learning because they are hardly found concentrated in the literature or have complex concepts. That is the case of interpolation, where knowing how to use an interpolador is not enough, once you need to analyze the context to select the most appropriate interpolador for each case. Another vast theme that some years ago was even independent from Graphic Computation is Image Processing. In this work only a few topics from the vast area of Image Processing will be shown. Finally other topic that requests analysis and reflection is Three-dimensional Objects Manipulation. In this case also, just a small section of the subject will be shown. It would have been interesting to present a great number of examples and implementations, which was cogitated in the beginning of the works. Nevertheless, due to the high cost in developing implementations, which were done by the author especially for this work, he opted for presenting only a small number of applications. This option was suggested by the Committee that evaluated the Proposal of Dissertation, where the examining bank opted indeed for limiting the the work to the topics presented, once the target was a Master Degree Thesis and not a commercial software project. It is hoped that the text will be used by teachers and students with some knowledge of Graphic Computation, specially of C++ and/or JAVA, as a complementary resource or reference.
Full text: yes
Atualizar
 
  

INSIRIUS - Interface inteligente em linguagem natural para o sistema SIRIUS
Rodrigues, F. B. V.

INPE-6833-TDI/646
Carvalho, Solon Venâncio de, (presidente/orientador)
Oliveira, Carlos Alberto de, (orientador)
Simoni, Paulo Ouvera
Cunha, João Bosco Schumam
Silva, Orion de Oliveira

1998-02-11
Este trabalho descreve o desenvolvimento de uma interface inteligente em linguagem natural para o sistema de pesquisa e recuperação bibliográfica da biblioteca do INPE, o SIRIUS. A interface proposta traduz uma consulta formulada em linguagem natural para um comando aceito pelo sistema SIRIUS, sempre que esta puder ser compreendida e interpretada. O idioma utilizado pela interface é o português do Brasil na forma escrita. A solicitação do usuário é analisada sintática e semanticamente pela interface. Há uma base de conhecimento que pode ser expandida a partir de interações com o usuário. Sempre que a interface não conseguir compreender uma solicitação, será estabelecido um diálogo com o usuário para tentar capturar sua intenção. O trabalho aborda conceitos de Inteligência Artificial (IA) e Lingüística Computacional. Utiliza frames e regras de produção para representar o conhecimento inerente ao protótipo do sistema. ABSTRACT: This dissertation describes the development of a natural language intelligent interface for the bibliographical research and retrieval system for the library of INPE, the SIRIUS. The interface translates a query formulated in natural language into a command accepted by the SIRIUS system. This occurs when the interface understands the query. The idiom used by the interface is the Portuguese from Brazil in its written form. The interface parses the users sentence syntatic and semanticly. There is a knowledge base which can be increased with the interactions with the user. A dialog with the user will be established whenever the interface does not understand the sentence. The purpose of this dialog is to capture the intention of the user. The thesis uses some Artificial Intelligence and Computational Linguistics concepts. It also uses frames and production rules to represent the knowledge within the prototype system.
Full text: yes
 
  

Desenvolvimento de uma tecnologia fotogramétrico-digital para a medição e a documentação de edificações
Silva, L. S.

INPE-7117-TDI/669
Pereira, José Antônio Gonçalves (presidente)
Travelho, Jeronimo dos Santos (orientador)
Stephany, Stephan
Dias, Luiz Alberto Vieira
Orgambide, Alejandro Cesar Frery

1998-04-03
Um projeto de restauração arquitetônica de um prédio antigo pode ser feito com mais facilidade se for assistido por um sistema computacional capaz de gerar as dimensões originais da construção. Neste trabalho foi desenvolvido um sistema fotogramétrico-digital que oferece um método prático de determinação das dimensões reais de um prédio para fins de restauração futura. Desenhos arquitetônicos inexistentes de prédios antigos parcialmente danificados podem ser obtidos com razoável precisão usando-se o sistema apresentado. O sistema é capaz de fornecer dados tridimensionais da construção usando pares estereoscópicos de fotos do prédio e um microcomputador. Com esta aplicação as tradicionais e caras câmeras estereométricas tanto quanto os instrumentos restituidores de imagens são substituídos por câmeras comuns relativamente baratas e um microcomputador. Após muitas experiências realizadas com este método foram obtidos dados tridimensionais do objeto estudado com desvios de medidas não superiores a 2,8% do valores reais. Por outro lado, apenas poucas dimensões apresentaram desvios superiores a 1% e um número grande delas não apresentou absolutamente qualquer desvio. Os desvios dos valores reais apresentados foram atribuídos a falhas acontecidas durante a tomada das fotos e revelação das mesmas. Foi pesquisada a qualidade esterescópica das imagens tomando-se vários conjuntos de pares fotográficos esterescópicos do objeto, computando-se seus dados e comparando-os com as dimensões reais do objeto. Imagens digitalizadas e o algoritmo baseado na teoria das paralaxes forneceu os dados 3D os quais foram usados no projeto de restauração. Pelo processamento destes dados em um programa CAD foi possível obter os desenhos arquitetônicos do prédio original. ABSTRACT: An architectonic restoration project of an old building can more easily made when assisted by a computer system able to generate the original dimensions of the construction. A photogrammetric digital system was developed in this work to offer a very practical method for computing actual dimensions of a building for future restoration. Non existing architectonic drawings of partially damaged old buildings can be obtained with very acceptable precision using the system presented. By using stereoscopic pairs of photos of the building and a microcomputer the system is capable to produce construction´s tridimensional data. In this application the traditional and expensive stereometric cameras as much as the restorative instruments of images are replaced by relatively cheap usual photographic cameras and a microcomputer. After several experiences carried out with this method, tridimensional data were obtained from the studied object with deviations no greater than 2.8% of the real values. On the other hand only few dimensions were above 1% deviation and a great number of them did not show any deviation at all. The deviations of the real values were imputed to faults brought about during the photos taking and photos developing. The stereoscopic quality of the images was investigated by taking several sets of stereoscopic pairs of photos, computing their data and comparing them with the real object dimensions. Scanned images and the algorithm based on parallax theory supplied reliable 3D data which were used in the restoration project. By processing these data with a CAD system it was possible to obtaining the architectonic drawings of the original building.
Full text: yes
Atualizar
 
  

Avaliação de um algoritmo baseado em filtragem de Kalman para treinamento de redes neurais artificiais multicamadas
Souza Filho, D. F.
INPE--TDI/
Rodrigues Neto, Camilo (presidente)
Rios Neto, Atair (orientador)
Silva, Francisco de Assis Tavares F. da
Varotto, Sebastião Eduardo Corsatto
Nascimento Júnior, Cairo Lúcio

1998-10-23
O objetivo deste trabalho é apresentar o estudo de um algoritmo baseado em filtragern de Kalman, para treinamento de uma rede neural artificial multicamadas proposto por Rios Neto (1994, 1995). Este estudo, consiste na implementação do algoritmo, na realização de testes de desempenho e na análise comparativa com o algoritmo feito um breve estudo do tipo de treinamento usualmente empregado, o algoritmo backpropagation, descrevendo as suas características principais, suas vantagens c desvantagens. E apresentado, também, um breve estudo do método de filtragem de Kalman. Demonstra-se que o treinamento de uma rede neural artificial multicamadas pode ser visto como um problema de estimação ótima e, a partir daí, é apresentado o algoritmo desenvolvido. A implementação do algoritmo proposto foi feita na linguagem Visual Basic versão 4.0, com a qual foi criado também o ambiente para desenvolvimento dos testes de validação. Os testes para avaliação de desempenho e a análise comparativa foram feitos com base na aplicação do algoritmo proposto, bem como do algoritmo, backpropagation, no treinamento de uma rede neural artificial para resolver alguns problemas que têm surgido na literatura de referência, considerados úteis para este tipo de estudo. Os resultados obtidos comprovam, de maneira geral, o melhor desempenho do algoritmo proposto com relação ao backpropagation. ABSTRACT: This work presents the study of an algorithm based on Kalman filtering, it was proposed by Rios Neto (1994, 1995) to be used in a multilayer artificial neural network training. This study comprises the algorithm implementation, performance tests and results comparison with backpropagation algorithm. Both algorithms are brifelly presented herein. It is shown that the multilayer artificial neural network training can be regarded as an optimal estimation problem. The proposed algorithm has been programmed in Visual Basic 4.0 language, that was also used to implement the environment needed to perform the tests. The algorithms (backpropagation and Kalman) have been used to train an artificial neural network in order to solve some problems normally found in the references. The results show that, in general, the best performance of Kalman algorithm when compared to backpropagation.
Full text: no
Atualizar
 
  

Interoperabilidade em geoprocessamento: conversão entre modelos conceituais de sistemas de informação geográfica e comparação com o padrão OPEN GIS
Thome, R.

INPE-7266-TDI/708
Monteiro, Antonio Miguel Vieira (presidente)
Câmara Neto, Gilberto (orientador)
Gattass, Marcelo
Medeiros, Claudia Maria Bauzer

1998-08-20
O objetivo deste trabalho e analisar o problema da interoperabilidade em Geoprocessamento, tomando por base a tecnologia atual de Sistemas de Informacao Geografica (SIG). A partir de uma analise dos modelos conceituais de diferentes SIGs, e da especificacao do padrao OPEN GIS, o trabalho apresenta uma conversao entre estes modelos conceituais e uma analise dos problemas de sua traducao para os conceitos OPEN GIS. Para materializar as ideias apresentadas, desenvolveu-se o prototipo de uma ferramenta de traducao ente estes modelos conceituais. ABSTRACT: This work discusses the problem of interoperability in Geographic Information Systems (GIS), trying to identify the potential pratical barriers which limit the complete interchange of geographical information. The semantic models of three differents GIS are described and compared with each other and with the OPEN GIS concepts. These comparisons allow an assessment of the problems and limitations of the semantic translation on the GIS domain. To illustrate the ideas established, a prototype for GIS semantic model conversion has been developed.
Full text: yes
Atualizar
 
  

Desenvolvimento de software por engenheiros: diretrizes e metodologias
Thome, A. C.
INPE-6891-TDI/652
Carvalho, Solon Venancio de (presidente)
Nakanishi, Tatuo (orientador)
Cunha, Joao Bosco Schumann (co-orientador)
Caurim, Glauco Augusto de Paula
Alves, Sidnei de Brito

1998-08-20
Esta dissertacao propoe diretrizes para auxiliar Engenheiros a desenvolver sistemas de software de pequeno, medio, e grande porte, usando o Paradigma Classico e o Paradigma da Orientacao a Objetos. Este trabalho traca portanto, uma linha de desenvolvimento de software que vai desde a concepcao do sistema ate a fase de implementacao e testes; indicando metodologias, tecnicas, e cuidados a serem considerados durante o processo de desenvolvimento, facilitando dessa maneira a construcao de softwares de qualidade, sem precisar se tornar um especialista em Engenharia de Software. Isto permite que os Engenheiros, que muitas vezes tem pouco conhecimento sobre Engenharia de Software, possam ter uma referencia de como proceder na construcao de softwares, podendo desta maneira construir, mais facilmente, softwares apropriados para seus objetivos. ABSTRACT: This dissertation proposes routes to help Engineers to develop small, medium, and large software systems, using the Classical Paradigm and the Object-Oriented Paradigm. In such case, this work traces a line of software development that goes since its conception until the implementation and tests phase; indicating methodologies, techniques, and precautions to be considered during the development process, helping thus the construction of quality softwares, without the need of becoming a Software Engineer specialist. This way, it allows Engineers, who many times have little knowledge about Software Engineering, to have a source of reference on how to proceed in software construction, and can in this manner easier bull software systems appropriate to their goals.
Full text: no
Atualizar
 
  

Uma aplicação da busca tabu ao problema de rotulação cartográfica de pontos
Yamamoto, M.
INPE-7250-TDI/694
Carvalho, Solon Venancio de (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Camara Neto, Gilberto (co-orientador)
Scrich, Cintia Rigao

1998-12-18
A geracao de configuracoes otimas de rotulos em um mapa e um problema que surge com a producao cartografica automatizada. O objetivo de uma boa rotulacao e mostrar a posicao geografica das entidades com texto associado, de forma legivel, e respeitando as convencoes cartograficas, com qualidades estetica e harmonica na apresentacao dessas informacoes. Abordamos o problema de rotulacao cartografica sob o ponto de vista de otimizacao combinatoria. Nesta perspectiva, a rotulacao cartografica pertence a classe de problemas de dificil solucao, conduzindo-nos a necessidade de algoritmos de aproximacao, uma vez que nao existe nenhum algoritmo exato capaz de soluciona-lo em um intervalo de tempo aceitavel. Nossa pesquisa consistiu na avaliacao do algoritmo de otimizacao Busca Tabu aplicado a rotulacao cartografica. A Busca Tabu implementada no SCARTA, um software de producao cartografico em desenvolvimento pela Divisao de Processamento de Imagens do Instituto Nacional de Pesquisas Espaciais, mostrou-se um algoritmo eficiente, nos casos-teste real e aleatorio, Quando comparado a tecnicas alternativas como "Simulated Annealing", algoritmo genetico com mascara, e outras descritas na literatura, a Busca Tabu apresentou o melhor desempenho em qualidade. Concluimos que a Busca Tabu e um metodo recomendavel para solucao de problema de rotulacao cartografica de pontos, devido a sua simplicidade, praticidade, eficiencia e bom desempenho, conjugado a capacidade de gerar solucoes de qualidade em tempo computacional aceitavel. ABSTRACT: The generation of better label placement configurations in maps is a problem that comes up in automated cartographic production. The objective of a good label placement is to show the geographic position of the features with their corresponding texts clearly, respecting the cartographic conventions, with an esthetic and a harmonious qua when presenting the information. We approached the label placement problem from a combinatorial optimization point of view. In this perspective, the cartographic label placement belongs to a problem area of difficult solution, leading us to the need of approximation algorithms as there is no exact algorithm that is able to solve this problem within an acceptable amount of time. Our research consisted in the evaluation of the tabu search optimization algorithm applied to cartographic label placement. The tabu search implemented in SCARTA, a cartographic production software, in development by the Image Processing Division of the National Institute of Aerospace Researches, proved to be an efficient algorithm, in real and random test cases. When compared with alternative techniques such as simulated annealing, genetic algorithm with mask and others described in literature, the tabu search had the best performance in quality. We concluded that tabu search is a recommended method to solve cartographic label placement problem of point features, due to its simplicity, practicality, efficiency and good performance along with its ability to generate quality solutions in acceptable computational time.
Full text: no
Atualizar
 
  


   1999



Proposta e implementação de um serviço seguro de transferência de dados
Barros, E. G.

INPE-7508-TDI/722
Montes Filho, Antonio (presidente)
Guedes, Ulisses Thadeu Vieira (orientador)
Stephany, Stephan
Geus, Paulo Licio de

1999-11-18
0 crescente uso da Internet para transferencia de dados digitais requer sistemas computacionais que garantam a privacidade, integridade e acessabilidade desses dados. Por sua vez, o sistema computacional deve ser seguro, garantindo a operacionalidade das maquinas e da rede que o compoe e atendendo as necessidades tecnicas e administrativas da organizacao. A especificacao desse sistema computacional deve ser feita obedecendo a politica de seguranca estabelecida para a organizacao.0 presente trabalho propoe um sistema computacional seguro, projetado em funcao da politica de seguranca de uma organizacao generica. No escopo do sistema proposto, e implementado o prototipo de um software para transferencia segura de dados, derivado do servico Trivial File Transfer Protocol (TFTP). Como o novo servico e destinado a arquivos de tamanho limitado, foi conveniente o uso do protocolo de transporte User Datagram Protocol (UDP), nao orientado a conexao. Procura-se garantir a integridade e inviolabilidade dos dados atraves do uso de criptografia e de procedimentos de autenticacao e autorizacao de acesso. 0 servico proposto incorpora uma metodologia de cifragem dados, baseada em dois algoritmos de criptografia de dominio publico. ABSTRACT: The increasing use of the Internet for the transfer of digital data requires computational systems able to provide the privacy, integrity and accessability of such data. Furthermore, the computational system itself shall be safe, ensure the serviceability of its computers and local network and attend the requirements of a given institution or company. The specification of this computational system shall be made in order to conform the adopted safety policy. The current work proposes a safe computational system, designed to meet the requirements of the safety policy of a particular institution or company. As part of this system, it was developed and tested the prototype of a software aimed for safe data transfer. This software was derived from the Trivial File Transfer Protocol (TFTP). As this service is intended for files that are limited in size, it was suitable to choose the connectionless protocol User Datagram Protocol (UDP). Data integrity and inviolability is ensured by cryptography and also authentication and authorization procedures. The proposed service uses a methodology for data encryptation, which is based on two public domain cryptography algorithms.
Full text: yes
Atualizar
 
  

Um algoritmo modificado de interação de valores para resolução de processos semi-markovianos de decisão
Carvalho, R. F.

INPE-7532-TDI/738
Lorena, Luiz Antonio Nogueira (presidente)
Carvalho, Solon Venancio de (orientador)
Yanasse, Horacio Hideki
Morais, Paulo Renato de
Salles, Maria Creuza Bretas

1999-12-23
Os Processos Semi-Markovianos de Decisao modelam a operacao de sistemas cujos comportamentos estao sujeitos a tomadas de decisao sequenciais e a aleatoriedades. Existem tres metodos classicos para resolucao destes processos: o Algoritmo de iteracao de Politicas, a formulacao e resolucao de um Problema de Programacao Linear correspondente e o Algoritmo de Iteracao de Valores. No ultimo metodo, do qual trata o presente trabalho, tradicionalmente se reduz o Processo Semi-Markoviano de Decisao a um Processo Markoviano de Decisao a Tempo Discreto atraves de uma mudanca de variaveis chamada uniformizacao. Neste trabalho apresenta-se um Algoritmo de Iteracoes de valores que dispensa o uso da uniformizacao juntamente com o desenvolvimento teorico que o justifica e os resultados numericos de sua aplicacao na otimizacao de filas M/G/1/N com taxa de servico controlavel e de filas M/M/c/N com numero de servidores controlavel; cabendo ressaltar que, nos dois casos, o algoritmo proposto apresentou um desempenho computacional superior aos algoritmos encontrados na literatura. ABSTRACT: The Semi-Markovian Decision Process models system operations which are subject to sequential decision making with uncertainty. Three classic algorithms are used in these models: Policy Iteration, Linear Programming and value Iteration. The latter, about which is the present work, traditionally reduces the Semi-Markovian Decision Process to a Discrete Time Markovian Decision Process through a variable transformation called uniformization. In this work, a Modified Value Iteration Algorithm is used without the uniformization, together with the theoretical development that justifies it and the numerical application to an M/G/1/N queueing system with controllable service rate and the M/M/c/N queueing system with controllable number of servers. It is important to highlight that in the two cases, the proposed algorithm presented a higher computational result in relation to the algorithms presented in the literature.
Full text: yes
Atualizar
 
  

Uso de algoritmos genéticos na construção de controlador nebuloso para o controle de atitude de um satélite artifical durante a fase de apontamento
Correa, C.
INPE-7472-TDI/712
Rios Neto, Atair (presidente)
Sandri, Sandra Aparecida (orientador)
Souza, Luiz Carlos Gadelha de (orientador)
Fonseca, Ijar Milagre da
Coelho, Antonio Augusto Rodrigues

1999-03-08
Este trabalho apresenta a aplicacao de algoritmos geneticos no projeto de controladores para o controle de atitude de um satelite artificial, durante a fase de apontamento para o Sol. Primeiramente, e apresentado um controlador PD para o modelo do satelite, cujos ganhos foram aprendidos por um algoritmo genetico. Em seguida, sao apresentados dois controladores nebulosos, cujos parametros foram obtidos utilizando-se um algoritmo genetico com a mesma funcao de avaliacao usada na obtencao do controlador PD). A funcao de avaliacao utilizada e uma medida global do desempenho de cada solucao em relacao ao simulador existente para este modelo de satelite. 0 trabalho traz uma analise comparativa do desempenho dos controladores, em relacao a um controlador PD) desenvolvido pelo metodo da alocacao dos polos. ABSTRACT: This work presents the application of genetic algorithms in the design of controllers for the attitude control of an artificial satellite, in the sun pointing phase. First, a PD controller is presented, whose gains were learned by a genetic algorithm. Then, two fuzzy controllers are presented, whose parameters were obtained using a genetic algorithm with the same fitness function employed for deriving of the PD controller. The fitness function used here is a global measure of the performance of each solution, in relation to an already existing simulator for this satellite model. This work also brings a comparative analysis of these controllers, in relation to a PD controller developed by the poles placement method.
Full text: no
Atualizar
 
  

Estratégias e padrões para modelagem de banco de dados para sistema baseados na arquitetura softboard
Cottini, L. T.

INPE-7524-TDI/732
Carvalho, Solon Venancio de (presidente)
Cunha, Joao Bosco Schumann (orientador)
Nakanishi, Tatuo
Melnikoff, Selma Shin Shimizu

1999-03-25
Visando a uma melhoria na qualidade dos sistemas de software e na produtividade dos seus desenvolvedores, este trabalho de pesquisa define um processo de desenvolvimento de um sistema de banco de dados. Tal processo se baseia em estrategias e padroes para a modelagern de um banco de dados relacional, que e usado por uma aplicacao orientada a objetos baseada na SOFFBOARD. Este trabalho de pesquisa define tambem um modelo de metadados do catalogo, que o Componente Gerenciador de Configuracao de Sistema Orientado a Objetos (CMOOS) da SOFTWARD, utiliza para que seja feita a interface entre o Componente Dominio do Problema (CDP) da aplicacao, o Componente Gerenciador de Dados (CGD) e o banco de dados, bem como um conjunto de estrategias para alimentar este catalogo. ABSTRACT: Looking for more software systems quality and the developers productivity, this research define a database system development process based on strategies and patterns to model a relational database used by a SOUBOARD-based object oriented application. This research also defines a metadata catalog model which is used by the SOFTBOARD CMOOS to interface the application CDP, the CGD and the database, as well as a set of strategies to mantain this catalog.
Full text: yes
Atualizar
 
  

Estratégias e padrões para o desenvolvimento de sistemas de software baseados em softboard
Dias, A. S.

INPE-7262-TDI/704
Nakaniski, Tatuo (presidente)
Cunha, Joao Bosco Schumann (orientador)
Carvalho, Solon Venancio de
Melnikoff, Selma Shin Shimizu

1999-05-28
Atualmente, existe uma grande preocupacao por parte das organizacoes com relacao a qualidade dos Sistemas de Software produzidos, bem como com a produtividade das equipes de desenvolvimento. Desta maneira, faz-se necessario que se procure por solucoes que tentem erradicar, ou pelo menos minimizar, os problemas encontrados durante o desenvolvimento destes Sistemas, os quais influenciam negativamente na qualidade e na produtividade. Um destes problemas consiste na falta da definicao precisa, dentro da organizacao, de um Sistema para o desenvolvimento de Sistemas de Software. Este Sistema deve envolver um processo de desenvolvimento, bem como os recursos e as pessoas disponiveis. Neste trabalho, e apresentado um Sistema para o desenvolvimento de Sistemas de Software baseados na arquitetura SOFTWARD, detalhando as atividades do Processo de desenvolvimento correspondentes a modelagem do Componente do Dominio do Problema (CDP) da SOFTBOARD, atraves da utilizacao dos conceitos de estrategias e padroes. ABSTRACT: Nowadays, there is many preoccupation into organizations about the quality of the produced Software Systems, as well as the productivity of the development teams. Then, it is needed to look for solutions which try to eradicate, or at least to minimize, the problems found during these Systems development, which negatively influence the quality and productivity. One of these problems consists in the lack of a precise definition, into the organization, to a System for the Software Systems development. This System must comprehend a development process, as well as the available infrastructure and people. In this work, it is introduced a System for SOFTBOARD- based Software Systems, detailing the development process activities correspondent to the SOFTBOARD Problem Domain Component (CDP), through utilization of strategies and patterns concepts.
Full text: yes
Atualizar
 
  

Um sistema para tratamento e visualização de dados astronômicos espectrais
Faria, C.

INPE-8036-TDI/752
Ning, Carlos Ho Shih (presidente)
Sawant, Hanumant S. (orientador)
Stephany, Stephan
Rosa, Reinaldo Roberto
Lüdke, Everton

1999-11-10
O Espectrógrafo Solar Brasileiro (Brazilian Solar Spectroscope, BSS) é um radiotelescópio de alta sensibilidade e alta resolução temporal e espectral, que está sendo utilizado nas observações de explosões solares, ocorridas na faixa de frequência decimétrica, realizadas no Instituto Nacional de Pesquisas Espaciais (INPE). Um sistema para aquisição digital do sinal observado pelo BSS foi desenvolvido, podendo gerar um fluxo de dados de até 35 Mbytes/hora. A análise destes dados apresenta grande complexidade pois, além do grande volume, o sinal dos fenômenos observados sobrepõe-se à emissão solar de fundo, sendo que ambos os sinais sofrem variações de intensidade no tempo e em frequência. Esta complexidade dificulta ao astrônomo o tratamento, visualização e análise destes dados. Assim, este trabalho propõe um sistema para tratamento e visualização de dados astronômicos espectrais, denominado BSSView. Este sistema foi projetado e desenvolvido seguindo modelos da área de Visualização Científica, e é composto por módulos específicos destinados ao pré-processamento, visualização e pós-processamento de dados, desenvolvidos na linguagem Interactive Data Language (IDL) e que dispõe de uma interface gráfica com o usuário. O BSSView possui a vantagem de permitir a visualização em tempo quase real dos dados provenientes do BSS, possibilitando assim, modificar os parâmetros de aquisição, conforme o fenômeno observado. O sistema já está operacional e diariamente, entre 11:30 e 19:30 UT, dados referentes a diversos flares solares estão sendo adquiridos e visualizados, permitindo posterior análise. ABSTRACT: The Brazilian Solar Spectroscope (BSS) is a radiotelescope that features high sensitivity and high spectral and temporal resolutions. The BSS is currently being used for the observation of solar explosions, in the decimetric bandwidth, at the Brazilian Institute for Space Research (INPE). An acquisition system was developed to digitise BSS signals up to 35 MBytes per hour. Besides this high dataflow there is the inherent complexity of such observations as the signal intensity of the observed phenomena is superposed by a continuous Sun background emission and both signals vary in time and frequency. As the processing, visualization and analysis of such data are difficult for the astronomer, this work presents a system to perform this tasks, the BSSView. It was designed following Scientific Visualization models and it is composed by specific modules aimed for preprocessing, visualization and post-processing of observed data, provided with user graphical interfaces and written in the Interactive Data Language (IDL). As BSSview allows near real time visualization it provides a feedback for the modification of the acquisition parameters, according to the observed phenomena. This system is currently operational and processes data daily between 11:30 AM and 7:30 PM. Several datasets related to solar flares were already acquired and visualized, being available to further analysis.
Full text: yes
Atualizar
 
  

Paralelismo e imagens: um experimento de paralelização para a segmentação de imagens com aplicações para a classificação automática de cenas geradas por plataformas orbitais
Fernandes, S. F.

INPE-15670-TDI/1445
Paiva, João Argemiro de Carvalho (presidente)
Monteiro, Antônio Miguel Vieira (orientador)
Mendes, Celso Luis (orientador)
Vieira Dias, Luiz Alberto
Paula Júnior, Alderico Rodrigues de

1999-12-23
A segmentação é um importante passo na análise de imagens de sensoriamento remoto, sendo responsável pela divisão das mesmas em suas partes constituintes. Os métodos de segmentação aplicado em imagens desta natureza normalmente se baseiam na análise dos valores digitais dos pixels nas diversas bandas espectrais. Tal análise pode se tomar extremamente custosa computacionalmente. Visando reduzir o tempo de processamento do processo de segmentação de imagens, este trabalho objetiva a paralelização do algoritmo de segmentação por crescimento de regiões proposto por Bins et all. (1992), que está implementado como parte do Sistema de Processamento de Informações Georeferenciadas - SPRING desenvolvido pela Divisão de Processamento de Imagens DPI do Instituto Nacional de Pesquisas Espaciais - INPE. Esta paralelização é feita empregando-se o paradigma Single Process, Multiple Data - SPMD com o modelo de troca de mensagem suportado pela biblioteca Message Passing Interface - MPI. Os testes são executados num clusters de PC's com sistema operacional Linux. Os resultados são comparados aos resultados obtidos na versão seqüencial, a qual é executada no mesmo ambiente. A paralelização do algoritmo oferece uma redução significativa do tempo total de processamento, aliada a um produto cartográfico de qualidade, bem como oferece um modelo de implementação portável a diversas plataformas e sistemas operacionais. A principal aplicação deste trabalho é no Projeto de Desflorestamento da Amazônia - PRODES, em sua fase digital, visando a redução de custos através da otimização dos processos de classificação automática de cenas de satélites. ABSTRACT: Segmentation is an important step in image analysis for remote sensing; it is responsible for spliting the image into two distinct part so. Current segmentation methods used in images of this type are usually based on analysis of the pixel values in all image bands. This type of analysis can be computationally expensive. In order to reduce the processing time in image segmentation process this work introduces a parallel approach to image segmentation. This method is based on region growing technique as shown in Bins et all (1992), and used in the SPRING system (Images Processing System) developed by the Image Processing Division (DPI) at the Brazilian Institute for Space Research (INPE). The parallelism is done using the SPMD (Single Process, Multiple Data) paradigm and the message passing model under the MPI (Message Passing Interface). All testes have been executed in a PC cluster under the Linux Operating System. The results have been compared with output of a sequential system executing the same environment. The parallelization offers a significant reduction in the processing time combined with a high quality segmentation. The parallelization model can be applied in other types of machine architectures under different operating systems.
Full text: yes
 
  

Coevolução de agentes de estado finito
Pessôa, M. V. P.

INPE-8488-TDI/780
Monteiro, Antônio Miguel Vieira (presidente)
Oliveira, Pedro Paulo Balbi de (orientador)
Rodrigues Neto, Camilo
Martinez, Alexandre Souto

1999-07
O escopo deste trabalho concentra-se no estudo de variações de implementações de algoritmos evolutivos, na solução de problemas que envolvam a coevolução de agentes, cujo comportamento corresponda a máquinas de estado finito. Os algoritmos genéticos são a base para o processo coevolutivo, abordando comportamentos cooperativos e competitivos, onde a cooperação ocorre dentro de um grupo específico de agentes e a competição acontece entre estes grupos. Para este estudo foram variadas tanto características dos algoritmos genéticos quanto do ambiente onde ocorrem as interações entre os agentes. Fatores como a representação e controle dos elementos da população operada pelo algorítmo genético, sua seleção e operação foram explorados, de forma a avaliar quais esquemas seriam mais convenientes para aplicação nesses tipos de problemas. Para a consecução deste trabalho, foi utilizado o sistema de simulação Swarm, desenvolvido pelo Santa Fe Institute - EUA, e que tem por finalidade permitir a implementação de sistemas que envolvam grupos de agentes. ABSTRACT: This work is concerned on the study of evolutionary algorithms, in the solution of problems involving coevolution of agents, whose behavior correspond to finite state machines. The genetic algorithms are the base for the coevolutive process, approaching cooperative and competitive behaviors. The cooperation happens inside of a specific group of agents and the competition happens among these groups. For this study were varied several genetic algorithms' characteristics and the ambient where the interactions among the agents happen. Factors as the representation and control of the population's elements operated by the genetic algorithm, its selection and operation were explored, in way to evaluate which outlines would be more convenient for application in those types of problems. For the attainment of this work, the Swarm simulation system, developed by Santa Fe Institute - USA, was used.
Full text: yes
Atualizar
 
  

Reconhecimento de padroes invariante a rotação utilizando uma rede neural morfológica não-supervisionada
Rempel, E. L.
INPE-7994-TDI/748
Rios Neto, Atair (presidente)
Silva, Francisco de Assis Tavares F. da (orientador)
Guimaraes, Lamartine N. F.
Rodrigues Neto, Camilo
Moraes, Ronei Morcos de

1999-03-08
Neste trabalho e apresentado um modelo de reconhecimento de imagens digitais bidimensionais com capacidade de deteccao invariante a rotacao e translacao usando uma rede neural morfologica nao-supervisionada. Utilizando a caracteristica de invariancia a translacao presente nos operadores da Morfologia Matematica, e sugerido um mecanismo de casamento morfologico de padroes baseado na comparacao da imagem de entrada com um conjunto de elementos estruturantes rotacionados, permitindo a deteccao invariante a rotacao e translacao sem necessidade de uma etapa de segmentacao. Um conjunto de testes foram realizados utilizando imagens binárias e em escala de cinza.
Full text: no
Atualizar
 
  

Registro de imagens e métodos de cálculo de erro de registro
Souza, S. M.
INPE-7992-TDI/746
Travelho, Jeronimo dos Santos (presidente)
Fabbri, Mauricio (orientador)
Dias, Luiz Alberto Vieira
Silva, Ardemiro de Barros

1999-04-16
Neste trabalho foram avaliados e testados dois metodos de registros de imagens do sensor TM (Landsat), um manual (tradicional) e o outro automatico ( Li et al, 1995). No metodo manual a selecao dos pontos de controle foi realizada manualmente atraves da tela do computador No metodo automatico esta escolha e feita pelo algoritmo atraves da semelhanca das feicoes adquiridas das imagens. Para analisar a precisao das imagens registradas foram calculados o Erro de Registro atraves de dois metodos. Um deles, de uso tradicional, e a raiz quadrada do erro medio quadratico (RMSE), que e a medida dos erros residuais entre alguns pontos de teste escolhidos na imagem. 0 outro e o Metodo da Variancia, que nao e de uso comum, e trabalha com dois tipos de erros: erro geometrico e o erro de medida. Ele calcula o erro total e subtrai o erro de medida gerado pelo processo que esta sendo usado para calcular o erro. ABSTRACT: In this work were appraised and tested two methods of registrations of images of sensor TM (Landsat), a manual (traditional) and the other automatic ( Li et al, 1995). In the manual method the selection of the control points was accomplished manually through the screen of the computer. In the automatic method this choice is made by the algorithm through the likeness of the acquired features of the images. To analyze the precision of the registered images they were calculated the accuracy of registration through two methods. One of them, of traditional use, is the root mean square error (RMSE), that is the measure of registration accuracy among some test points chosen in the image. The other is the Method of the Variance, that is not of common use, and it works with two types of errors: geometric error and the measurement error. It calculates the total error and it subtracts the measurement error generated by the process that is being used to measure the accuracy.
Full text: no
Atualizar
 
  


   2000



Paralelização de um classificador contextual de imagens
Almeida, R. N. T.

INPE-8534-TDI/785
Preto, Airam Jônatas (presidente)
Mendes, Celso Luiz (orientador)
Monteiro, Antônio Miguel Vieira
Paiva, João Argemiro de Carvalho
Sonnenburg, Cláudio Roland

2000-06-20
Apresentamos, inicialmente, conceitos básicos sobre processamento digital de imagens, com ênfase em classificação de imagens obtidas a partir de sensores multiespectrais. Escolhemos dois algoritmos de classificação, Máxima Verossimilhança (MAXVER)e Iterated Conditional Modes (ICM), para exemplificar a aplicação das metodologias propostas. Antes de apresentar estas metodologias, avaliamos a situação dos algoritmos mencionados em suas atuais implementações no Sistema para Processamento de Informações Georeferenciadas (SPRING). Descrevemos os aspectos relacionados a sistemas de processamento paralelo e o padrão de comunicação por troca de mensagens, Message Passing Interface (MPI). Adaptamos os programas atuais (seqüenciais)para serem executados independentemente do sistema SPRING. O objetivo desta adaptação foi otimizar os testes e a avaliação dos resultados. A partir dos códigos-fonte destes programas, desenvolvemos versões capazes de classificar imagens utilizando processamento paralelo, baseadas em troca de mensagens com MPI. O enfoque, durante este desenvolvimento, foi o de aumentar o desempenho durante a classificação das imagens com um código facilmente portável de um sistema paralelo para outro. Realizamos testes com os novos programas em equipamentos paralelos com arquiteturas diferentes entre si. Para estes testes, utilizamos tanto imagens com baixo como com grande volume de informações. Calculamos os tempos de processamento considerando aspectos tais como: algoritmo utilizado, comunicação, I/O, volume de informações, etc. Os programas paralelos foram avaliados quanto ao seu desempenho e eficiência. Comparamos as imagens geradas pelos programas paralelos com aquelas geradas pelos programas originais (seqüenciais), a fim de garantir a qualidade dos resultados. Pudemos comprovar que os processos de classificação de imagens podem ser otimizados, reduzindo o tempo de processamento consideravelmente. Além disso, os programas desenvolvidos podem ser utilizados em equipamentos paralelos com arquiteturas diferentes, sem que para isto sejam necessárias alterações nos códigos-fonte dos programas. Finalmente, concluímos que a utilização das metodologias apresentadas pode ser de grande benefício no desenvolvimento de sistemas de processamento de imagens obtidas por sensores orbitais. ABSTRACT: This work presents basic concepts about digital image processing, with emphasis on classification of images from multi-spectral sensors. We have chosen two classification algorithms (MAXVER and ICM), to exemplify the application of the proposed methodologies. Before showing these methodologies, we evaluated the situation of present algorithms, in the SPRING system. We described the aspects related to parallel systems and the standard of communication by Message Passing Interface (MPI). We adjusted the current programs (sequential)to be executed outside of the SPRING system. The objective was to optimize the tests and the evaluation of the results. From the code of these programs, we developed able versions to classify images using parallel processing, based on message passing interface with MPI. During the development of the programs, the objective was to increase the classification performance, using a portable code across parallel systems. The new programs were tested in parallel systems with different architectures. We used both images with low and with high volume of information. We calculated the times of processing in regard to aspects such as: selected algorithm, communication, I/O, information volume, etc. The parallel programs were evaluated in their aspects of performance and efficiency. To assess the quality of the results, we compared the resulting images of the parallel case with the resulting images of the sequential case. We confirmed that the classification can be optimized, with reduction of processing time. Furthermore, the developed programs can be used in parallel systems with different architectures, without changes in their original code. Thus, we concluded that the methodologies used in this work are very important to the development of systems for image processing.
Full text: yes
Atualizar
 
  

Otimização de desempenho utilizando contadores de hardware
Corrêa, R. V.

INPE-8206-TDI/761
Preto, Airam Jônatas (presidente)
Mendes, Celso Luiz (orientador)
Stephany, Stephan
Oliveira, João Ricardo de Freitas
Paula, Alderico de

2000-06-19
A disponibilidade de microcomputadores cada vez mais potentes, com capacidade computacional e área de armazenamento próximos da capacidade de estações de trabalho caríssimas, tem colocado a comunidade científica diante de uma nova ferramenta para o desenvolvimento de aplicações científicas. A utilização dessas novas plataformas no meio científico criou a necessidade para um sistema operacional que fosse estável e confiável, abrindo o caminho para que o Linux assumisse a tarefa de gerenciar essas máquinas. Este aumento da capacidade somado a um ambiente estável, traz a necessidade de se melhorar o desempenho de algumas aplicações científicas, uma vez que o aumento das dimensões dos dados a analisar vem crescendo continuamente. Assim, com o aumento da complexidade dos problemas científicos e principalmente com a necessidade de tratamento de grandes quantidades de dados, tem colocado a otimização de desempenho como fator importante no desenvolvimento de uma aplicação. Especificamente nos processadores fabricados pela Intel, existem recursos internos que podem facilmente auxiliar no estudo do desempenho de um programa. A captura de dados internos que monitorem a atividade do código executando internamente ao processador e em tempo real, pode fornecer informações que mostrem onde estão os pontos problemáticos. O acesso a eventos internos aos processadores pode ser realizado através dos denominados contadores de hardware, que trazem informações precisas sobre o estado do processador. A forma de utilização desses contadores, principalmente como acioná-los a partir de uma aplicação de alto nível e estando trabalhando no ambiente Linux, exige alguns conhecimentos que estão discutidos com detalhes neste trabalho. A captura dos dados de desempenho permite assim conhecer como um trecho de programa interage com o processador e através de técnicas clássicas de otimização, pode-se reduzir consideravelmente os pontos de interação adversa com o processador. Uma interface foi desenvolvida para permitir ao programador a captura desses dados. A metodologia aqui descrita foi aplicada inicialmente a simulações de pequenos trechos de código e a uma aplicação seqüencial. Posteriormente, foi aplicada a um exemplo de cálculo de desvio padrão onde contagens de diversos eventos foram realizadas. A otimização de um programa seqüencial real partindo da reestruturação do código original em Fortran 77 foi executada com o código em notação Fortran 90, instrumentado e monitorado em diversos eventos. A paralelização desse código e execução em paralelo, mostra a eficiência do método, disponibilizando aos programadores uma seqüência de etapas para análise de uma aplicação científica, visando a otimização de desempenho. A monitoração de programas paralelos permite assim que o desempenho de uma aplicação paralela seja analisada e através da inspeção e monitoração de seu código, mostrar como torná-lo mais eficiente. Os dados obtidos mostram que o método pode ser utilizado em aplicações seqüenciais ou paralelas fornecendo informações claras do funcionamento de trechos de programa, permitindo ao programador identificar os pontos de interação adversa com a arquitetura. ABSTRACT: The availability of more powerful microcomputers with the computacional and storage capacities similar to expensive workstations, is leading the scientific community upfront to a new tool for the development of scientific applications. The use of these new plataforms created the need of an operational system that was stable and reliable, thus allowing Linux to lead the way to control these machines. Both high computer capacity and stable environment are items needed to boost the search for performance increase. Also, added to this scenario, there is an increasing complexity in scientific problems size of scientific data. With all this information in mind, performance increase is the next thing to do. Specifically Intel processors have built-in resources that can be used to analyze performance. The capture of the processor internal status in real time can provide information to solve software bottlenecks. Access to processor's internal resources to monitor events during execution of a code can be done using hardware counters, a set of registers that can monitor internal events occurring in the processor. Capture of performance data provides the necessary information on how an application interacts with the processor and, through the use of optimization procedures, it is possible to reduce the adverse interaction with the processor. An interface including a set of tools to capture performance data is available to the software programmer. The methods described here were applied to a series of simulations of adverse memory access and also to a real application. After its validation, a real scientific application written in Fortran 77 code was implemented and instrumented to monitor memory reference events in the processor internal cache. This application was totally restructured using Fortran 90 notations and again monitored for the same events. The reduction of execution time shows the efficiency of the Fortran 90 version. The reduction of adverse interaction with the cache memory is measured and discussed. This same application is again modified with the insertion of parallel directives in order to distribute the input data using the parallel data programming paradigm. The same events were monitored locally in each processor, showing the feasibility of performance data capture in parallel applications.
Full text: yes
Atualizar
 
  

Objetos Distribuídos: Conceitos e Padrões
Costa, S. R.

INPE-7939-TDI/744
Carvalho, Solon Venancio de (presidente)
Nakanishi, Tatuo (orientador)
Cunha, Joao Bosco Schumann
Melnikoff, Selma Shin Shimizu

2000-04-27
Ao se decidir distribuir um sistema deve-se considerar tanto o "overhead" que isto implica quanto o benefício que pode ser alcancado. Tipicamente, apos iniciar-se o modelamento de um sistema, determina-se quais objetos precisam ser implementados como locais e quais como distribuídos. A modelagem apresenta um problema quanto a escolha da arquitetura de distribuicao. Estas arquiteturas suportam o desenvolvimento de aplicacoes executando num ambiente heterogeneo e distribuído, dispondo de servicos comuns as aplicações, tais como, comunicação entre cliente e servidor, isolamento das aplicações em relação as plataformas de hardware, sistemas operacionais, protocolos de rede e linguagens de implementação. Cada uma delas apresentara vantagens e desvantagens, isto e, uma melhor adequação para cada sistema em particular. Através de pesquisa bibliografica, verificou-se que as arquiteturas mais referenciadas são: o "Common Object Request Broker Architecture" (CORBA)e o "Distributed Component Object Model" (DCOM). Assim um estudo das similaridades e diferencas entre ambos, levantadas através de seus modelos de objeto, protocolos de comunicação, funcionalidades e abrangencia, passa a ser um ponto de partida para obter um panorama do estado da arte da tecnologia de distribuicao de objetos, assim como, para o desenvolvimento de aplicações distribuidas que se utilizem dessas arquiteturas de distribuição. ABSTRACT: When deciding to distribute a system, it should be taken into account that the distribution implies "overhead". Yet, the benefit it provides should be explored. Typically, after starting the modeling of a system, is necessary to determine which objects must be implemented as locals or as distributed. The modeling presents a problem in relation to the choice of the distribution architecture. These architectures support the development of applications performing in a heterogeneous environment. They also provide common services to the applications such as communication between server and client; isolation of applications concerned to hardware plataforms; operational systems; net protocols; and implementation languages. Each architecture will present advantages and disadvantages. That is, a more suitable architecture for each particular system. Through bibliographic research, it was possible to observe that the most referred architectures are: "Common Object Request Broker Architecture"(CORBA)and"Distributed Component Object Model" (DCOM). Thus a disquisition showing the similarities and differences between then could be the first step to obtain an overview of the distributed object technology; and also assist the development of distributed application based on one of this distribution architectureses.
Full text: yes
Atualizar
 
  

Um controlador da dinâmica da aritmétrica de múltiplas colunas usando redes neurais artificiais
Doescher, A. M. L.

INPE-8162-TDI/756
Silva, José Demísio Simões da (presidente)
Sandri, Sandra Aparecida (orientadora)
Rodrigues Neto, Camilo
Caurin, Glauco Augusto de Paula

2000-06-19
O paradigma de redes neurais artificiais, em específico de redes neurais supervisionadas, tem se mostrado adequado para modelar o processamento aritmético, embora esta não seja uma tarefa trivial. A modelagem da aritmética de múltiplas colunas, por envolver processamento seqüencial, torna-se uma tarefa ainda mais complexa, sendo necessário que a arquitetura da rede neural artificial utilizada seja capaz de processar seqüências e que possa agir como um controlador dos procedimentos seqüenciais envolvidos neste processamento cognitivo. Para tal é preciso que a rede saiba onde está na seqüência de procedimentos a cada momento - esta é a capacidade apresentada por um autômato finito. Na literatura há relatos de poucos trabalhos que modelam a aritmética de múltiplas colunas. Entre estes, destaca-se o trabalho de Richard Dallaway que, utilizando uma rede neural recorrente, modela o comportamento mental e visual do homem ao resolver um problema aritmético de múltiplas colunas. O trabalho de Dallaway é o único encontrado, nessa linha de trabalho, que não se preocupa em modelar o número, mas em modelar os mecanismos que fazem com que nós realizemos as operações aritméticas. Entretanto, o desempenho da rede é baixo, devido ao pequeno número de problemas generalizados e outros problemas apresentados. Nesta dissertação, analisaremos minuciosamente seu trabalho a fim de resolvermos os problemas apresentados, melhorando o potencial da rede, para que esse modelo possa ser utilizado com mais eficiência em pesquisas de processos cognitivos. ABSTRACT: The artificial neural networks paradigm, and specially supervised ones, has been shown to be adequate to model arithmetic processing, eventhough this cannot be considered a simple task. The modeling of multiple columns arithmetic is particularly complex, since it deals with sequential processing, requiring a neural net architecture capable of processing sequences, and acting as a controller of the sequential procedures involved in this cognitive process. To do so, it is necessary for the net to know where it is in the sequential processing, at each moment; a capacity presented by a finite automaton. In the literature, there is a small number of works addressing the modeling of multiple columns arithmetic. Among them, the work of Richard Dallaway stands out, modeling the human mental and visual behavior to solve multiple columns arithmetic, using a recursive neural network. Dallaway's work is the only one to be found in this field, which does not try to model numbers, but to model the mechanisms that makes it possible to us to carry out arithmetic operations. However, the performance of the neural net is poor, due to the number of problems generalized by the net and to the problem presented to it. In this work, we analyse Dallaway's work in detail, in order to solve the problems presented by that approach, improving the net potentiality, making it possible for this model to be used more efficiently in several cognitive processes research lines.
Full text: yes
Atualizar
 
  

Uso da teoria de possibilidade e de algoritmo genético para construção de um classificador supervisionado com aplicação em imagens de radar de abertura sintética (SAR)
Malinski, P. R.
INPE--TDI/
Sandri, Sandra Aprecida (presidente)
Freitas, Corina (orientadora)
Monteiro, Antonio Miguel Vieira
Fernandes, David
Oliveira, Pedro Paulo Baldi de

2000-09-06
O objetivo de estudo deste trabalho é a concepção, projeto, implementação e testes de um classificador supervisionado de imagens digitais, que utiliza a teoria possibilidades para o modelamento da incerteza derivada da classificação dos pixels das amostras da imagem. Nopresente trabalho, são utilizados algoritmos genéticos para obter um parâmetro que faz o particionamento inicial dos níveis de cinza em classes. o modelo proposto faz uma primeira classificação não determinística da imagem, para em seguida refinar esta classificação usando heurística contextuais de pós-processamento que levam em consideração a classificação dos vizinhos de cada pixel. Na primeira classificação, utiliza-se os histogramas das amostras das classe para obter distribuições de possibilidades, que indicam o quanto cada nível de cinza é compatível com uma dada classe. Definidas as distribuições de possibilidades, aplica-se o algoritmo genético sobre as amostras para determinar um limiar (grau de possibilidades) para cada classe, que é tal que se um nível de cinza tem grau de possibilidade (em relação aquela classe) superior ou igual ao limiar da classe, ele é considerado como possivelmente pertencente aquela classe. Submete-se então a imagem á classificação com base nos limiares fornecidos pelo algoritmo genético, obtendo-se como resultado uma imagem classificada em termos de classes puras e compostas (composição de classes puras). Em seguida, a imagem é submetida a algoritmos de pós-processamento que levam em conta a vizinhança de cada pixel, para a classificação final da imagem em termos de classes puras. o pós-processamento compreende duas faces, uma para eliminação das classes compostas e outra para refinamento da imagem que considera o entorno de cada pixel. O presente trabalho tem enfoque voltado para imagens de radar de aberturas sintética (SAR), porém não existe nenhuma restrição ao uso das técnicas desenvolvidas para aplicação em dados obtidos por outros sensores imageadore. ABSTRACT: The subject of this work is the conception, project, implementation and tests of a classifier of digital images, that uses possibility theory to model the uncertainty derived from the classification of the pixels from image samples. In the present work, genetic algorithms are employed to obtain a parameter that makes the initial coarse partitioning of the gray levels into classes. The proposed model first performs a non-deterministic classification of the image, and then refines this classification by means of contextual heuristic that take into sccount the neighbors od each pixel. In the first classification, the image samples histograms are used to obtain possibility distributions, that indicate how much each grey level is compatible with a given class. After definition of the possibility distribuitions, a genetic algorithm is used to determine a threashold (possibility degree) for each class, which is such that if a grey level has its possibiity degree (in relation to a class) higher than or equal to the class therashold then it is considered as possibily belonging to that class. The image is then classified using these threasholds, with each pixel assigned to a single class ( a "pure" class) or to a set of classes ( a "composed"classes). Next, the image the pixels to obtain a final classification solely in terms of pure classes. The post-processing comprehends two phases, one for the elimination of composed classes and another to eventually pixels using the classification of the neighbors. The present work is phocused synthetic radar aperture images (SAR), but there is no restrictions to the use of the techniques presented here for other sensor types.
Full text: no
Atualizar
 
  

Disseminação de Dados Geográficos na Web: Avaliação da Tecnologia Java - Applet/Servlet
Osses, J. R.
INPE-TDI/
Monteiro, Antônio Miguel V. (presidente)
Câmara Neto, Gilberto (orientador)
Paiva, João Argemiro Carvalho
Alves, Diogenes Salas
Carvalho, Marcelo Tílio Monteiro de

2000-08-31
Este trabalho analisa o problema de projetar e desenvolver aplicações cliente-servidor para a disseminação de dados geográficos na Internet. E descrita uma estratégia que se baseia no modelo conceitual de uma base de dados geográfica como forma de seleção de dados. Foi desenvolvido um protótipo de sistema usando a tecnologia JAVA. Foram realizadas medidas de tempos necessários para efetuar diversas interações entre o cliente e o servidor utilizando ambientes de rede local e ambientes Internet. O protótipo mostrou ser viável a utilização desta tecnologia para implantação de sistemas para disseminação de dados geográficos. ABSTRACT: This work analyses the problem of designing and developing client/server applications to disseminate geographical data over the Internet. It describes one strategy based in a geographical conceitual data model by means of selecting data. Was built one prototype using the JAVA technology. Thus, experiments were made measuring the time for a set of tasks performed on the server and on the client. In some situations both, the client and server, were part of the sane LAN and in other situations they were connected trough the Internet. The prototype demonstrates be viable of using the JAVA technology as means to develop system for dissemination of geographical data.
Full text: no
Atualizar
 
  

Agentes móveis para apoio ao sistema de controle de satélites distribuído ednâmico
Silva, J. O.

INPE-15773-TDI/1516
Nakanishi, Tatuo (presidente)
Cunha, João Bosco S. Cunha (orientador)
Banca), Solon Venâncio de Carvalho
Convidado), Maria Carolina Monard

2000-08-11
Acompanhando a tendência mundial das companhias de Tecnologia de Informação e de institutos de pesquisas renomados, os sistemas computacionais preconizam a assimilação vantajosa dos atributos de distribuição e dinamismo às arquiteturas atualmente em desenvolvimento. À bordo de perspectivas promissoras associadas a tais atributos, o Sistema de Controle de Satélites do Instituto Nacional de Pesquisas Espaciais, em particular, avança rumo à reformulação de sua infraestrutura ao propor uma modelagem na qual as aplicações, além de se submeterem aos ditames da tecnologia de objetos distribuídos (ou seja, as aplicações são modeladas como objetos que podem interoperar em ambientes de redes com diferentes plataformas), apresentam características que permitem a sua mobilidade ( ou seja, as aplicações podem atuar como objetos móveis). Concomitante à tal reestruturação, surge a necessidade por serviços específicos e indispensáveis à efetivação satisfatória das funções idealizadas para o novo modelo. Dentre outros planejados, se destaca o serviço de monitoração dos objetos que compõem a arquitetura distribuída e dinâmica. A partir deste contexto e de sinais evidentes do inter-relacionamento da tecnologia de objetos distribuídos com a recente e promissora tecnologia de agentes móveis, o presente trabalho advoga o estudo e a consequente aplicação prática de um serviço de monitoração de objetos através da integração de um ambiente distribuído de agentes, os quais desfrutam de habilidades peculiares como autonomia e mobilidade, ao sistema de controle de satélites baseado em objetos distribuídos. ABSTRACT Following world-wide trend of both Information Technology Companies and renowned research institutes, computer systems preconize advantageous of distribution attributes and dynamism to the architectures currently under development. On board of promising prospects associated with such attributes, the Satellite Control System of the National Institute for Space Research, in particular, moves towards the reformulation of its infrastructure by the proposition of a modeling in which the applications in addition to their submitting to the dictates of distributed objects technology (that is, the applications are shaped as objects that can interoperate in mixed networks with different platforms) have present features that allow its mobility (that is, the application can act as mobile objects). Concomitant to this restructuring there is a need for essential and specific services to satisfactorily accomplish the idealized functions for the new model. Among others planned services, it highlights the one service of monitoring the objects that make up the distributed and mobile architecture. From this context and clear evidence of inter-relationships of distributed objects technology with the recent promising technology of mobile agents, this work advocates the study and practical application through implementation of a service for monitoring objects based on the integration of a distributed agents environment, which enjoy unique abilities such as autonomy and mobility, to the Satellite Control System based on distributed objects.
Full text: yes
Atualizar
 
  


   2001



Simulação numérica bidimensional de crescimento de ligas binárias utilizando processamento paralelo
Arai, N. N.

INPE-8752-TDI/795
Preto, Airam Jônatas (presidente)
Stephany, Stephan (orientador)
Fabbri, Mauricio (co-orientador)
Hernandes, Antonio Carlos

2001-02-28
A solidificação direcionada de ligas semicondutoras é uma das técnicas mais utilizadas para a obtenção de substratos cristalinos de alta qualidade, constituindo um protótipo de estudo de fenômenos de transporte macroscópicos envolvendo o acoplamento das equações de conservação de massa, momento e energia. As propriedades cristalinas do material obtido dependem fundamentalmente da morfologia e estabilidade da interface sólido-líquido durante o crescimento. O método numérico proposto resolve essas equações de transporte através da discretização por volumes de controle com acompanhamento da interface, e permite operar com propriedades do material e condições de contorno variáveis, incorporando detalhes do diagrama de fases da liga. Foram realizadas simulações bidimensionais de crescimento de ligas binárias utilizando malha fixa, as quais demandam processamento de alto desempenho, devido às altas resoluções temporal e espacial envolvidas. Isso levou a utilizar uma máquina multiprocessada e um multicomputador composto por 2 microcomputadores ligados em rede executando programas compilados em High Performance Fortran (HPF). ABSTRACT: The directional solidification of semiconductor alloys is an usual technique for the attainment of a high quality crystalline substratum. This technique is a prototype for the study of macrocospic transport phenomena and involves the coupling of the conservation equations for mass, moment and energy. The crystalline properties of the alloy depend basically on the morphology and stability of the solid-liquid interface during growth. The proposed numerical method solves these transport equations by discretization in control volumes with tracking of the interface. It allows for materials with variable properties and boundary conditions, and to include details of the alloy phase diagram. Two-dimensional, fixed-mesh simulations of binary alloy growth have been carried out. Due to the high spatial and temporal resolutions, these simulations were run on a multiprocessed machine and on a multicomputer composed by a cluster of two microcomputers. The programs were compiled in High Performance Fortran (HPF).
Full text: yes
Atualizar
 
  

Interação configurável entre/intra sistemas
Azevedo, D. N. R.
INPE--TDI/
Carvalho, Solon Venâncio de (presidente)
Cunha, João Bosco Schumann (orientador)
Nakanishi, Tatuo
Melnikoff, Selma Shin Shimizu

2001-04-18
A realidade atual, globalizada e altamente competitiva, influencia os diversos segmentos de mercado, incluindo o dos sistemas computacionais e, então, o do desenvolvimento de software. Neste segmento, como nos demais, esta realidade termina por colocar desafios, como a busca continuada por produtividade e qualidade. Por outro lado, um contexto globalizado traz, a1ém deste incremento na competitividade, os desafios da distribuição. As empresas têm seus negócios espalhados, encontram-se fisicamente distribuídas e possuem, normalmente, uma infra-estrutura computacional também distribuída. Além disso, pode-se dizer que, atualmente, as informações fazem parte do patrimônio de qualquer organização e mais valiosas se tornam a medida que conseguem estar disponíveis quando e onde se fazem necessárias. Visando este contexto - globalizado, competitivo e distribuído - este trabalho baseou-se na Arquitetura de Sistema de Software Configurável SOFTBOARD, proposta por Cunha (Cunha, 1997), por considerá-la uma importante ferramenta para o desenvolvimento produtivo e competitivo de software, buscando trazê-la para um mundo interativo e distribuído, através da definição de um Modelo de Interação Configurável Entre/Intra Sistemas. ABSTRACT: Nowadays with a globalized and competitive society, our reality influences several segments of the market and in it the computational systems are include and why not the software development. Not only in this last segment as for all of them, this competitive reality ends by imposing challenges and a continuing search for productivity and quality. Otherwise, a globalized context brings not only the increase of the competition but also the challenges of distribution. Companies have spread their business. They are physically distributed and they generally own a computational groundwork as well distributed. Besides, we can say that today the information is a part of each organization legacy and they become more valuable in proportion to their being available when and where they are needed. With a view in such context - globalized, competitive and distributive - this work has based on the Configurable Software System Architecture SOFTBOARD, proposed by Cunha (Cunha, 1997), for considering it an important tool for a productive and competitive software development, in an attempt to bring it to the interactive distributive world through the definition of a Configurable Interlintra Systems Interaction Model.
Full text: no
Atualizar
 
  

Horus: Uma ferramenta de diagnose cognitiva para sistemas educacionais adaptativos baseados na WEB
Gandolla, P.
INPE--TDI/
Guimarães, Lamartine Nogueira F. (presidente/orientador)
Oliveira, Carlos Alberto de (co-orientador)
Kienbaum, Germano de Souza
Guedes, Ulisses Thadeu Vieira
Oliveira, Gina Maira Barbosa de

2001-08-31
Nesse trabalho apresentam-se um modelo e uma arquitetura da ferramenta de diagnose cognitiva em Sistema Educacionais Adaptativos Baseados na Web: HORUS (Hypermedia-Oriented User-modeling Shell), uma ferramenta baseada em agentes inteligentes especialistas atuando em conjunto para diagnosticar as preferências e estlios de aprendizagem de um estudante particular, a partir de sua interação, via navegador, com um curso hipermídia ministrado a distância, através da Internet. Para demonstrar a facilidade dessa ferramenta implementou-se seu núcleo, usando a linguagem JAVA, sob uma arquitetura Cliente-Server, capaz de atuar em conjunto com os software navegadores disponíveis comercialmente, através da comunicação via protocolo HTTP. ABSTRACT: This work presents a model and an architecture of a cognitive diagnosis tool in Adaptive Educational Systems Based on the Web: HORUS (Hypermedia-Oriented User-modeling Shell), a tool based on specialist intelligent agents acting conjuction to diagnose preferencies and cognitive styles of a particular student, form his interaction, throug a navigation software, on a hypermedia course taken distance, throug Internet. ABSTRACT: To demonstrate the feasibility of this tool, its nucleus was implemented, using JAVA language, under a Client - Server architecture, acting together with navigation software available commercially, throug communication vis HTTP protocol.
Full text: no
Atualizar
 
  

Estudo sobre o efeito da utilização de padrões tabuleiros na produtividade do equipamento de cortes
Katsurayama, D. M.

INPE-8753-TDI/796
Lorena, Luiz Antônio Nogueira (presidente)
Yanasse, Horácio Hideki (orientador)
Soma, Nei Yoshihiro
Scrich, Cintia Rigão
Morabito Neto, Reinaldo

2001-04-16
Padrões tabuleiro, também conhecidos como padrões 1-grupo, pertencem a uma classe especial de padrões 2-estágios guilhotinados que não necessitam de recortes. Eles podem ser produzidos girando-se a serra de 90 graus, após os cortes do primeiro estágio. As faixas obtidas no primeiro estágio são cortadas todas juntas no segundo estágio. Tais padrões demandam menos tempo de máquina e são de particular interesse em ambientes de grande demanda. Um aumento eventual de perda de material é compensado pelo ganho em produtividade da máquina. Uma formulação não linear para o problema de geração de padrões tabuleiros foi apresentada anteriormente na literatura. Também heurísticas para obtenção de tais padrões foram sugeridas. Apresenta-se aqui um método exato para se encontrar padrões tabuleiros que é baseado em um algoritmo enumerativo para obtenção das K-melhores soluções para o problema da mochila unidimensional. O uso deste algoritmo permite considerar restrições adicionais ao problema básico da mochila sem grande esforço computacional, uma faceta de particular interesse em ambientes de corte onde geralmente, os padrões de corte precisam obedecer a restrições adicionais como número limitado de itens que a máquina de corte pode manipular, restrição de manipulações de materiais, etc. Neste trabalho serão discutidos aspectos computacionais para a implementação deste algoritmo e a viabilidade de sua aplicação prática. Também foi desenvolvida uma função custo que pode ser utilizada no modelo de Gilmore e Gomory (1963, 1965), e que leva em consideração o custo associado à perda de material e ao tempo de corte da chapa. Morabito e Arenales (2000)sugeriram a utilização de uma função simples com a adição de um custo fixo no caso de padrões não tabuleiros. Testes computacionais foram realizados para comparar os resultados obtidos utilizando-se a função de custo fixo de Morabito e Arenales e a nova função proposta. ABSTRACT: Checkerboard patterns, also known as 1-group patterns, belong to a special class of 2-stage guillotine patterns that do not need recuts. They can be produced turning the saw in 90 degrees, after the first stage cuts. The strips obtained in the first stage are all cut together in the second stage. Such patterns demand less machine time, and are of particular interest in high demand settings. An eventual increase in loss of material is compensated by the higher productivity of the machine. A nonlinear formulation of the checkerboard pattern generation problem was presented previously in the literature. Also, heuristics for determining such patterns were suggested. We present here an exact method to determine such patterns, based on an enumerative algorithm for determining the K-best solutions of the unidimensional knapsack problem. The use of this algorithm allow us to consider additional constraints, to the basic knapsack problem, without much effort. This feature is of particular interest in cutting environments where, generally, the patterns must obey additional constraints, such as, limited number of different itens that a cutting machine may handle, material handling constraints, etc. In this work, we focus on some computational aspects of the implementation of this algorithm and the feasibility of its practical use. We also developed a cost function which can be used in the model of Gilmore and Gomory (1963, 1965), that takes into account the cost associated with the waste of material and the board cutting time. Morabito and Arenales (2000)suggested the use of a simple function with the addition of a fixed cost in the case of non-checkerboard patterns. Computational tests were performed to compare the results obtained using Morabito and Arenales fixed cost function and the new proposed function.
Full text: yes
Atualizar
 
  

Análise do comportamento de modelos dinâmicos com ruído caótico utilizando controle baseado em lógica nebulosa
Silva, G. A. S.

INPE-8698-TDI/791
Rios Neto, Atair (presidente)
Guimarães, Lamartine Nogueira Frutuoso (orientador)
Silva, José Demisio Simões da
Oliveira, Gina Maria Barbosa de

2001-09-28
Este trabalho apresenta a lógica nebulosa aplicada ao controle de modelos de sistemas dinâmicos. 0 controle baseado em lógica nebulosa pode ser utilizado como uma alternativa bastante interessante aos controladores clássicos PI, uma vez que se aproximam mais da experiência humana. Foram utilizadas, para o controle nebuloso, três relações de implicação diferentes: Mamdani Min, Larsen e Takagi-Sugeno. Com isto, foi possível analisar diferentes estratégias de controle nebuloso e realizar comparações entre as mesmas com o objetivo de inferir qual oferece o melhor desempenho para cada modelo dinâmico. 0 controlador PI, por estar presente há muitos anos na indústria e apresentar um bom grau de confiabilidade, é utilizado como um padrão para validar os controladores nebulosos. Assim, o mínimo que se espera dos controladores nebulosos, no contexto deste trabalho, é um comportamento semelhante ao controlador PI. Foram introduzidas, ainda, perturbações nos modelos dinâmicos, as quais possibilitaram uma melhor avaliação do desempenho dos controladores nebulosos através da análise do comportamento dos modelos dinâmicos. Foram utilizadas duas perturbações, a primeira, é bem comportada do tipo rampa, que produz uma mudança de comportamento suave nos modelos. A segunda é um ruído caótico que, por apresentar características como não periodicidade e irregularidade, produz um comportamento mais brusco, dificultando ainda mais a ação dos controladores. A utilização do ruído caótico como uma ferramenta para análise do comportamento de modelos dinâmicos é uma contribuição importante deste trabalho. Como conclusão geral, o melhor desempenho, dentre os controladores nebulosos recaiu sobre o modelo de inferência Takagi-sugeno. ABSTRACT: This work presents an application of fuzzy control on dynamical system models. It has been observed that fuzzy controllers maybe used as a good alternative to the classical PI controller, once it incorporates human line behavior. Three implication relationships were used for the fuzzy controllers, namely, Mamdani Min, Larsen and Takagi-Sugeno. Performance comparisons were made aiming at achieving the best performance for each model used. The PI controller was used as a minimum standard, once it has been present in the industry for many years, giving acceptable performances and some degree of reliability. Two kinds of perturbations were introduced in the models to test the controllers: a ramp and chaotic perturbations. The first one is a monotonic, standard increase of an input parameter. The second one presents non-periodicity and irregularity in such a way to be quite rough to the controllers. The chaotic signal, as an analysis tool to dynamical systems, is an interesting contribution of this work. As a general conclusion it can be said the best performance, in this work, was achieved by the Takagi-Sugeno fuzzy controller.
Full text: yes
Atualizar
 
  

Sistema de simulação acelerado para análise de fluxo de tráfego aéreo
Silva, A. M. G.

INPE-8761-TDI/801
Carvalho, Solon Venâncio de, (presidente)
Nakaniski, Tatuo, (orientador)
Cunha, João Bosco Schumann, (orientador)
Kienbaun, Germano de Souza
Fumagalli, Marco Antonio

2001-04-27
Esta dissertação tem por objetivo descrever um sistema de software denominado Sistema de Simulação Acelerado para Análise de Fluxo de Tráfego Aéreo, desenvolvido com o propósito de prover informações sobre a demanda futura de tráfego no espaço aéreo e nos aeródromos nacionais aos gerentes do Gerenciamento de Fluxo de Tráfego Aéreo (ATFM), de modo a permitir aos mesmos identificar, por antecipação, a ocorrência de extrapolação da capacidade dos respectivos setores de controle de tráfego aéreo, num determinado período, em um determinado dia. Este trabalho contém a descrição da atividade de Gerenciamento de Fluxo de Tráfego Aéreo (ATFM)no contexto mais amplo que é o Gerenciamento de Tráfego Aéreo (ATM), para situar o problema que foi resolvido pelo Sistema de Simulação Acelerado para Análise de Fluxo de Tráfego Aéreo desenvolvido neste trabalho. Espera-se que este trabalho possa contribuir para dotar os gerentes ATFM brasileiros de uma ferramenta efetiva de suporte à decisão no processo de análise, avaliação e solução dos problemas relacionados ao binômio Capacidade vs. Demanda de Tráfego Aéreo, no contexto do futuro Sistema de Gerenciamento de Fluxo de Tráfego Aéreo do Brasil. ABSTRACT: This dissertation has for objective to describe a software system entitled "Accelerated Simulation System for Air Traffic Flow Analysis". Such system was developed with the purpose of providing information about air traffic future demand in the national airspace and airports for the Air Traffic Flow Management (ATFM)managers, in order to make possible them to identify, by anticipation, the occurrence of capacity overflowing in the respective air traffic control sectors, in a given period, in a given day. This work contains the description of Air Traffic Flow Management (ATFM)activity, in the context ampler that it is the Air Traffic Management (ATM), to point out the problem that was decided by the Accelerated Simulation System for Air Traffic Flow Analysis developed in this work. It is hoped this work can contribute to provide the Brazilian ATFM managers with an effective decision support tool in the process of analysis, evaluation and solution of the problems related to the Air Traffic Capacity versus Demand, in the context of the future Brazilian Air Traffic Flow Management System.
Full text: yes
Atualizar
 
  

Estratégias e padrões para a modelagem da interface humano-computador de sistemas baseados na arquitetura softboard
Siqueira, E. G.

INPE-9621-TDI/844
Carvalho, Solon Venâncio de
Cunha, João Bosco Schumann (presidente)
Sant'Anna, Nilson
Melnikoff, Selma Shin Shimizu

2001-10-01
O uso de computadores pela sociedade cresce continuamente. Contudo, para que esse uso seja eficaz e eficiente, há de se considerar a interface humano-computador dos sistemas computacionais. A interface influencia na satisfação e na eficiência dos usuários, nos custos de treinamento, suporte técnico e operação, e em alguns casos, na própria segurança das pessoas. Visando a melhoria da qualidade dos sistemas de software, e mais especificamente, na interface humano-computador, neste trabalho é apresentado um conjunto de estratégias e padrões para a modelagem da interface humano-computador dos sistemas baseados na arquitetura SOFTBOARD. Buscando a melhoria da produtividade das equipes de desenvolvimento, também se define um modelo dos metadados necessários para o Componente Interface Humano-Computador dessa arquitetura, para que o mesmo possa ser configurado a fim de atender a diferentes aplicações. ABSTRACT: The use of the computers by society is growing. However, for this use to be efficient and effective, it is necessary to consider the computer system?s human-computer interface. The interface influences the user?s satisfaction and productivity, the training, then technical suport and the operation costs, and in some cases, even people?s safety. Aiming at better software systems? quality, more especifically for human-computer interface, this research is presented as a set of strategies and patterns for SOFTBOARD-based systems? human-computer interface modelling. In order for developers to achieve better productivity, this research also defines a metadata model which is necessary to the Human-Computer Interface Component of SOFTBOARD. This allows it to be configured for use in different applications.
Full text: yes
Atualizar
 
  

Um estudo de simulação do sistema brasileiro de coleta de dados baseado em satélites
Travassos, P. R. N.

INPE-8580-TDI/786
Nakaniski, Tatuo (presidente)
Kienbaum, Germano de Souza (orientador)
Guimarães, Lamartine Nogueira F.
Hirata, Celso
Saliby, Eduardo

2001-08-27
O Sistema Brasileiro de Coleta de Dados utilizado nas aplicações ambientais baseada em satélites é composto por plataformas de coleta de dados, pelos satélites retransmissores, pelas estações terrenas receptoras, e pelo Centro de Missão. Este trabalho realiza um estudo de simulação sobre este sistema, cobrindo principalmente as fases do ciclo de vida do modelo relacionadas com a definição de objetivos, a especificação de requisitos e a implementação de um protótipo básico de um simulador. O sistema é modelado na forma de uma rede de comunicação de dados que possui enlaces baseados em satélites, com o objetivo de se estudar o tráfego de mensagens entre seus nós, utilizando-se o simulador para a análise de sua configuração, de sua operação e de seu desempenho. O trabalho abrange aspectos teóricos, relativos à modelagem utilizando-se uma metodologia baseada em orientação a objetos, bem como aspectos práticos, relativos ao desenvolvimento do simulador e à utilização da linguagem de simulação MODSIM III na sua implementação. ABSTRACT: The Brazilian Satellite Based Data Collecting System comprises a network of data collecting platforms distributed over the country, various satellites, the receiving ground stations, and the Mission Control Center. This work carries out a comprehensive simulation study of this system, covering mainly the phases of objectives definition, requirements specification and implementation of a basic prototype of a simulator. The system is modeled as a data communication network with satellites based links, with the main objective of studying the traffic of messages between its nodes, based on the use of the simulator for system's configuration, operation and performance analysis. The work comprises theoretical aspects, related with its modeling based on an object-oriented approach, as well as practical ones, related with the development and the use of the simulator, implemented using the simulation language MODSIM III.
Full text: yes
Atualizar
 
  


   2002



Estimativa de padrões espaço temporais utilizando redes neurais artificiais do tipo perceptron de múltiplos comandos com aplicações em física solar
Andrade, M. C.
INPE--TDI/
Silva, José Demisio Simões da (presidente)
Rosa, Reinaldo Roberto (orientador)
Rios Neto, Atair (co-orientador)
Sawant, Hanumant Skankar
Fernandes, Francisco Carlos Rocha
Sodré Junior, Laerte

2002-06-18
Este trabalho avalia a aplicação de redes neurais artificiais do tipo Perceptron de Múltiplas Camadas para estimação de padrões espaço-temporais, usando o algoritmo de aprendizagem Filtro de Kalman e comparando para tanto seu desempenho em relação aos algoritmos de Retropropagação do erro e Levenberg-Marquardt. O estudo de caso consiste na aplicação do Perceptron de Múltiplas Camadas na estimativa de padrões espaço-temporais na evolução de regiões ativas solares, observadas através de séries temporais de imagens. Utilizam-se imagens de alta resolução que foram obtidas pelo telescópio do satélite solar Yohkoh em raios-X moles, e pelo telescópio do satélite solar Soho em ultravioleta. Para teste de desempenho usa-se a técnica de Análise de Padrões Gradientes (GPA), o Erro Quadrático Médio e a visualização das imagens. O operador de Fragmentação Assimétrica de Amplitudes (Asymmetric Amplitude Fragmentation - AAF), inerente à técnica GPA, está sendo pela primeira vez utilizado para este fim, ou seja, para teste de desempenho de redes neurais aplicadas à estimação de padrões espaço-temporais. Os resultados confirmam a eficiência e eficácia das redes neurais artificiais como ferramenta para estimativas de padrões espaço-temporais com este tipo de aplicação, e indicam que o algoritmo de aprendizagem Filtro de Kalman comparado aos de Retropropagação do erro e Levenberg-Marquardt apresentou grau de eficácia semelhante na aprendizagem, no entanto sua eficiência, do ponto de vista computacional, é menor (seu tempo de processamento é maior). Também como resultado deste trabalho, os testes de validação do desempenho das redes neurais confirmam a utilidade do operador AAF para caracterização de desempenho de algoritmos geradores de padrões espaço-temporais. ABSTRACT: This work evaluates the application of Multilayer Perceptron Neural Networks for the spatiotemporal patterns estimation problem and compare the performance of Kalman Filtering to the Backpropagation and Levenberg-Marquardt training algorithms. This study consists of applying Multilayer Perceptron to spatiotemporal patterns estimation in the evolution of solar active regions using temporal series images. The high resolution images have been obtained through the Yohkoh solar satellite telescope in soft X-ray, and Soho solar satellite telescope in ultraviolet. The performance test in this application is done by using the mean squared error, image visualization and the Gradient Pattern Analysis (GPA) techniques, using the operator for characterization of Amplitude Asymmetric Fragmentation (AAF). The Amplitude Asymmetric Fragmentation operator is being used for the first time used in a performance test with a neural network applied in spatiotemporal patterns estimation. The results confirm the efficiency and efficacy of artificial neural networks as a tool to estimate spatiotemporal patterns in this kind of application. The tests indicate that Kalman Filtering compared to the Backpropagation and Levenberg-Marquardt algorithm showed a similar efficacy to learn the patterns, however with a worse efficiency in the computational viewpoint, that is, taking a longer processing time. Also, as a result of this work, the Artificial Neural Network performance validation tests confirm the utility of the Amplitude Asymmetric Fragmentation operator for the performance characterization of algorithm generators of spatiotemporal patterns.
Full text: no
Atualizar
 
  

Uma ferramenta para extrair e processar dados do sensor SEAWIFS
Arai, E.
INPE--TDI/
Vijaykumar, Nandamudi Lankalapalli (presidente)
Ninh, Carlos Ho Shih (orientador)
Shimabukuro, Yosio Edemir (co-orientador)
Ferreira, Nelson Jesus
Bastos, Eduardo Jorge de Brito

2002-09-13
Atualmente existem uma diversidade de satélites de recursos naturais, que caregam a bordo sensores multiespectrais, que fornecem dados que podem ser utilizados de várias formas. Dentre estes sensores destaca-se Sea-viewing Wide Field-of-view sENSOR (seaWIFS), que está a bordo do satélite Seastar e foi concebido para examinar os fatores biogeoquímicos que afetam as mudanças climáticas globais. As imagens deste sensor se encontram disponíveis no formato Hierarchical Data Formal (HDF), que a NASA definiu como padrão para amarzenar e disseminar os dados dos novos sensores sob sua responsabilidade. A falta de uma ferramenta para manipular dados do sensor SeaWIFS na plataforma PC/Windows motivou a execusão deste trabalho. Assim, apresenta-se uma ferramenta, WinSWHDF, para extrair e processar os dados provinientes deste sensor. Devido a característica da variedade de dados gerados pelo sensor SeaWIFS, o formato HDF é capaz de acomodar essas informações de forma organizada e confiável. A ferramenta desenvolvida, é capaz de extrair não só as imagens, mas tambèm os dados de navegação para possibilitar a conversão para a projeção cilíndrica equidistante. Na correção radiométrica foi implemetado somente a correção devido a degradação dos detectores do sensor com o tempo. Além disso, a ferramenta oferece a opção de realizar a correção atmosférica. O WinSWHDF foi desenvolvido em ambiente Windows possuindo recursos de visualização e processamento de imagens, composição de mosaicos e a sobreposição do contorno político do Brasil e de seus estados. A ferramenta desenvolvids permite gerar vários produtos para diferentes áreas de pesquisa. Implementou-se tambèm nesta ferramenta, rotinas para o cálculo do índice de vegetação por diferença normalizada (IVDN) para estudo da cobertura vegetal, que foi utilizado para a avaliação dos dados SeaWIFS. ABSTRACT: Currently exist a diversity of earth Observation satellites, that carry on board a variety of multispectral sensors, providing data that can be used in serveral forms. Amongst these sensors we can mention the Sea-viewing Wide Field-of-view Sensor (SeaWIFS), which is on board the Seastar satellite and was conceived to study biogeochemicastry factors that affect global climate changes. The data from this sensor ae available in Hierarchical Data Format (HDF), that NASA defined as the standard formart for storage and distribution of the data from new sensors under its responsibility. The lack of tools to manipulate data from SeaWIFS in the PC/Windows platform motivated the development of this work. Then work describes a tool for extracting and processing the data acquired by this sensor. Due to the characteristic of the variety of the data from this sensor , HDF is capable to accomodate these information in an organized and reliable form. The developed tool, Win SWHDF, is capable to extract the images, and also the navigation and calibration information, which are used in their geometric and radiometric corretions. For the geometric corretion, a navigation algorithm was implemented to make possible the conversion, a equidistant cylindrical projection. The radiometric correction is performed to compensate the degradation of the sensor's detectors. Moreover, the tool offers the option to apply the atmospheric corretion. The WinSWHDF was developed in Windows platform providing resources of images visualization and processing composition of mosaics and the overlapping of the political contour of Brazil and its States. The developed tool allows to generate some products for different research areas. For this work, the Normalized Difference Vegetation Index (NDVI) to study vegetation cover was generated in oder to evaluate the SeaWIFS data.
Full text: no
Atualizar
 
  

Análise de estado de tráfego de redes TCP/IP para aplicação em detecção de intrusão
Chaves, M. H. P. C.

INPE-9625-TDI/845
Guedes, Ulisses Thadeu Vieira (presidente)
Montes Filho, Antonio (orientador)
Cansian, Adriano Mauro

2002-09-23
Este trabalho apresenta o desenvolvimento de uma metodologia de reconstrução de sessões para o tráfego de redes TCP/IP. Esta metodologia baseia-se em um modelo, gerado a partir de dados extraídos do tráfego de rede, que permite reconstruir e rastrear o estado das sess~oes, utilizando apenas o cabe calho dos pacotes. Através da extrapolação do conceito de "sessão", esta modelagem permite não são reconstruir e rastrear o estado das sessões TCP, mas também reconstruir sessões ICMP e UDP. O modelo é, então, utilizado como base para o desenvolvimento do Sistema de Reconstrução de Sessões TCP/IP - RECON - para ser usado em atividades associadas à detecção de intrusão. Esta abordagem possibilita a redução do n umero de falso-positivos e falso-negativos, visto que o estado e todo o histórico de pacotes que comp~oem uma sess~ao podem ser utilizados na tomada de decisões, em contrapartida daquelas que tomam decisões avaliando pacote a pacote, isoladamente. Ela tamb em permite correlacionar informações de um conjunto de sessões na identicação de atividades hostis, que n~ao podem ser observadas em uma única sessão. O sistema faz uso de um sensor, posicionado adequadamente para coleta de pacotes do tráfego, que armazena os dados em arquivos periodicamente. Estes arquivos são transferidos para uma estacão de análise, onde o RECON de executado. Uma caracteristica desta metodologia de que ela permite tratar uma quantidade relativamente grande de informações, pois utiliza um número reduzido de dados por pacote, correspondentes apenas aos seus cabeçalhos. O sistema desenvolvido pode também funcionar como uma ferramenta de suporte, aplicado não são em atividades de detecção de intrusões, mas também a outras atividades, tais como o gerenciamento, monitoramento e estudo do importamento do tráfego de redes TCP/IP. Finalmente, s~ao relatados os resultados obtidos com o sistema desenvolvido, mostrando a eficiencia, capacidade e possibilidades de sua aplicação. ABSTRACT: In this work, the development of a session reconstruction methodology for TCP/IP network traffic is presented. The methodology is model-based and uses netwok traffic extracted data for the reconstruction and tracking of sessions state using only packet headers. By extrapolating the concept of session this modeling allows not just the reconstruction and tracking of TCP sessions states, but also the reconstruction of ICMP and UDP sessions. The model has been designed to support the development of the TCP/IP Session's Reconstruction System - RECON - for use in intrusion detection. Since the state and packets history associated with a session can be used to decide if the traffic is part of an attack, differently from other methods that based decisions on a packet by packet exam, the use of this methodology can reduce the number of false-positives and false-negatives. It also possible to correlate informations from a set of sessions for the identification of hostile activities that can not be observed in an isolated session. The system makes use of a sensor that is appropriatedly located to capture packets from network traffic and to store captured data in files regularly. This files are transfered to an analysis station, where RECON runs. One feature of this methodology is the ability to treat large amount of traffic, due to the use of a reduced amount of data associated with the packet headers. The developed system can also operate as a support tool, applied not just to intrusion detection but also to the management, monitoring and testing of TCP/IP network traffic. Finally, the results obtained with the developed system are reported and showing the efficiency, capability and possible applications.
Full text: yes
Atualizar
 
  

Sistema semi-automático de registro e mosaico de imagens
Fedorov, D.

INPE-9582-TDI/838
Monteiro, Antônio Miguel Vieira (presidente)
Fonseca, Leila Maria Garcia (orientadora)
Silva, José Demisio Simões da
Costa, Max Henrique Machado

2002-08-16
Registro de imagens é uma operação importante para aplicações de sensoriamento remoto que basicamente envolve a identificação de muitos pontos de controle nas imagens. Como a identificação manual de pontos de controle pode ser demorada e tediosa foram desenvolvidas várias técnicas automáticas. Este trabalho descreve um sistema semi-automático de registro e mosaico de imagens de sensoriamento remoto desenvolvido em cooperação entre Divisão de rocessamento de Imagens (INPE) e o Laboratório de Visão (Universidade de Califórnia, Santa Barbara). No sistema são implementados três algoritmos de registro que demonstraram potencial para registro de imagens multi-temporais e multi-sensores. O sistema é projetado para aceitar diferentes tipos de dados e agregar conhecimentos do usuário para acelerar o processo e evitar erros. Baseando-se em um procedimento estatístico que caracteriza os registros bons e ruins, o usuário pode parar ou continuar modificando os parâmetros do processo. Testes exaustivos foram executados registrando imagens de radar, imagens multi-sensores, imagens de alta resolução e seqüências de vídeo. Além disso, o sistema foi testado operacionalmente por profissionais de sensoriamento remoto do INPE utilizando imagens de cenas inteiras do Landsat, JERS-1, CBERS-1 e imagens aéreas. Foi criada uma demonstração on-line do sistema ttp://regima.dpi.inpe.br que contém vários exemplos que podem ser executados usando web browser. ABSTRACT: Image registration is an important operation in remote sensing applications that basically involves the identification of many control points in the images. As the manual identification of control points may be time-consuming and tedious several automatic techniques have been developed. This paper describes a system for automatic registration and mosaic of remote sensing images under development at the Division of Image Processing (National Institute for Space Research - INPE) and the Vision Lab (Electrical & Computer Engineering department, UCSB). Three registration algorithms, which showed potential for multisensor or temporal image registration, are implemented. The system is designed to accept different types of data and information provided by the user that are used to speed up the processing or avoid mismatched control points. Based on a statistical procedure used to characterize good and bad registration, the user can stop or modify the parameters and continue the processing. Extensive algorithm tests have been performed by registering optical, radar, multisensor, high-resolution images and video sequences. Furthermore, the system has been tested by remote sensing experts at INPE using full scene Landsat, JERS-1, CBERS-1 and aerial images. A system online demo (http://nayana.ece.ucsb.edu/registration) that contains several examples that can be executed using web browser is available.
Full text: yes
Atualizar
 
  

Evolução da qualidade de software: um caminho viável
França, S.

INPE-10557-TDI/943
Sant'Anna, Nilson (presidente)
Nakanishi, Tatuo (orientador)
Cunha, João Bosco Schumann (co-orientador)
Spinola, Mauro de Mesquita
Melnikoff, Selma Shin Shimizu

2002-03-28
A necessidade de melhoria do processo de desenvolvimento de software tornou-se consenso na comunidade de informática há aproximadamente 10 anos, acompanhando a massificação da Engenharia de Software. Os chamados modelos de melhoria de processos, tais como o Capability Maturity Model (CMM) e o Software Process Improvement and Capability Determination (SPICE), apresentam conceitos e recomendações que contam com aceitação da maioria dos profissionais de informática, porém, a despeito da aceitação das teorias, na prática, a adoção de tais recomendações ainda está longe de atingir a maioria das organizações que desenvolvem software no Brasil e no mundo. Esta situação, e, conseqüentemente, a implementação prática dos conceitos e recomendações de tais modelos é o foco principal de interesse deste trabalho. O Instituto Nacional de Pesquisas Espaciais (INPE) é um local onde tal situação pode ser comprovada, pois tentativas de sucesso foram feitas por alguns departamentos, de maneira isolada, enquanto vários outros departamentos permaneceram à margem desta evolução, falhando em suas tentativas ou, eventualmente, nem mesmo tendo-as feito. Tendo como base a situação específica do ambiente do departamento Serviço de Recursos Computacionais (SRC), deste INPE, esta dissertação apresenta uma proposta sobre como estruturar e organizar um ambiente que permita a este departamento - assim como qualquer organização em situação semelhante - desenvolver a infra-estrutura e implementar um conjunto de atividades que permitam, de maneira gradual e com custos compensadores, atingir a desejada evolução da qualidade do processo de desenvolvimento de software. A fim de ressaltar os aspectos de viabilidade e praticidade da proposta aqui contida, este trabalho apresenta, além deste conjunto de atividades, modelos e documentos que as exemplificam, assim como um conjunto de critérios que permite a seleção de ferramentas CASE para sua automação. ABSTRACT: The need for software development process improvement has been widely accepted in the Information Technology (IT) community for the last 10 years, following the Software Engineering boom. The so called software process improvement models, such as Capability Maturity Model (CMM) and the Software Process Improvement and Capability Determination (SPICE), present concepts and recommendations which find wide acceptance by most IT professionals, but nevertheless, despite the acceptance of the theories, the adoption of such recommendations in practice is still far from reaching most software development organizations in Brazil and throughout the world. This situation, hence, the practical implementation of those models recommendations and concepts is the main focus of this work. The National Institute for Space Research (INPE) displays an environment where such situation can be verified, since successful attempts were made by some departments separately, meanwhile others did not achieve such evolution, either failing their attempts, or, sometimes, not even making an attempt. Based on a specific situation and environment at INPE Computer Resources Department (SRC), this paper presents a proposition for one way of structuring and organizing an environment which will provide this department - and any organization in a similar condition - with infrastructure and the ability to implement a set of activities (framework) which will, in a progressive and cost-effective way, guide to achieve the desired software process improvement. In order to stand out the feasibility and practicability aspects of this proposition, this work presents, besides the framework of activities, templates and documents to be considered as examples and a set of criteria for selecting CASE tools, which automate them.
Full text: yes
Atualizar
 
  

GEOBR: intercâmbio sintático e semâtico de dados espaciais
Lima Júnior, P. O.

INPE-11256-TDI/948
Monteiro, Antônio Miguel Vieira (presidente)
Câmara Neto, Gilberto (orientador)
Paiva, João Argemiro de Carvalho (co-orientador)
Fonseca, Frederico Torres

2002-07-24
O intercâmbio de dados espaciais é uma questão importante no uso das geotecnologias, impulsionada principalmente pelo alto custo de produção deste tipo de dado e sua necessidade para produção de informações geográficas. É também um desafio, pois ressalta o problema da interoperabilidade entre os sistemas concebidos para armazenar, visualizar e manipular dados espaciais, denominados Sistemas de Informação Geográfica. Cada Sistema de Informação Geográfica (SIG) é desenvolvido independentemente e utiliza um modelo conceitual próprio sem a preocupação em seguir um modelo ou terminologia comum. O resultado é um ambiente heterogêneo onde cada organização tem sua maneira de tratar a informação espacial, vinculada ao SIG por elas adotado. Distorção de dados e perda de informação, são problemas que freqüentemente aparecem em uma troca de dados entre organizações que usam SIGs distintos. Este cenário é propício ao desenvolvimento de modelos e formatos de dados que são capazes de representar diferentes tipos de informação geográfica e promover a interoperabilidade entre SIGs distintos. Este trabalho descreve o desenvolvimento de um formato para intercâmbio sintático e semântico de dados espaciais, entre diferentes SIGs, e um software de código aberto para visualização e conversão de arquivos em formatos de diferentes SIGs do mercado e o formato proposto. ABSTRACT: The exchange of spatial data is an important issue in the use of the geotecnologias, impelled mainly by the high cost of production of this dice type and its need for production of geographical information. It is also a challenge, because it stands out the problem of interoperability among the systems conceived to store, visualize and manipulate spatial data, denominated Geographic Information Systems (GIS). Each GIS software is developed independently and it uses an own conceptual model without the concern in following a common model or common terminology. The result is a heterogeneous environment where each organization has its way to treat the spatial information, linked to the GIS by them adopted. Data distortion and loss of information are problems that frequently appear in a change of data among organizations that use different GIS. This scenery is favorable to the development of models and formats of data that are capable to represent different types of geographical information and to promote the interoperability among different GIS softwares. This work describes the development of a format for syntactic and semantic exchange of spatial data, and an open source software for visualization and conversion of files in formats of different GIS softwares of the market and the proposed format.
Full text: yes
Atualizar
 
  

Algoritmo genético híbrido como um método de busca de estados estacionários de sistemas dinâmicos
Medeiros, F. L. L.

INPE-13913-TDI/1058
Silva, José Demisio Simões da (presidente)
Guimarães, Lamartine Nogueira Frutuoso (orientador)
Lorena, Luiz Antônio Nogueira
Monard, Maria Carolina

2002-05-23
O objetivo do trabalho é a elaboração de um algoritmo genético híbrido que pode ser utilizado como um método para solucionar o problema de determinação do estado estacionário de sistemas dinâmicos. O algoritmo genético híbrido é formado por um algoritmo genético tradicional e por um método de divisão do espaço de busca, que apresenta um interessante meio de realizar tal divisão. Os operadores genéticos mutação heurística, mutação heurística não uniforme e o procedimento epidemia foram criados para auxiliar o algoritmo genético. O algoritmo desenvolvido comportou-se eficientemente, quando foi aplicado aos modelos numéricos de três sistemas geradores de vapor e de uma aeronave hipersônica. Algumas aplicações a clássicos problemas de otimização foram também efetuadas. ABSTRACT: The objective of the work is the elaboration of a hybrid genetic algorithm that can be used as a method for solving the problem of determination of the steady state of dynamical systems. The hybrid genetic algorithm is formed by a genetic algorithm and a method of division of the search space, that it presents an interesting way of accomplish such division. The genetic operators heuristic mutation, heuristic mutation not uniforme and the epidemy procedure were created for aiding the hybrid genetic algorithm. The developed algorithm behaved with efficiency, when it was applied to numeric models of three generating systems of vapor and of a hypersonic aircraft. Some aplications to classic problems of optimization were also made.
Full text: yes
Atualizar
 
  

Serviço de persistência para ambientes distribuídos explorando os recursos do repositório de interfaces
Pereira, P. M.

INPE-9254-TDI/816
Carvalho, Solon Venâncio de
Nakanishi, Tatuo, (orientador)
Ferreira, Maurício Golçalves Vieira, (orientador)
Sant'Anna, Nilson
Melnikoff, Selma Shin Shimizu

2002-02-27
Esta dissertação de mestrado apresenta uma nova abordagem para a persistência de objetos em ambientes distribuídos. Idealizou-se neste trabalho um serviço de persistência para a arquitetura SICSD. A arquitetura SICSD mostra-se como uma arquitetura flexível e dinâmica para ambientes distribuídos que se aplica ao software de controle de satélites utilizado pelo INPE (Instituto Nacional de Pesquisas Espaciais). A idéia da arquitetura SICSD consiste em organizar tal software em objetos que possam migrar dinamicamente de uma máquina para outra conforme as solicitações dos controladores e do estado da rede de computadores utilizada para o controle de satélites. A comunicação neste ambiente distribuído faz-se através de um middleware que implementa a especificação Common Object Request Broker Architecture (CORBA). A arquitetura SICSD disponibiliza funcionalidades comuns a qualquer aplicativo destinado ao controle de satélites (processamento de telemetria, envio de telecomando, etc). Disponibiliza também uma variedade de serviços que viabilizam o funcionamento satisfatório do ambiente distribuído. O Serviço de Persistência Proposto (SPP)para a arquitetura SICSD foi idealizado com o objetivo de reduzir o esforço de programação dos desenvolvedores de software. A utilização do SPP evita que o desenvolvedor necessite escrever código para a persistência de seus objetos. O SPP propõe uma inovação que se caracteriza pela utilização do repositório de Interfaces. O Repositório de Interfaces é um recurso encontrado em implementações da especificação CORBA. Contém informações sobre as interfaces dos objetos distribuídos por um sistema baseado em CORBA, como é o caso da arquitetura SICSD. Fazendo uso dos recursos do Repositório de Interfaces, o SPP conhece em tempo de execução os atributos que caracterizam o estado de um objeto, podendo acessar dinamicamente seus métodos. Assim é possível recuperar o estado do objeto da memória e armazená-lo no banco de dados. O ganho ao explorar o Repositório de Interfaces reside no fato de que alterações nos atributos de um objeto são imediatamente refletidas em sua interface e conseqüentemente disponíveis para o SPP. Além disso, o uso do Repositório de Interfaces torna o SPP extensível a adição de novos objetos sem a necessidade de uma recompilação de código. Abstract - This dissertation presents a new approach to the persistence of objects in distributed environments. Service persistence for a SICSD architecture was the focus of this research. SICSD architecture has shown itself to be both flexible and dynamic in the distributed environments of the satellite control software used at the Brazilian National Space Research Institute (INPE). The idea behind the SICSD architecture is to organize the software in objects so that they can migrate from one machine to another according to controller demands and according to the state of the computer network used to control the satellites. Communication within this distributed environment takes place through middleware that implements the CORBA (Common Object Request Broker)specification. The SICSD architecture makes common functions available to any application designed o control the satellites (telemetry processing, sending telecommands, etc.)It also provides for a variety of services necessary for the proper functioning of the distributed environment. The Proposed Persistence Service (PPS)for a SICSD architecture was designed to reduce the programing workload of software designers. With PPS, the designer does not have to write a code for the persistence of the objects. The designer only has to delegate the execution of the persistence process to PPS in the code lines. PPS innovates through the use of the Interface Repository. The Interface Repository is a resource found in the implementation of the CORBA specification. The repository contains information about the interfaces of the distributed objects in a CORBA-based system such as that found in the SICSD architecture. Using Interface Repository resources, PPS knows which attributes characterize the state of an object during execution, having the capacity to access its methods dynamically. This makes it possible to recover the state of the object from the memory and save it in the database. The advantage of exploring the Interface Repository derives from the fact that changes in object attributes are immediately reflected in its interface and, thus, available to the PPS. Moreover, the Interface Repository makes the PPS open to the addition of new objects without having to recompile the code.
Full text: yes
Atualizar
 
  

Determinação de pontos fixos e órbitas periódicas em sistemas caóticos
Roth, B. A. F.

INPE-9618-TDI/843
Velho, Haraldo Fraga de Campos (presidente)
Macau, Elbert Einstein Nehrer (orientador)
Terra, Maisa de Oliveira (co-orientador)
Aguirre, Luiz Antônio
Caldas, Iberê Luiz

2002-06-18
Este trabalho tem por objetivo a construção de um ambiente de estudo e de uma biblioteca para determinação de pontos fixos e periódicos em sistemas dinâmicos em evolução caótica. Para tanto, inicialmente são apresentados alguns conceitos básicos sobre sistemas dinâmicos caóticos, dando ênfase à importância da determinação de pontos fixos e órbitas periódicas nestes sistemas. Alguns métodos para determinação de pontos fixos e órbitas periódicas em sistemas dinâmicos caóticos representados por mapas, séries temporais e equações diferenciais são descritos. Foi introduzido um novo método como também adaptações e aprimoramentos em alguns dos métodos conhecidos. A fim de determinar a eficiência e a aplicabilidade de cada método estudado, análises e testes são apresentados. Por fim, no capítulo de conclusão, há análises comparativas entre os métodos de determinação de órbitas fixas e periódicas em sistemas caóticos, como também a descrição de possíveis trabalhos futuros a partir dos resultados obtidos. ABSTRACT: The goal of this work is the construction of a computacional environment of study and a library for determination of xed and periodic points in chaotic dynamical systems. To this end, initially some basic concepts chaotic dynamical systems are presented, giving emphasis to the importance of the determination of xed and periodic orbits in such systems. Some methods for determination of xed and periodic orbits in chaotic maps, time series and dierencial equations are described. In order to determine the eciency and applicability of each method, analyses and tests are presented. Finally, in the conclusion, there are comparative analyses among the methods and some suggestions for further research.
Full text: yes
Atualizar
 
  

Aspectos de mapas caóticos acoplados para processamento de informações
Sansão, J. C.

INPE-10040-TDI/884
Ramos, Fernando Manuel (presidente)
Macau, Elbert Einstein Neher, (orientador)
Terra, Maisa Oliveira
Grebogi, Celso
Viana, Ricardo Luiz

2002-02-27
Uma rede de mapas acoplados globalmente (GCM) é uma rede de elementos globalmente conectados. Neste trabalho primeiramente são investigados modelos baseados no GCM e na rede de Hopfield. Através de modificações, como mudança da dinâmica local do GCM (S-GCM) e auto-realimentação do elemento de processamento da rede de Hopfield, é possível usar os modelos como uma memória associativa. Em segundo, através da exploração da dinâmica caótica de modo a evitar mínimos espúrios, foi possível propor duas novas redes que primeiramente foram aplicadas em problemas de otimização, mas que são passíveis de processar informação de modo associativo. Uma delas é uma modificação da rede S-GCM com uma determinada taxa de auto-realimentação e a outra baseada em uma característica específica do GCM quando da troca de atratores da rede através de perturbações. Por fim, os resultados das redes são confrontados de modo a analisar de forma numérica o tamanho das bacias de atração, restrições impostas pelas arquiteturas, capacidade de memória, tempo de associação e a capacidade de minimização. ABSTRACT: A globally coupled map (GCM) model is a network of interconnected chaotic elements. In this work we investigate models based in the GCM and in the Hopfield network. Through modifications, like changing the local dynamics of the GCM (S-GCM) and'adding self-feedback to the processing element of the Hopfield network, it's possible to use the models as an assocíative memory. Also through the exploration of the chaotic dynamics in such a way to prevent spurious mínimums, ít is possible to propose two new networks that firstly were applied in optimization problems, that are also able to process information in a associative manner. One of them is a modification of the S-GCM with a determined self-feedback rate and the other, is based in a specific GCM's feature in respect to the changing of the network's attractor through pertubatíons. Finally, the results of the networks are numerically compared based on the size of the attraction basin, restrictions imposed by the arquítecture, memory capacity, association time, and mínímization capacity.
Full text: yes
Atualizar
 
  

Redes neurais e novos métodos de regularização em problemas inversos de condução de calor
Shiguemori, E. H.
INPE--TDI/
Ramos, Fernando Manuel (presidente)
Velho, Haraldo Fraga de Campos (orientador)
Silva, José Demisio Simões da (co-orientador)
Guimarães, Lamartine Nogueira F.
Braga, Antônio de Pádua

2002-02-27
Esta dissertação aborda o uso de redes neurais e de um novo operador de regularização, a Máquina Entropia Não-Extensiva, na solução de problemas inversos em condução de calor. As redes neurais artificiais são apresentadas como métodos alternativos na recuperação da condição inicial de contorno, problemas estes considerados mal-postos requerendo técnicas avançadas como método de regularização, quando resolvidos por métodos clássicos. Para uso da Máxima Entropia Não-Extensiva é considerado apenas o problema da recuperação da condição inicial. No uso de Redes Neurais Artificiais, estuda-se diferentes redes, como o Perceptron de Camadas Múltiplas com aprendizagem por retropropagação do erro, a rede Funções de Base Radial e uma rede com algortimo de Correlação em Cascata, treinadas com dois conjuntos de dados diferents: um contendo funções não-similares e outro funções similares. A análise de desempenho dos modelos de redes é feita apresentando-se dados não usados no treinamento, adicionando-se ou não ruído gaussiano a 5%. Nos experimentos relaizados observou-se que na faze de treinamento, a rede Funções de Base Radial convergiu para a solução, em ambos os problemas inversos estudados. Ea estimação da condição inicial exigiu um número muito maior de épocas de treinamentos. Com relação á recuperação da condição inicial utilizando entropia não-extensiva, boas inversões foram recuperadas utilizando o princípio de Hansen e o critério de Morozov na determinação do parâmetro de regularização. ABSTRACT: This dissertation discusses the use of Artificial Neural Networks and Non-extensive Entropy, a New Regularization Operator, to solve two Heat Conduction Problems. The Artificial Neural are presented as an alternative method in intial condution and boundary condition estimation. These problems require advanced tecniques to solve them when solved by classic methods, i.e. regularization methods. The new Regularization Operator was used only for the intial condition estimation problem. Using Artificial Neural Network, different kinds of Networks are studie namely, the Multilayer Perceptron with backpropagation algorithm learning, the Radical Basic Function Networks and Cascade Correlation Network. The three networks were trained with two different kinds of data sets: the first contaning similar-functions and the second non-similar functions.The perforace analysis of the networks models was done by introducing data that had not been used in the training data, adding 5% gaussian noise or not. During the experiments it was obeserved that the Radial Basis Function converged faster than the others, in both inserve problems under study. The initial condition estimation required a larger number of training epochs. Using Non-extensive Entropy in the initial condition, good estimates were obtained using the Hansen Principle and Morozov criterion and Morozov Criterion in regularization parameter determination.
Full text: no
Atualizar
 
  

Esqueletos 8-isotrópicos
Souza, A. F.

INPE-8856-TDI/804
Fonseca, Leila Maria Garcia (presidente)
Banon, Gerald Jean Francis (orientador)
Oliveira, João Ricardo de Freitas
Costa, Luciano da Fontoura

2002-02-27
Neste trabalho, dois novos algoritmos de esqueletização são apresentados. Um é seqüencial e o outro paralelo, ambos constituindo o mesmo processo de esqueletização que possui todas as propriedades desejáveis, inclusive a 8-isotropia. A isotropia é baseada em algumas propriedades originais dos subconjuntos abertos que são resultados de uma expansão por dilatação. Os algoritmos sugeridos consistem em técnicas eficientes e de fácil implementação. ABSTRACT: In this work, two new skeletonization algorithms are presented. One is sequential and the other is parallel, both consisting of the same skeletonization process which has all required properties, including the 8-isotropy. The isotropy is based on some original properties of open sets which are the result of an expansion by dilation. The suggested algorithms consist of efficient and easy implementation techniques.
Full text: yes
Atualizar
 
  

Melhoria do software embarcado em satélites do INPE: proposta para um passo a mais
Souza, P. B.

INPE-14616-TDI/1195
Carvalho, Solon Venâncio de (presidente)
Nakaniski, Tatuo (orientador)
Cunha, João Bosco Schumann
Ferreira, Maurício Gonçalves Vieira
Melnikoff, Selma Shin Shimizu

2002-10-18
O desenvolvimento de softwares embarcados em satélite concebidos para desempenhar funções críticas nos satélites construídos pelo INPE não tem contado com o envolvimento de especialistas em desenvolvimento de software para conduzir o processo de melhoria contínua da qualidade. Na prática, falhas poderão ocorrer resultando em insucessos, ou mal funcionamento, com enormes prejuízos econômicos, ou ainda em falhas que podem tornar um projeto longo e de custo elevado. Apesar de existirem diversos padrões propostos para o desenvolvimento de software embarcado, sendo alguns deles referências de qualidade para outras agências espaciais, na prática, torna-se inviável segui-los, visto que a evolução da atual equipe e da organização relativa à qualidade de software ainda não atingiu um nível de maturidade adequada. Com base nesta realidade, está sendo proposto um passo no processo de evolução da qualidade de software que é possível de ser absorvido e seguido pela equipe e ser o início de uma nova etapa na melhoria da qualidade do software embarcado, para que se caminhe na obtenção de produtos de software cada vez mais confiáveis e de qualidade cada vez mais previsível. Para isto, propõe-se um conjunto de atividades adicionais ao atual processo de desenvolvimento, que inclui alterações na metodologia adotada no esquema de controle de qualidade. Na construção dessa proposta foram considerados o perfil e a maturidade da equipe, a complexidade do software em questão e as condições organizacionais específicas do INPE. ABSTRACT - The development of onboard satellite software designed to accomplish critical functions in INPE´s satellites have not counted with the collaboration of software development specialists to aid in continuous improvement of product quality. In practice, the occurrence of failures can result in insucess or malfunctioning, with significant economical losses or, yet, in a very long and expensive project. Despite of the existence of several standards in the area of onboard software development, including some that are considered quality standard by other space agencies in the world, in practice it is impossible to follow or implement them, since the present level of the organization and the development team (related to software quality) is still below the required maturity level. Based upon this scenario a step in the software quality evolution process is being proposed. This step is easy to absorb and to be implemented by the development team; it may give a new boost in the improvement of onboard software quality, aiming to obtain a more dependable, better quality software product. To achieve this goal, we propose a set of additional activities, to be added to the present development process, including modifications in the adopted methodology for quality control strategies. When developing this proposal, we considered the team profile and maturity, the software complexity to be studied and INPE´s organizational conditions.
Full text: yes
 
  


   2003



Desenvolvimento de sistema de detecção de códigos Java Hostis
Aditya, T. V.
INPE--TDI/
Guedes, Ulisses Thadeu Vieira (presidente)
Filho, Antonio Montes (orientador)
Moreira, Edson dos Santos

2003-12-10
Visando uma maior proteção aos usuários da Internet e de aplicações Java, este trabalho propõe um método para a detecção de códigos Java hostis. Após uma discussão sobre as características do tráfego de rede associado a aplicações Java, propõe-se um módulo para a detecção de códigos Java hostis, para ser incorporado num sistema de detecção de intrusão de redes. Para este propósito utilizou-se a ferramenta SNORT. É discutida a criação das regras baseadas em padrões, partindo-se de uma vulnerabilidade comum. A fundamentação necessária, desde a arquitetura e os princípios de funcionamento da linguagem Java, também é mostrada, juntamente com o seu atual modelo de segurança, tendo assim todos os elementos para o desenvolvimento da metodologia utilizada neste trabalho. ABSTRACT: In order to achieve a better protection for Internet and Java application users, this article proposes a method for detecting hostile Java codes. After discussing the network traffic characteristics associated with Java applications we present a module that detects hostile Java codes, that has been incorporated in a intrusion detection system. For this purpose the intrusion detection tool SNORT was used. The creation of the rules is based on pattern matching created from common vulnerabilities. The bases of its architecture and the principles of the Java language is also discussed, along with its current security model, setting the elements of the methodology used in this work..
Full text: no
Atualizar
 
  

Implementação de uma rede neural artificial para associação de imagens de radar meteorológico e dados de descargas elétricas
Bomfin Júnior, A.

INPE-10460-TDI/928
Rosa, Reinaldo Roberto (presidente)
Silva, José Demísio Simões da (orientador)
Pinto Jr., Osmar (Orientador)
Rodriguez, Carlos Augusto Morales (membro da banca)

2003-09-30
Esta dissertação trata da associação entre dados do radar meteorológico doppler RMT100, fornecidos pela Universidade do Vale do Paraíba (UNIVAP), e os dados de descargas elétricas, fornecidos pelo sistema de localização de relâmpagos do grupo de Eletricidade Atmosférica (ELAT) do INPE, utilizando redes neurais artificiais (RNA). O estudo da correlação entre as descargas elétricas e altos índices de refletividade do radar, em sua maioria relacionados a tempestades severas, pode permitir uma melhor compreensão do comportamento dos elementos meteorológicos, trazendo benefícios à sociedade como um todo, uma vez que os dados de descargas, atualmente um pouco mais abundante do que dados meteorológicos, podem introduzir outras informações para o enriquecimento das previsões de tempo. Neste contexto as RNA aparecem como uma ferramenta alternativa promissora de fácil implementação. No desenvolvimento deste trabalho diversas atividades foram realizadas desde a aquisição, seleção e decodificação dos dados de radar em formato de imagens e dos dados de descargas elétricas, exigindo o geo-referenciamento entre os dados de natureza diferentes. Os dados de radar utilizados limitam-se às imagens CAPPI(Z) com refletividade a 6 Km de altitude, CAPPI(V) com velocidade do vento a 1 km e ECHOTOP(Z) indicando o topo de nuvens a uma altitude de até 15 km, totalizando de 1288 imagens. Os resultados obtidos são promissores, observando-se que em alguns casos se obteve correlações de até 80%. Em outros casos não foi possível quantificar as saídas das redes neurais mas foi possível verificar uma tendência de similaridade entre a saída da rede e os dados observados. ABSTRACT: This work uses radar images together with data of electrical discharges derived from a lightning localization system taken with a Doppler Meteorological Radar as the input to a Neural Network (NN), in order to stablish the non-linear relationship between the reflectivity in the radar images and the atmospheric discharges. Associating these atmospheric discharges to specific storms as for instance the severe thunderstorms where lightning occurrence is higher, we will better be able to understand the physics that governs these meteorological elements and bring better benefits to the society. In this context NNs is a tool that appears as a quite promising alternative that were used in this work to stablish a relationship between meteorological data and the atmospheric discharges. For the development of this work it was necessary a great number of activities, from the acquisition, selection and decoding of the radar images, as well as the geographical position reference of the images with the atmospheric discharges, tests of cases and analysis of results. Basically were selected images from products of CAPPI(Z) with reflectivity at 6 km of altitude, CAPPI(V) with wind speed at an altitude of 1 km and ECHOTOP(Z) cloud vertical profile up to 15 km of altitude, in a total of 1288 images. The obtained results are promising, because in spite of still not to be possible to quantify the intensity of the atmospheric discharges generated by NN is possible to verify an increase or decrease of its intensity, that it can aid it forecast and in a specific case the correlation was obout 80%.
Full text: yes
Atualizar
 
  

Uma arquitetura para apoio e automação de processos de gerência de projetos de software
Borrego Filho, L. F.

INPE-14412-TDI/1129
Silva, José Demisio Simões da, (presidente)
Sant'Anna, Nilson, (orientador)
Kienbaum, Germano de Souza
Spinola, Mauro de Mesquita

2003-12-10
Várias pesquisas apontam fracassos em projetos decorrentes de falhas na gerência dos mesmos, evidenciando a área, a qual passou a ser largamente pesquisada e discutida. Dada a amplitude do tema-gestão de projetos, o foco do trabalho norteia os processos relativos ao gerenciamento do tempo, gerenciamento dos recursos humanos e gerenciamento dos custos, os quais são denominados neste trabalho de processos essenciais de gerenciamento de projetos. Neste trabalho são analisadas algumas abordagens e modelos de maturidade para processos de gerenciamento de projetos e de desenvolvimento de software, com o intuito de levantar e analisar os requisitos para a sistematização e automação dos processos de gerenciamento de projetos. Também caberá a esta atividade, usar uma Linguagem de Modelagem de Processo (PML) que tenha maior acessibilidade e facilidade de interpretação pela comunidade de engenharia de software. Uma vez modelados os processos, é proposta uma arquitetura para apoio, sistematização e automação dos processos de gerenciamento de projetos, os quais são analisados e descritos durante o trabalho. ABSTRACT: Several surveys point out that failures in projects are due to failures in the project management, causing this area, to be widely surveyed and discussed. Since project management is a large research area, this work will focus on the time, human resource and costs management, which are designated herein as the essential project management processes. Some maturity models and approaches are analyzed for project management processes and software development process, with the intent of setting the requirements for the projects management processes automation and systematization. This analysis phase makes use of a process modeling language PML, for easiness of interpretation by the software engineering community. Once these processes are modeled, an architecture for supporting, systematization and automation of the project management process is proposed, being analyzed and described during the dissertation.
Full text: yes
Atualizar
 
  

Abordagens de objetos distribuídos aplicadas ao Simulador de Satélites do INPE
Burgareli, L. A.

INPE-10052-TDI/888
Carvalho, Solon Venâncio de (presidente)
Ferreira, Maurício Gonçalves Vieira (orientador)
Sant'Anna, Nilson
Cunha, joão Bosco Schumann
Melnikoff, Selma Shin Shimizu

2003-06-13
Na tentativa de melhor aproveitar as características da distribuição de objetos, técnicas de como melhor distribuir os objetos são apresentadas e aplicadas aos subsistemas do Simulador de Satélites do INPE. A computação distribuída vem rapidamente ganhando espaço no campo da informática; entretanto, existem poucas técnicas a fim de projetar e modelar os sistemas de objetos distribuídos. É observada uma deficiência no aspecto de como modelar corretamente esta distribuição, ou seja, como melhor distribuir os objetos de acordo com as características da aplicação e necessidades do usuário, explorando-se mais ativamente as vantagens desta tecnologia e alcançando-se assim, maior qualidade. Com o objetivo de melhorar a organização da distribuição dos objetos, são apresentadas técnicas de modelagens baseadas na análise do comportamento dos objetos, na aplicação e nas necessidades dos usuários. ABSTRACT: The purpose of this paper is to present a study of a distributed object application to the Satellite Simulator, present in INPE. The distributed computing is rapidly gaining more importance in the computer field, however, there are a few tools available to design and model the distributed object system. A deficiency is noted in the process of correctly modeling this distribution, that is, how to improve the distribution according to the application characteristics and the user?s necessity, exploiting more actively this technology advantages and obtaining a better quality this way. Therefore, besides exploring characteristics of object distribution, the intention is to build up an analysis through the object distribution modeling, noting the user needs and aspects of the application. For this purpose, some techniques that will establish criteria and different methods of modeling will be proposed.
Full text: yes
Atualizar
 
  

Interoperabilidade na representação de dados geográficos: GeoBR e GML 3.0 no contexto da realidade dos dados geográficos no Brasil
Busquim e Silva, R. A.

INPE-10295-TDI/914
Oliveira, João Ricardo de Freitas (presidente)
Monteiro, Antônio Miguel Vieira (orientador)
Banon, Gerald Jean Francis
Lisboa Filho, Jugurta

2003-09-29
O desenvolvimento de padrões abertos provê o compartilhamento e troca de informações entre aplicações geográficas, amenizando o problema da diversidade de formatos, processos e significados para dados geográficos. Esta dissertação aborda duas soluções propostas, baseadas em padrões abertos, para representação de dados geográficos: GeoBR/INPE e GML 3.0/OGC. O objetivo deste trabalho é analisar e validar a hipótese da viabilidade da integração entre ambas. Como estudo de caso foi considerada a realidade dos sistemas em operação sob responsabilidade do INPE, em particular, o sistema desenvolvido para o projeto PROARCO. O tratamento do tempo na representação da informação geográfica foi abordado e explorado dentro do contexto do projeto PROARCO, utilizando os recursos da especificação GML 3.0 e estendida ao formato GeoBR. Para a validação do trabalho, ferramentas de conversão e visualização foram desenvolvidas e adaptadas, em particular adaptações no conversor TerraTranslator, no aplicativo geográfico para Internet denominado SpringWeb, e um demonstrativo do uso de SVG para dados animados. ABSTRACT: The development of open standards to provide sharing and exchange information between geographic applications, brightening up the problem of the diversity of formats, processes and meanings for geographic data. This work approaches two solutions proposals, based in opened standards, for representation of geographic data: GeoBR/INPE and GML 3.0/OGC. The aim is to analyze and to validate the hypothesis of the viability of their integration. As a case study the reality of the systems in operation under responsibility of the INPE was considered, in particular, the system developed for the PROARCO project. The treatment of time in the representation of the geographic information has been discussed and has been explored in the context of the PROARCO project, using the resources of specification GML 3.0 and extended to the GeoBR format. For the validation of the proposals, tools for conversion and visualization has been developed and adapted, in particular adaptations in the TerraTranslator converter, application geographic for Internet named SpringWeb and a demonstrative of the use of SVG for animation.
Full text: yes
Atualizar
 
  

Levantamento da qualidade do processo de software com foco nas pequenas organizações
Carosia, J. S.

INPE-10424-TDI/921
Ferreira, Maurício Gonçalves Vieira (presidente)
Nakanishi, Tatuo (orientador)
Carvalho, Solon Venâncio de
Melnikoff, Selma Shin Shimizu
Spinola, Mauro de Mesquita

2003-09-30
A sociedade passa por severas transformações. A capacidade de inovar é o diferencial para acompanhar o ritmo acelerado destas mudanças. Muitas organizações de software apostam na qualidade como alternativa de inovação. Melhorar a qualidade do processo de desenvolvimento de software é um dos grandes objetivos da engenharia de software. A avaliação é a primeira etapa para a melhoria do processo. O sucesso de um programa de melhoria depende grandemente da confiabilidade dos dados adquiridos nesta etapa. Uma avaliação eficiente permite a elaboração de um plano de melhoria compatível com a realidade da organização. Este trabalho apresenta uma estratégia para levantamento da qualidade do processo, através de uma mini-avaliação baseada no modelo CMMI. O foco específico deste trabalho é organizações de pequeno porte que estão dando seus primeiros passos em direção a melhoria de seu processo de desenvolvimento. ABSTRACT: Society goes through strict changes. The capacity of innovation is what makes the difference in order to follow the accelerate rhythm of these changes. Many software organizations invest on this quality as their innovation alternative. Improving the quality of the development process is one of the software engineering biggest goals. Assessment is the first step in order to improve the process. The success of an improvement program depends widely on the reliability of the acquired data on this stage. An efficient assessment allows the elaboration of a plan in compliance with the organization reality. This work presents a strategy to assessment the quality of the process, through a mini-assessment based on the model CMMI. The specific focus of this work is the small organizations that are walking the first steps towards the improvement of their development process.
Full text: yes
Atualizar
 
  

Detecção de bordas e navegação autônoma utilizando redes neurais artificiais
Castro, A. P. A.
INPE--TDI/
Fonseca, Leila Maria Garcia (presidente)
Silva, José Demisio da (orientador)
Guimarães, Lamartine Nogueira Frutuoso
Silva, Ivan Nunes da

2003-06-02
Esta dissertação estuda o uso de Redes Neurais Artificiais na detecção de bordas em imagens e no controle de um veículo em navegação autônoma. São apresentados vários modelos de redes neurais que são estudados e testados, com o objetivo de buscar o modelo mais adequado para a tarefa de detecção de bordas, segundo critérios de desempenho que comparam as redes neurais artificiais com algoritmos tradicionais na área de visão computacional, como por exemplo, o operador de Canny. Para o controle da navegação autônoma utilizam-se modelos de redes neurais com aprendizagem supervisionada, treinadas para simular os processos envolvidos na navegação realizada por um humano. O desempenho das redes neurais na navegação é comparado com um sistema baseado em lógica nebulosa usado como base para o treinamento. São usadas diferentes imagens teste na experimentação das redes neurais no processo de detecção de bordas. No trabalho é proposta uma metodologia para medir a qualidade das imagens de borda geradas pelos operadores de redes neurais. Os resultados encontrados mostram-se promissores, com as redes neurais apresentando desempenho similar ao método de Canny. ABSTRACT: This work is about the study of Artificial Neural Networks (ANN) Systems for edge detection and robot autonomous navigation. Different ANNs are studied and tested in a search for the most adequate model for edge detection according to a performance criterion that compares the ANN based detectors to the standard algorithms available in the literature, such as Canny operator. Supervised neural network models are used to simulate the human navigation control processes in autonomous navigation. Their performances are compared to a fuzzy logic control system developed earlier, whose parameters are used in the neural network training processes. Different images are used to test the neural network edge detectors. A methodology for measuring the quality of the edge images produced by the neural network operator is proposed. The results show that the neural network operators have a performance comparable to existing Canny standard operator, and are thus promising operators for edge detection.
Full text: no
Atualizar
 
  

Uso de relações de similaridade para tratamento de consistência e cobertura em sistemas de regras difusas
Drummond, I. N.

INPE-10296-TDI/915
Silva, José Demisio Simões da.
Sandri, Sandra Aparecida (orientadora)
Guimarães, Lamartine Nogueira Frutuoso
Yoneyama, Takashi.

2003-02-26
Este trabalho apresenta a utilização de relações de similaridade para tratar problemas de inconsistência e de falta de cobertura que podem ser verificados em uma base de conhecimento com regras do tipo "Se X e Ai então Y e Bi", onde Ai e Bi são conjuntos difusos. O foco do trabalho é em sistemas de regras difusas do tipo implicativo, ou seja, a implementação do operador se-então é feita por operadores implicativos, e uma t-norma (especificamente o min) e utilizada para agregar as saídas. A abordagem baseada em similaridade consiste no emprego de relações de similaridade para aumentar a imprecisão dos conjuntos difusos utilizados numa dada aplicação. Desta maneira, é possível sanar inconsistências que ocorrem quando, para uma entrada valida, são ativadas regras conflitantes, e/ou problemas de falta de cobertura, que, por sua vez, ocorrem quando, para uma entrada valida, não existem regras cujas premissas enderecem esta entrada. Diferentes estratégias são definidas: a abordagem global, onde encontra-se uma relação de similaridade que é aplicada a toda a base de regras, e uma abordagem local, onde a relação de similaridade é aplicada a toda a base de regras, porém esta base modificada e utilizada apenas para as entradas que ativam regras conflitantes. Neste trabalho, verificam-se os requisitos de uma relação de similaridade cuja aplicação leve a uma perda mínima de informação. Um algoritmo genético é empregado para aprender os parâmetros que definem os termos difusos e as relações de similaridade para uma determinada aplicação, visando a otimização do desempenho de um dado sistema. O trabalho traz uma análise comparativa entre o desempenho de um controlador difuso conjuntivo, do tipo Mamdani, e o desempenho de um controlador implicativo (usando os operadores de Rescher-Gaines, Godel e Goguen), no qual foi aplicada a abordagem proposta. ABSTRACT: This work presents the use of similarity relations to deal with inconsistency and covering problems that may occur in a knowledge base with rules of the type "If X is Ai then Y is Bi", where Ai and Bi are fuzzy sets. The work is focused on systems using implicative fuzzy rules based systems, i.e, in which the if-then operator is implemented by a truly implication operator, and a t-norm (the min operator) is employed to aggregate the output. The approach based on similarity consists of the use of similarity relations to enlarge the imprecision of the fuzzy sets employed in a given application. On this way, it is possible to solve inconsistencies, that occur when, for a valid input, the fired rules present conflict, and/or covering problems, that occur when, for a valid input, there are no rules whose premises address the input. Different strategies are defined: the global approach, where a similarity relation is applied to all the fuzzy terms, and the local approach, where a similarity relation is applied to all the terms, but the modified terms are used only for the inputs which fired conflicting rules. In this work, the constraints that a similarity relation must obey so that its application induces a minimum loss of information. A genetic algorithm is also employed in order to learn the best parameters that define the fuzzy terms and the similarity relations for a given application, aiming at an optimization of the system performance. This work also brings a comparative analysis between the performance of a conjunctive fuzzy controller of the Mamdani kind and the performance of an implicative controller (employing Rescher-Gaines, Godel and Goguen operators), on which the proposal approach was applied.
Full text: yes
Atualizar
 
  

Um processo Otimizado de produção de mapas da radiação cósmica de fundo em microondas
Fernandes, J. O.

INPE-10297-TDI/916
Velho, Haroldo Fraga de Campos (presidente)
Preto, Airam Jônatas (orientador)
Stephany, Stephan (orientador)
Souza, Carlos Alexandre Wuensche de
Figueiredo Filho, Newton de

2003-03-27
Este trabalho propõe uma estratégia de otimização de desempenho para o software de produção de mapas da Radiação Cósmica de Fundo em Microondas (RCFM), onde se busca a minimização do tempo de processamento utilizando uma arquitetura paralela de memória distribuída. Inicialmente, um código desenvolvido em Fortran foi portado para Fortran 90 e High Performance Fortran (HPF), em uma implementação baseada em paralelismo de dados, sendo executado em uma arquitetura paralela de memória compartilhada. O código foi convenientemente dividido em trechos e foi instrumentado para prover informações dos tempos de execução de cada trecho. A análise dos tempos de execução mostrou um ?gargalo? de desempenho nas rotinas que implementam a convolução de matrizes, o que é feito por um algoritmo Fast Fourier Transform (FFT) bidimensional. Esta rotina é a maior consumidora de tempo de CPU devido à distribuição de dados entre os processadores. No algoritmo FFT, a matriz de convolução deve ser transposta. Tipicamente, um bloco de colunas desta matriz é atribuído a cada processador, mas no cálculo da matriz transposta, blocos de linhas da mesma matriz devem ser lidos. Isto é claramente, uma operação pouco eficiente quando se utiliza o HPF. A rotina FFT foi portada para Message Passing Interface (MPI), combinando paralelismo de dados e tarefas. A arquitetura paralela de memória distribuída utilizada é um beowulf cluster de 16 nós, sendo cada nó um computador Linux IA-32. O uso de MPI para melhorar o desempenho do HPF foi proposto por Foster et al. em ?Double standards: bringing task parallelism to HPF via the Message Passing Interface? e foi utilizado em uma rotina 2D-FFT com o objetivo de proporcionar uma comunicação mais eficiente entre os nós no cálculo de uma matriz transposta. Este trabalho apresenta as avaliações do método utilizado, que pode ser aplicado a outras rotinas consumidoras de tempo de CPU. A análise dos tempos de execução fornece indícios para se conseguir um melhor balanceamento de carga e menor tempo de comunicação entre os nós. ABSTRACT: The current work describes the optimization and parallelization of the software for the production of Cosmic Microwave Background (CMB) radiation maps in a distributed memory architecture. Initially, the Fortran code was ported to Fortran 90 and to High Performance Fortran (HPF) and run in a SMP (Shared Memory Processor) machine. In order to provide timing information, calls to operating system timing routines were imbedded in the code. Analysis of timing information shows performance bottlenecks in the matrix convolution routine, which is done by a two-dimensional Fast Fourier Transform (FFT) algorithm. This is a time consuming routine due to data distribution among processors. Due to the FFT algorithm the convolution matrix has to be transposed. Typically, a block of columns of this matrix is assigned to each processor but, in order to calculate the transposed matrix, block of lines of the same matrix must be read. This was clearly an inefficient issue running HPF on that machine. The FFT routine was ported to Message Passing Interface (MPI) mixing task and data parallelism. The used distributed memory machine is a Beowulf cluster, each node being a Linux IA-32 computer. The use of MPI to enhance HPF performance was already proposed by Foster et al. in ?Double standards: bringing task parallelism to HPF via the Message Passing Interface? and was used in the 2D FFT routine in order to provide a more efficient communication between nodes in the calculation of the transposed matrix. This work presents the evaluations of the used method, and the same approach could be used in other time consuming routines of the CMB code. The timing analysis provides clues to enhance load balancing and data communication between nodes.
Full text: yes
Atualizar
 
  

Interface para operações espaciais em banco de dados geográficos
Ferreira, K. R. F.
INPE--TDI/
Monteiro, Antônio Miguel Vieira (presidente)
Paiva, João Argemiro de Carvalho (orientador)
Câmara, Gilberto
Lisboa Filho, Jugurta
Salgado, Ana Carolina Brandão

2003-06-16
Este trabalho apresenta uma interface de programação genética, ou API ( Application Programming Interface), para operações espaciais em bancos de dados geográficos implementada no ambiente TerraLib, que consiste em uma biblioteca base para a cosntrução de aplicativos geográficos armazenados em SGBDORs relacionais (SGBDOR) e objeto-relacionais (SGBDORs). No caso da nova geração de SGBDORs que possuem uma extensão espacial, como o Oracle Spatial, a API explora ao máximo seus recursos para tratar dados geográficos, como, por exemplo, indexação espacial, operadores e funçõe para manipular e consultar esses dados através da linguagem de consulta SQL. As operações fornecidad pela API são agrupadas em : (1) operações sobre dados vetoriais, como por exemplo, consultas de relações topológicas e métricas, geração de uma nova geometria a partir de uma distância em torno de uma geomatria específica (buffer) e operações de conjunto (interseção, união e diferença); (2) operações sobre dados matriciais, como operações zonais e recorte a partir de uma máscara. ABSTRACT: This work presents a generic programming interface, or API (Aplication Programming Interface), for spatial operations in geographical database developed in the TerraLib environment - a base library construction of geographicaal apllications with integrated architecture. This API provides operations on geographical data stored in relational DBMS (RDBMS) and object-relational DBMS (ORDBMS). In the case of a new generatin of ORDBMS which has a extent, like Oracle Spatial, the API explores at most its resources to treat geographical data, for example, spatial indexes, operators and functions to manipulate and query these data through the query language SQL. The supplied operations of this API can be groped as: (1) operations over vector data, for example, topological and metrical relation query, geration of a new geomatric through a distance aroung an especific geometric (buffer), and set operations (intersection, union and difference); (2) operations over raster data, as zonal operation and clipping based in a mask.
Full text: no
Atualizar
 
  

Implementação paralela de um algoritmo exato para a resolução de um problema de seqüenciamento de padrões de corte
Lamosa, D. M.

INPE-11828-TDI/965
Stephan, Stephany, (presidente)
Yanasse, Horácio Hideki, (orientador)
Preto, Airam Jônatas, (orientador)
Lorena, Luiz Antônio Nogueira
Soma, Nei Yoshimiro

2003-02-27
Considere uma linha de produção no qual itens são cortados de chapas maiores. Cada item cortado é colocado em uma pilha que permanece aberta até que não existam mais chapas a serem cortadas que o contenham. Surge um problema quando queremos determinar qual seqüenciamento de corte dessas chapas abre o menor número de pilhas simultaneamente abertas. Foram desenvolvidas implementações paralelas de um método seqüencial para resolver o problema. As implementações foram realizadas com a linguagem C++ com chamadas a rotinas de comunicação da biblioteca MPI em uma máquina paralela com memória distribuída. Testes computacionais foram realizados comparando as versões paralelas e o método exato desenvolvido. Dos testes, observou-se que a política adotada de balanceamento de carga nos processadores nas implementações paralelas não conduziu a bons resultados. Desta forma, uma proposta de uma implementação paralela com balanceamento dinâmico de carga foi também sugerida. ABSTRACT: Consider a production line where items have to be cut from large boards. Each cut item is put into a stack that remains open until no boards that contain it are left. A problem arises when we want to determine what board cutting sequence minimizes the number of simultaneously open stacks. Parallel implementations of a sequential method were developed in order to solve this problem. The programming language used was C++ using the message passing interface library (MPI) in a parallel computer with distributed memory. Computational tests were performed comparing the parallel implementations with the exact algorithm. It was observed that load balance policy adopted didn?t lead to good results. Therefore, a new parallel dynamic load balancing implementation was proposed.
Full text: yes
Atualizar
 
  

BSSDATA - Protótipo de um sistema otimizado para tratamento e análise de dados do brasilian solar spectroscope
Martinon, A. R. F.

INPE-14831-TDI/1271
Rosa, Reinaldo Roberto, (presidente)
Stephan, Stephany (orientador)
Sawant, Hanumant Shankar Sawant (orientador)
Fernandes, Francisco Carlos Rocha
Saito, José Hiroki

2003-07-30
Este trabalho propõe um sistema otimizado para tratamento e análise de dados em radioastronomia solar, específico para o Espectrógrafo Solar BSS Brazilian Solar Spectroscope, INPE. Este sistema constitui uma extensão do software BSSData, desenvolvido anteriormente. No presente trabalho foi implementada a BSSLibrary, uma biblioteca otimizada de rotinas para manipulação dos dados, ainda em desenvolvimento, tendo sido completadas as rotinas de filtragem de imagens. A otimização foi feita através do uso de instruções de linguagem de máquina vetoriais, típicas dos processadores IA32 atuais. Essa biblioteca foi implementada na forma de uma Dynamic Link Library (DLL) de forma a compor um módulo independente de outros, tais como a interface com o usuário. Testes realizados demonstraram um expressivo ganho de desempenho com a vetorização. O trabalho proposto inclui a configuração de software do sistema de tratamento e análise de dados, bem como explora alternativas de visualização. ABSTRACT: This work proposes an optimized system for data processing and analysis in Solar Radioastronomy, being specifically designed for the BSS - Brazilian Solar Spectroscope, at INPE. This system is an extension of the formerly developed BSSData software. In the current work it was implemented the BSSLibrary, an optimized library that includes routines for data processing. This library is being continuously developed and the set of image filtering routines has been completed. Optimization made use of vector instructions in assembly language, typical in current IA32 processors. This library was implemented as a Dynamic Link Library (DLL), in order to form a self contained module, not dependent from other modules, such as the user interface. Tests show that a good performance is attained through vectorization. The proposed work includes the software configuration of the data processing and analysis system and discusses some alternatives for data visualization.
Full text: yes
Atualizar
 
  

Classificador neural de atributos de textura para busca e recuperação de imagens de sensoriamento remoto
Martins, M. P.
INPE--TDI/
Silva, José Demisio Simões (presidente)
Guimarães, Lamartine Nogueira Frutuoso (orientador)
Fonseca, Leila Maria Garcia
Baptista Filho, Benedito Dias

2003-07-01
Informações extraídas de texturas são úteis em sistemas de busca e recuperação de imagens . Com o aumento do número de imagens de sensoriamento remoto de coletadas diariamente por diferentes sensores, há uma crescente necessidade de se aperfeitçoar o gerenciamento desses dados, envolvendo, entre outras coisas, o desenvolvimento de tecnologias de busca e recuperação de imagens. Nesta dissertação é pesquisado um sistema classificador de texturas de imagens de sensoriamento remoto voltado para a administração de grandes coleções dessas imagens. o classificador proposto é formado por uma rede neural de natureza não supervisionada e outra supervisionada. A partir de uma peuqena porção de uma imagem (amostra) o sistema deve reconhecer a classe de textura mais similar e também identificar as imagens que contêm padrões similares. Os vetores de textura utilizados para caracterizar os padrões são obtidos pelo processamento das imagens por um banco de filtros Gabor. Foram realizados vários experimentos utilizando texturas extraídas do albúm de Brodatz e imagens reais de sensoriamento remoto. Medidas de desempenho são utilizados para avaliar o desempenho do classificador em diversas situações, como, por exemplo, efetuando-se o treinamento com um conjunto das amostras e a avaliação com amostras diferentes, aplicando-se o fator de consciência, etc. ABSTRACT: Texture information is useful for image browsing and retrieval systems. With the increasing number of imagems collected every day with different sensors, there is a growing need to improve the administration of those data, which requires the development of new tecnologies for image browsing and retrieval. In this thesis a remote sensing classifier sytems for image colletion administration is investigated. The proposed classifier is composed by an unsupervised neural network and a supervised one. Starting from potion of the image (samples) the system is able to recognize the corresponding classiin a database as well as to identify the images that contain similar patterns. The feature vectors used to characterize the patterns are obtained from the images processed by a Gabor filters bank. Several experiments were done using Brodatz album textures and real remote sensing images. Performance measurements are provided in order to evaluate the performance of the classifier under different configurations, for instance, the neural network training with a set of samples and evaluating with a different one, concience factor apllication, etc.
Full text: no
Atualizar
 
  

Reconhecimento de faces usando redes neurais e biometria
Oliveira, D. R.

INPE-14439-TDI/1134
Silva, José Demisio Simões da (presidente)
Guimarães, Lamartine Nogueira Frutuoso, (orientador)
Sandri, Sandra Aparecida
Caminhas, Walmir Matos

2003-07-30
O reconhecimento de faces é uma das ações mais corriqueiras no dia a dia de um ser vivo inteligente. Esta atividade executada com tanta naturalidade por organismos vivos, tem despertado o interesse de pesquisadores que trabalham com Visão Computacional e Inteligência Artificial. Esta dissertação tem por objetivo pesquisar a viabilidade de um sistema híbrido aplicado ao reconhecimento facial, mesclando características dos métodos geométricos para o reconhecimento de faces, aos métodos de inteligência computacional. Para a extração das métricas de componentes e regiões da face, usadas no método geométrico, foram feitos estudos sobre a anatomia da face humana usados em ortodontia, fonoaudiologia e reconstituição maxilo- facial. Estes estudos visaram a determinação de pontos de referência existentes na face e suas relações de interdependência para construir uma representação para as faces a serem analisadas. As medidas dos componentes e regiões faciais foram usadas na construção de vetores numéricos que identificam as faces de forma singular. Estes vetores de características métricas foram usados para treinar redes neurais, encarregadas de realizar o reconhecimento. Foram usadas, nos testes de reconhecimento, 37 imagens frontais de faces humanas de homens e mulheres adultos. Medidas de desempenho são utilizadas sob diversas condições (presença de ruído e imagens não vistas na etapa de treinamento), para ilustrar a viabilidade do sistema híbrido proposto, bem como a eficiência das métricas usadas para representar as faces. ABSTRACT: The recognition of faces is one of the simplest actions on a daily basis of an intelligent and living being. This activity performed so naturally by living organisms has been attracting the interest of researchers who work with Computer Vision and Artificial Intelligence. This dissertation has as the objective to study the feasibility of a system based on Neural Network and Biometry applied to face recognition, mixing characteristics of geometric methods for face recognition to computer intelligence methods. For the extraction of measurements of components and regions of the face, used in geometric method studies were developed of the anatomy of the human face used in orthodontist work, phonoaudiology and maxillary facial reconstitution. These studies seek to determine the existing reference points on faces and its interdependent relation to construct a representation of the faces to be analyzed. The components measurements and facial regions were used to construct numerical vectors, which identity the faces in a singular way. These vectors of characteristics were used for training neural networks, which are in charge of performing the recognition. 37 frontal face images of adult men and women were used. Performance measurements are used under various conditions (presence of noise and images not-seen during the training phase) in order to illustrate the feasibility of the proposed hybrid system as well as the efficiency of the metrics used to represent the faces.
Full text: yes
Atualizar
 
  

Algoritmos geométricos para banco de dados geográficos: da teoria à prática na TerraLib
Queiroz, G. R.

INPE-12150-TDI/971
Monteiro, Antônio Miguel Vieira, (presidente)
Câmara Neto, Gilberto, (orientador)
Sant´Anna, Nilson
Davis Junior, Clodoveu Augusto

2003-12-22
A variedade de algoritmos de geometria computacional, com seus diferentes compromissos de desempenho versus complexidade de implementação, representa um substancial desafio de engenharia de sistemas para os projetistas de sistemas de informação geográfica. Esse trabalho apresenta o estudo realizado sobre esses algoritmos, mostrando as técnicas empregadas e as decisões tomadas no desenvolvimento de operadores espaciais integrados ao ambiente TerraLib, que consiste em uma biblioteca para a construção de aplicativos geográficos. O papel dessas operações desenvolvidas é fornecer à biblioteca as funcionalidades não disponíveis em sistemas gerenciadores de bancos de dados sem o suporte espacial. ABSTRACT: One of the greatest challenges of system engineering that a geographic information system designer has to face is the variety of computational geometry algorithms with their different performance commitments and complexities. This work describes the research on these algorithms showing techniques employed and the decisions taken when developing spatial operators integrated to the TerraLib environment, which is a library for development of geographic applications. The main goal of these operators is to provide, through this library, the functionalities that are not available in database management systems that do not include spatial support.
Full text: yes
Atualizar
 
  


   2004



Uma abordagem para a gerência das modificações e da configuração em um ambiente integrado para o desenvolvimento e gestão de projetos de software
Abdala, M. A. D.

INPE-14099-TDI/1078
Carvalho, Solon Venâncio de (presidente)
Sant' Anna, Nilson (orientador)
Ferreira, Mauricio Gonçalves Vieira
Melnikoff, Selma Shin Shimizu

2004-06-29
Organizações responsáveis pelo Programa Espacial Brasileiro, o INPE, Instituto Nacional de Pesquisas Espaciais, e o IAE, Instituto de Aeronáutica e Espaço, vêm procurando entender e melhorar os processos empregados no desenvolvimento de software, de maneira a alcançar alta qualidade e confiabilidade nos produtos desenvolvidos. No INPE, a necessidade da adoção de novos paradigmas baseados nos processos de software levou à proposta de um ambiente integrado para o apoio ao desenvolvimento e gestão de projetos de software para o controle de satélites. Dentre estes processos, os da Gerência das Modificações e da Configuração de Software (GCS) são aqueles que visam minimizar os problemas que as modificações trazem durante o desenvolvimento e a manutenção do software, de maneira a garantir a integridade dos produtos gerados. Este trabalho de dissertação de mestrado apresenta uma abordagem utilizada para a definição e a modelagem dos processos da GCS para este ambiente integrado. A modelagem dos processos da GCS e o suporte automatizado deste ambiente apresentam-se como facilitadores para a definição e a efetiva implantação destes naquelas organizações. ABSTRACT: The National Institute for Space Research (INPE), and the Aeronautics and Space Institute (IAE), organizations responsible for the Brazilian Space Program, are trying to understand and improve the processes employed in software development, in order to obtain software products that are reliable and of higher quality. At INPE, the necesssity to adopt new paradigms based on software development processes led to a proposal of an integrated environment to support the development and management of the satellite control software project. Among the processes to be supported by the environment, the Software Change and Configuration Management (SCM) processes are those which purpose is to minimize the problems that changes cause during software development and maintenance, so that the integrity of the generated products may be assured. This dissertation presents an approach used to define and model the SCM processes to this process-centered integrated environment. The process modeling and the automated support provided by this environment are presented as the factors that will facilitate the definition and effective implementation of the SCM process in those organizations.
Full text: yes
Atualizar
 
  

Um estudo de caso: o uso de certificados digitais em um órgão da administração pública federal
Balcão Filho, A. F.
INPE--TDI/
Becceneri, José Carlos (presidente)
Montes Filho, Antônio (orientador)
Campos Velho, Haroldo Fraga de
Dahab, Ricardo

2004-07-16
O objetivo desta dissertação é mostrar como melhorar a segurança das comunicações e das transações pela Internet com o uso de certificados digitais, sem que seja necessário investimentos que inviabilizem a implantação de uma Autoridade Certificadora, partindo das relações de confiança que já existem no ambiente de implantação. ABSTRACT: The goal of this thesis is present a manner of improve the communications security by the use of digital certificates on the Internet transactions, without big budgets for the deployment of a Certificate Authority. The relationships at present in the environment will be the starting point of trust.
Full text: no
Atualizar
 
  

Monitoração de atividades em máquinas preparadas para serem comprometidas (Honeypots)
Barbato, L. G. C.

INPE-12904-TDI/1010
Becceneri, José Carlos, (presidente)
Montes Filho, Antônio, (orientador)
Guedes, Ulisses Thadeu Vieira
Maziero, Carlos Alberto

2004-05-21
Até algum tempo atrás, segurança de sistemas de informação era sinonimo exclusivamente de proteção, assumindo sempre uma posição puramente defensiva. Hoje em dia, essa mentalidade vem mudando. Medidas reativas vem ajudando a melhorar a segurança de sistemas, com o uso de máquinas preparadas para serem comprometidas (honeypots) visando o aprendizado das técnicas adotadas pelos invasores com os próprios invasores. Com base nesta nova visao de segurança de sistemas de informação, este trabalho tem como objetivo o desenvolvimento de um sistema capaz de monitorar de forma impercept ível, todas as atividades dos invasores nos honeypots, transmitindo essas informações para estações de monitoração. ABSTRACT: Not long ago, information systems security was closely associated with passive protection, always assuming a purely defensive stance. Nowadays, this approach is changing. Reactive measures are helping to improve systems security, with the use of hosts prepared to be compromised (honeypots) providing information about the techniques used by the attackers, from the attackers themselves. Based on this new approach to information systems security, the present work aims to develop a system to stealthily monitor all the attackers activities in the honeypots and transfer this information to monitoring stations.
Full text: yes
Atualizar
 
  

Ambiente gráfico flyby para análise de padrões gradientes de silício poroso
Brito, R. C.

INPE-12894-TDI/1009
Ramos, Fernando Manuel (presidente)
Rosa, Reinaldo Roberto (orientador)
Beloto, Antonio Fernando (co-orientador)
Carrara, Valdemir
Salvador, José Antônio
Silva, Antonio Ferreira da

2004-05-14
A pesquisa em silício poroso, realizada desde 1956, teve um avanço muito importante em 1990 com a descoberta da propriedade de fotoluminescência do material. A partir daí, inúmeras técnicas de caracterização vêm sendo empregadas para uma melhor compreensão dessa estrutura e de suas propriedades, tanto do ponto de vista básico, quanto de suas aplicações tecnológicas. Neste trabalho foi desenvolvida uma nova ferramenta baseada na técnica conhecida como Gradient Pattern Analysis, denominada GPA-Flyby, objetivando auxiliar o trabalho de caracterização e estudo das propriedades intrínsecas do silício poroso. Através de operadores computacionais incorporados em seu código fonte e de um sistema de visualização em três dimensões, uma imagem de silício poroso obtida através de microscopia eletrônica ou de força atômica, pode ser caracterizada quanto a sua fragmentação assimétrica de amplitudes e quanto ao grau de desordem de fases, enquanto se navega sobre a estrutura superficial do material. ABSTRACT: The porous silicon research, developed since 1956, had a very important advance in 1990 after the discovery of its photoluminescence property. Therefore, many characterization techniques have been used in order to understand material structures and their related properties, even from a basic point of view as from their technological applications. In this work, a new tool, called GPA Flyby, based on the Gradient Pattern Analysis technique, was developed to provide a better structural porous silicon characterization, improving the investigation on their porosity properties. Through computational operators incorporated in its source code and a three dimensional viewer, a porous silicon image, obtained by means of electronic microscopy or scanning force microscopy, can be characterized by means of its asymmetric amplitude fragmentation and its degree of phase disorder, while navigation on the material structure is performed.
Full text: yes
Atualizar
 
  

Simulação e análise computacional das anisotropias da radiação cósmica de fundo usando o modelo de Einstein-de-Sitter
Camilo, C. P.

INPE-15381-TDI/1400
Ramos, Fernando Manoel (presidente)
Rosa, Reinaldo Roberto (orientador - INPE)
Ferrer, German Ignácio Gomero (orientador - Instituto de Física Teórica - SP)
Souza, Carlos Alexandre Wuensche de
Rebouças, Marcelo José

2004-05-21
As flutuações de temperatura na radiação cósmica de fundo, em grandes escalas angulares, são de fundamental importância no estudo da formação de estruturas no universo. Este trabalho tem como principal objetivo simular mapas de anisotropia utilizando um modelo simples do Universo (modelo Einstein-de Sitter). Os mapas de anisotropia são descritos usando a decomposição em harmônicos esféricos e a simulação é desenvolvida a partir da geração aleatória dos momentos multipolares, seguindo uma distribuição normal com variância dada pelo espectro de potência. O espectro de potência para este modelo é calculado pressupondo perturbações iniciais de densidade do tipo gaussiano com espectro de Harrison-Zeldovich. Para representar visualmente os mapas de anisotropia é preciso escolher uma técnica de pixeliza-ção para a esfera. Neste trabalho utilizamos a pixelização Igloo por ser eficiente e de fácil implementação computacional. Como objetivo interpretativo, aplicamos a Análise de Padrões Gradientes (GPA) aos padrões de anisotropia a fim de verificar se esta técnica computacional é capaz de distinguir mapas com diferentes espectros de potência. ABSTRACT - The temperature fluctuations in the Cosmic Microwave Background, for large angular scales, have fundamental importance for the study of the structure formation in the universe. The main goal of this work is to simulate anisotropy maps using a simple model of the Universe (Einstein-de Sitter model). The anisotropy maps are described using spherical harmonic decomposition and the simulation is performed from random multipolar moments generation, following a normal distribution with its variance given by the power spectrum. The power spectrum of this model is calculated considering primordial density gaussian perturbations with a Harrison- Zeldovich spectrum. In order to visualize the anisotropy maps it is necessary to choose a sphere pixelization technique. In this work we use the Igloo pixelization for being efficient and due to its easy computational implementation. As a interpretative goal we applied the Gradient Pattern Analysis (GPA) on the anysotropy patterns in order to verify wether this computational technique is capable to distinguish among maps generated from different power spectra.
Full text: yes
Atualizar
 
  

Um serviço de coordenação de processos integrado ao ambiente de engenharia de software e-WebProject
Cereja Júnior, M. G.

INPE-14131-TDI/1081
Carvalho, Solon Venâncio de (presidente)
Sant'Anna, Nilson (orientador)
Nakanishi, Tatuo
Ferreira, Maurício Gonçalves Vieira
Melnikoff, Selma Shin Shimizu
Cunha, Adilson Marques da

2004-03-30
Organizações que desenvolvem software, para ganhar competitividade, estão em escala crescente, se preocupando com modelos de qualidade como o CMM, CMMI, e SPICE. Estes modelos possuem, como elemento central de suas especificações, o conceito de processos. Ambientes de Engenharia de Software se apresentam como uma solução tecnológica ao efetivo apoio a esforços de melhoria de processos. Este trabalho apresenta as características, modelagem e um protótipo inicial de um serviço de coordenação de processos de software integrado ao ambiente de Engenharia de Software e-WebProject, capaz de apoiar todo o ciclo de vida de um processo, desde a sua definição até a sua execução. ABSTRACT: Organizations that develop Software, to have more competitiveness, are increasing the use of maturity models like CMM, CMMI and SPICE. These models have as specification main element, the process concept. Process- Centered Software Engineering Environments (PSEEs) are presented as a technological solution to software process improvement practices. This work presents features, a modeling and an initial prototype for a software process coordination service integrated into the e-WebProject PSEE, able to support all the software process life cycle: from software process definition to software process enaction.
Full text: yes
Atualizar
 
  

Implementação do sistema estatístico de assimilação de dados em espaço físico para o modelo global do CPTEC
Cintra, R. S. C.

INPE-14223-TDI/1124
Preto, Airam Jonatas (presidente)
Campos Velho, Haroldo Fraga de (orientador)
Stephany, Stephan
Bonatti, José Paulo
Rizzi, Rogério Luíz

2004-06-30
Dados atmosféricos (como temperatura, umidade e ventos), coletados por satélites, medidas diretas de instrumentos de ar-superior e estações de observação de superfície são informações usadas para estimar estado da atmosfera de forma mais precisa possível. Este processo de estimação, que utiliza também as leis físicas consistentes dos modelos numéricos, é chamado assimilação de dados. Os sistemas de assimilação de dados em previsões numéricas de tempo obtêm um coerente estado da atmosfera global como estado inicial. O Centro de Previsão de Tempo de Estudos Climáticos (CPTEC) está implantando o sistema de análise objetiva global GPSAS (Global Phisycal-space Statistical Analysis System) para gerar campos de condições iniciais para o modelo global CPTEC/COLA. O processo de assimilação de dados requer medidas do estado real da atmosfera em tempo real, estas medidas são as observações meteorológicas que são recebidas no centro, através da Rede Mundial de Meteorologia. Neste trabalho serão descritas a implementação do algoritmo PSAS, a estrutura do código e a implantação do software no computador vetorial do CPTEC, bem como a programação paralela pesquisada. O desenvolvimento de programas de "pré-processamento" dos dados e os métodos utilizados para pré-seleção das observações também foram objetivos deste estudo. A cobertura de dados de observação recebida no CPTEC é apresentada, e são propostas soluções para aumentar a disponibilidade destes dados principalmente sobre a América do Sul. ABSTRACT - Atmospheric data (such as temperature, moisture, winds), collected by satellites, direct measurements from upper-air instruments and ground observation stations are used in order to estimate the state of the atmosphere as precise as possible. The estimation process, denominated data assimilation consists of observations, and the physical laws, which govern the evolution of the flow. Data Assimilation in numerical weather forecasts provides a coherent state of the global atmosphere. The Center for Weather Forecast and Climatic Studies (CPTEC) is installing the global objective analysis system GPSAS (Global Physical-space Statistical Analysis System) to compute initial conditions for the global model CPTEC/COLA. The data assimilation process requests measurements of the atmosphere in real time. These observations are received in CPTEC from Global Telecommunication System (GTS). The implementation of the PSASs algorithm, code structure and the software installation on the vector computer from CPTEC, are described, as well as the investigated parallelism. The data "preprocessing" programs developed and the methods used to pre-selection the observations are also goals of this work. The observations received by the CPTEC are presented, and solutions to improve the data covering are addressed, mainly on South America.
Full text: yes
Atualizar
 
  

Filtragem de sinais de radiointerferência nos espectros de explosões solares através de rede neural adaline
Dobrowolski, K. M.
INPE--TDI/
Guimarães, Lamartine Nogueira Frutuoso (presidente)
Silva, José Demísio Simões da (orientador)
Cecatto, José Roberto (co-orientador)
Fernandes, Francisco Carlos Rocha
Lamaunier Júnior, Edgard Afonso

2004-03-25
O Espectrógrafo Solar Brasileiro (Brasilian Solar Spectroscope - BSS) é um radiotelescópio de alta sensibilidade e alta resolução temporal e espectral, desenvolvido no Instituto de Pesquisas Espaciais (INPE) para o estudo do espectro das emissões solares na banda de ondas de rádio decimétricas (1000-2500 MHz). Ele está sujeito ás mais diversas fontes de Interferências em Rádio Frequências (IRF), tais como satélites artificiais, transmissores de estações de rádio e TV, telefonia móvel, etc. Este trabalho apresenta o desenvolvimento de um filtro adaptável, utilizando a abordagem dos trabalhos de Widrow (1975) em cancelamento de ruído, para a redução ou mesmo eliminação destes sinais de IRF. O algoritmo utilizado foi o Least-Mean Square (LMS, Menor Média Quadrática), devido à sua simplicidade de implementação e menor complexidade computacional, já que existe cerca de 3 anos de dados a serem processados. Para estimar os sinais de interferência foi utilizada uma metodologia baseada em interpolação linear, uma vez que os dados no canal contaminado pela interferência são desconhecidos. Seguindo esta abordagem, ouve um problema com a convergência do filtro, que foi sanado através de modificações nos parâmetros do filtro original. Alé, disto, foi criada uma versão não linear do filtro, e realizada uma comparação entre estes três tipos de implementação de filtro adaptável: a versão original de Widrow, uma versão modificada linear e uma versão modificada não-linear. A versão modificada linear foi a mais efetiva na tarefa de reduzir os sinais de IRF dos dados do BSS, obtendo atenuações entre 5 e 30 dB nos sinais de IRF. Através destes resultados, este trabalho conseguiu demonstrar a viabilidade da utilização de técnica de filtragem adaptável nos dados do instrumento BSS. Sugestões sobre aperfeiçoamento futuros no filtro adaptável modificado são discutidas nas conclusões. ABSTRACT: The Brasilian Solar Spectroscope (BSS) is a high sensitivity and high temporal/frequency resolution radio spectroscope, developed at the National Institute for Space Research (INPE). This spectroscope is dedicated to observations of the solar emission in decimetric wavelengths (1000-2500 MHz). BSS feeder is subjected to Radio-Frequency Interference (RFI) signals, suchas artificial satellites, radio and TV broadcast, and mobile phone broadcasting stations, etc. Here, it is presented development of an adaptive filter, making use of Widrow's (1975) noise cancellation approach, for either minimize or eliminate these RFI signals. It makes use of the Least- Mean Square (LMS) algorthm, due to its simplicity on implementation and less computacional complexity, since there about 3 years of data to be processed. For estimate the original signal as well as interference in the affected frequency channel, since there is no prior knowlegde of them, a simple process based on linear interpolation was used. The initial filter's convergence difficulty wass fixed through modifications on its original parameters. Moreover , a nonlinear version of the filter was created, and a comparison among three types of adaptative filter implementation: The Widrow's original filter, a linear modificated version and a modification done. The modified linear version showed the best performance being most effective in reducing power of RFI signals in BSS data with attenuations between 5 and 30 dB. This work RFI signals in BSS data. Suggestions for future improvements in the modified adaptive filter are discussed in conclusions.
Full text: no
Atualizar
 
  

Processo de desenvolvimento de web sites com os recursos da UML
Dzendzik, I. T.

INPE-12450-TDI/997
Rosa, Reinaldo Roberto, (presidente)
Becceneri, José Carlos, (orientador)
Ferreira, Maurício Gonçalves Vieira, (orientador)
Preto, Airam Jonatas
Santos, Rafael Duarte Coelho dos

2004-10-26
O presente trabalho apresenta um processo desenvolvimento de Web sites organizado em três fases. Para que haja uma linguagem comum entre cliente e equipe de desenvolvedores, o processo faz uso de termos e diagramas da UML. Este processo não propõe a criação de uma nova tecnologia, mas o uso de diversas tecnologias em conjunto, representando um processo de desenvolvimento chamado Processo de Desenvolvimento Web com recursos da UML (PDWUML). Este Processo é baseado em três fases: a fase de levantamento de requisitos, a de implementação e de design das interfaces. A fase de levantamento de requisitos levanta os objetivos do domínio e busca as informações disponíveis para que haja o planejamento do Web site; faz o levantamento das necessidades do sistema que são mostradas através dos recursos da UML e organiza os requisitos necessários à implementação. A fase de implementação desenvolve os arquivos e diretórios que formam a arquitetura lógica de acordo com um modelo de Estrutura Dinâmica (ED), proposto para implementar o PDW-UML. Os requisitos levantados na fase anterior são analisados e utilizados para a composição das interfaces e do sistema navegacional. A fase de design das interfaces fundamenta-se no uso da arte baseada em técnicas em ferramentas gráficas para design na Web e de conhecimentos complementares como da psicologia e da filosofia como auxílio para a realização artística e criativa. A proposta para a fase de design é uma forma de cultura que envolve técnicas, arte, estética e ética como uma base de design. ABSTRACT: This work shows a process of website development organized in three phases. To establish a common language between the client and the development team, it makes use of expressions and UML diagrams. This process does not propose the creation of a new technology, but the use of several existing technologies together, in a method named Web Developing Process with UML Resources (PDW-UML). This process is divided into three phases: Requirement Analysis, Implementation and Interface Design. The Requirement Analysis phase starts from the objectives of domain and researches into the available information for planning of the website; it involves assessment of the system requirements as indicated by the UML resources, and planning for implementation. The implementation phase develops the files and directories that define the logical architecture following a Dynamic Structure (ED) model, proposed for implementation of the PDW-UML. The requirements established in the precedent phase are analyzed and used in the composition of the interfaces and of the navigational system. The Interface Design principally involves the use of the art techniques and graphical tools for web design and complementary knowledge such as psychology and philosophy to assist the artistic and creative realization. The purpose of the design phase is to blend technique, art and aesthetics into good design.
Full text: yes
Atualizar
 
  

Uso dinâmico de IPSEC com IPV6
Falconi, A. P.

INPE-14665-TDI/1220
Stephany, Stephan, (presidente)
Guedes, Ulisses Thadeu Vieira, (orientador)
Becceneri, José Carlos
Imamura, Osvaldo Catsumi

2004-10-25
Este trabalho tem como objetivo propor uma metodologia de uso da plataforma de segurança IP Security - IPSec - com o Internet Protocol Version 6 - IPv6 - no intuito de avaliar e aumentar o desempenho da comunicação entre máquinas interligadas por uma rede de computadores. Propõe-se habilitá-lo quando estritamente necessário, sem manter um túnel criptógrafico durante toda a comunicação entre as máquinas envolvidas. Isso é feito permitindo que as aplicações acessem diretamente a base de dados de políticas do IPSec, alterando suas políticas. Para validar a metodologia, utilizou-se os serviços POP3 e FTP com uso do IPSec durante a transferência de senha de um usuário da aplicação, desabilitando o IPSec durante o resto da sessão TCP, mantendo a sessão. ABSTRACT - The objective of this work is to propose a methodology of use of the security platform IP Security - IPSec - with the Internet Protocol Version 6 - IPv6 - in order to evaluate and increase the performance of the communication between machines connected by a network computer. The proposition is enabling IPSec only when strictly necessary, without keeping an encryption tunnel during the whole communication between machines. This is made by the applications having access directly to the IPSec security policies database and modifying some policies. The POP3 and FTP services had been used to evaluate the IPSec use only during the transference of an application user password. After that, the IPSec is disabled during the same TCP session.
Full text: yes
Atualizar
 
  

Uma camada de persistência dinâmica para aplicações java utilizando gerenciamento de bancos de dados relacionados
Garcia, J. R. M.
INPE--TDI/
Kienbaum, Germano de Souza (presidente)
Sant'Anna, Nilson (orientador)
Ferreira, Maurício Gonçalves Vieira
Fuks, Hugo

2004-06-30
O avanço da tecnologia e dos meios de comunicação aliado à mudança de mentalidade fez surgir e, atualmente sustenta, um paradigma de desenvolvimento e distribuição de software chamado software livre. Esse e outros fatores contribuem para que haja excelentes produtos, desenvolvidos por verdadeiras comunidades de software, que possuem acesso livre e/ou irrestrito. A questão é que estes avanços de qualidade e quantidade de fornecedores geram novos problemas, outrora não encontrados ou minimizados. Dentre estes problemas estão a diversificação e o nível de evolução de produtos, muitos com qualidade e capacidade suficientes para serem implantados em ambiente de produção real. Há um grupo especifico de usuários que encontra dificuldades cada vez maiores a cada produto estabelecido no mercado: é o grupo de desenvolvedores de softwares. A dificuldade é evidenciada no momento de especificar quais destes produtos farão parte dos sistemas a serem produzidos. Este trabalho ajuda a enfrentar estes problemas através da implementação de uma camada de persistência de dados que atua dinamicamente entre um sistema programado na plataforma Java e bancos de dados que seguem o modelo relacional. ABSTRACT: The advances of technology and media added to mentality changes have made, and actually sustain, a development and distributing paradigm called free software. These ones, among other factors, contribute to the existence of excellent free (or almost free) products, developed by real software communities. The issue is that these quality and quantity supplier advances have brought new problems that were never seen before. Some of these problems are the diversification and the maturity level of those real good products, many of them fully enabled to be used in production environment. There is a specific user group that has some sort of difficulty on dealing with these established products: the software developers. This work presents a framework that helps developers to face these problems by implementing a dynamic data persistence layer which works between a Java based system and a relational database. .
Full text: no
Atualizar
 
  

Um modelo de processo da engenharia de requisitos aplicáveis a ambientes de engenharia de software centrados em processos
Genvigir, E. C.

INPE-14630-TDI/1201
Ferreira, Maurício Gonçalves Vieira (presidente)
Sant'Anna, Nilson (orientador)
Carvalho, Solon Venâncio de
Alves, Sidnei de Brito

2004-05-27
A necessidade de conhecimento e de aperfeiçoamento dos processos que envolvem o desenvolvimento do software tem estimulado as pesquisas na área de engenharia de software. Os problemas relacionados aos processos têm feito surgir a pesquisa de novos elementos, como por exemplo, novos métodos, novas ferramentas e novos procedimentos, além do aperfeiçoamento dos já existentes. Entre os diversos produtos criados a partir dessas pesquisas, destacam-se, neste trabalho, a engenharia de requisitos, que contribui para o conhecimento das atividades sobre os requisitos do software e sobre a forma atravás da qual esse processo estabelece a garantia dos requisitos serem implementados no produto de software; destaca-se também a pesquisa dos ambientes centrados em processos e das técnicas para a modelagem dos processos. Neste trabalho, propõe-se uma organização da engenharia de requisitos, demonstrada em forma de um processo modelado, que permite sistematizar o trabalho com a área e que utiliza como técnica de modelagem a especificação visual de um metamodelo para processos. Propõe-se também um modelo de arquitetura para dar suporte ao processo, tanto para ambientes centrados em processos, quanto para ambientes que não disponham desse recurso. Realiza-se, enfim, um caso de estudo sobre o processo de engenharia de requisitos desenvolvido e apresenta-se uma análise sobre os resultados obtidos. ABSTRACT - The need of knowledge and improvement of the processes involving software have stimulated researches within software engineering area. The problems related to the processes have originated the new elements research such as new methods, new tools and new procedures besides the improvement of those ones already tested. Among several products built up from such researches, it is focused in this work the requisite engineering, which has contributed for the activity knowledge about the software requisites as well as the way such a process establishes the requisites guarantee in order to be implemented in the software product. It is also mentioned the research of the environments focused on processes and techniques to the modeling of the products. Along with this research it is proposed a requirements engineering organization shown through the form of a modeled process, which allows systematizing it to the area and uses as a modeling technique the visual specification of a metamodel for processes. It is also proposed an architecture model to support the process, both for centered environments in process and those ones that such a resource is not available. Finally it is realized a case study about the requirements engineering process developed and it is presented an analysis of the obtained results.
Full text: yes
Atualizar
 
  

Uma abordagem para a gerência da qualidade em um ambiente de engenharia de software centrado em processo
Lahoz, C. H. N.

INPE-11550-TDI/958
Ferreira, Maurício Gonçalves Vieira, (presidente)
Sant' Anna, Nilson, (orientador)
Carvalho, Solon Venâncio de
Melnikoff, Selma Shin Shimizu
Spínola, Mauro de Mesquita

2004-03-19
No contexto atual da engenharia de software aplicada ao Programa Espacial Brasileiro, a necessidade de construir produtos em tempo hábil, com poucos recursos e com qualidade durante seu desenvolvimento é uma realidade inquestionável. Tanto o sistema de controle de satélites, sob responsabilidade do Instituto Nacional de Pesquisas Espaciais (INPE), como o software de bordo do Veículo Lançador de Satélites (VLS), sob responsabilidade do Instituto de Aeronáutica e Espaço (IAE) são exemplos típicos de projetos de engenharia de software que necessitam alcançar alto nível de qualidade e confiabilidade nos produtos desenvolvidos e alta produtividade de desenvolvimento. Planejar, executar e acompanhar as atividades referentes à qualidade, através de processos bem definidos e fazendo uso de ambientes que suportem sua modelagem e execução, mostra-se um caminho fortemente indicado para promover as boas práticas de engenharia de software nestas organizações. Este trabalho de dissertação de mestrado visa definir e modelar os processos da gerência da qualidade em um ambiente de desenvolvimento de projetos de software que fornece suporte eficiente e integrado a processos e que permite melhorias evolutivas da qualidade com relação a aspectos de gestão da qualidade e do controle dos produtos gerados durante o desenvolvimento de software. ABSTRACT: Nowadays in the software engineering applied to the Brazilian Space Progam the necessity to construct products in short time, with low resources and high quality during its development is an unquestioned reality. The development of the satellites control system under responsibility of National Institute for Space Research (INPE) as well as the development of the Satellite Launch Vehicle (VLS) on board software under responsibility of Aeronautics and Space Institute (IAE) are typical examples of software engineering projects that need to reach high level of quality and safety in the developed products and high productivity of development. Planning, executing and following the activities refered to quality, with well defined processes and using an environment that supports process modeling and execution, are indicated ways to promote good practices of software engineering in these organizations. This dissertation aims to define and model the quality management processes in a software project development environment that provides efficient and integrated support to processes and allows evolutive improvements of the quality regarding to aspects of quality management and control of the products generated during the software development.
Full text: yes
Atualizar
 
  

Análise de métodos de simulação de dinâmica molecular em arquiteturas paralelas
Nakahara, A. S.

INPE-14482-TDI/1163
Becceneti, José Carlos (presidente)
Preto, Airam Jônatas (orientador)
Stephany, Stephan (co-orientador)
Granato, Enzo
Sousa, João Sinohara da Silva

2004-02-27
Simulações em dinâmica molecular são utilizados em experimentos computacionais para reproduzir propriedades de líquidos, sólidos ou moléculas. Os Átomos ou moléculas são tratados como massas pontuais e as equações de Newton são integradas a cada passo de tempo para computar seu movimento. Num algoritmo simplificado, o tempo de computação é alto devido à necessidade de calcular Forças de interação entre todos os pares de Partículas. São descritas e testadas algumas implementações de dinâmica molecular, baseadas em métodos específicos de paralelização. O primeiro algoritmo implementa o paradigma todos os pares, no qual as Partículas são divididas entre processadores. O segundo algoritmo distribui o cálculo das Forças de interação das Partículas entre os processadores, sendo denominado decomposição das Forças, enquanto que o terceiro, divide o espaço ocupado pelas Partículas em unidades regulares denominadas Células que em conjunto são divididas entre os processadores. Estes podem ser otimizados através de técnicas conhecidas, como por exemplo, utilizar uma distância de corte, cut-off, para diminuir o número de cálculos de Forças de interação no caso de potenciais de curta distância. Outra técnica conhecida é o uso da lista de vizinhança, que explora o mesmo conceito a um custo computacional menor. Estes três algoritmos foram implementados, em versões utilizando Fortran 90 e a biblioteca de comunicação por troca de mensagens MPI (Message Passing Interface), para Execução em duas arquiteturas paralelas de memória distribuída, os desempenhos obtidos foram analisados quanto ao número de Partículas e de processadores, sendo também estudados a influência da latência e da largura de banda de comunicação em ambas arquiteturas. No caso deste trabalho, foi considerado um espaço tridimensional com condições de contorno periódicas, e adotado um potencial de curta distância, o potencial de Lennard-Jones. ABSTRACT: Molecular dynamics algorithms are used in computational experiments simulating the properties of liquids, solids and molecules. Atoms or molecules in the simulation are treated as point masses and Newton's equations are integrated to compute their motion at each time step. A simplified algorithm presents a high complexity due to the need of calculating all the interaction forces between pairs of particles. This work presents some implementations of the molecular dynamic based on methods developed specifically for parallelization. A first algorithm implements the all-pairs paradigm, dividing the particles among processors. The second one distributes force calculations among processors, being called force decomposition, while the third, splits the physical space in regular cells and group of cells are distributed among processors. These methods can be optimized by using some well known techniques like defining a cut-off distance in order to reduce the number of interaction force calculations, in the case of short-range potentials. Another technique, the neighbor list, reduces the computational load even further.These three algorithms were implemented using Fortran 90 and the MPI (Message Passing Interface) communication library, for execution in two different distributed memory parallel architectures. Performance results were analised varying the number of particles and processors and the influence of communication latency and bandwidth were also compared for both architectures. In the case of this work, a 3D space was considered with periodical boundary conditions and the Lennard-Jones short range potential was adopted.
Full text: yes
Atualizar
 
  

Mineração de dados meteorológicos pela teoria dos conjuntos aproximativos na previsão de clima por redes neurais artificiais
Pessoa, A. S. A.

INPE-15665-TDI/1441
Macau, Elbert Einstein Nehrer (presidente)
Silva, José Demisio Simões da (orientador)
Guimarães, Lamartine Nogueira Frutuoso
Rezende, Solange Oliveira

2004-12-09
Esta dissertação aborda a utilização da teoria dos conjuntos aproximativos (TCA) com o propósito de redução de variáveis para a realização de previsão climática utilizando redes neurais artificiais (RNA), de modo a diminuir o esforço computacional e manter os erros em níveis aceitáveis na previsão climática. A TCA é uma ferramenta eficaz na compactação de uma base de dados, não só pela redução de elementos, mas também pela eliminação do conjunto de atributos supérfluos. Adicionalmente, neste estudo, as redes neurais foram utilizadas para aprender, a partir de 18 anos (Jan/1980-Dec/1997) de dados para a América do Sul, o comportamento sazonal das variáveis de precipitação e temperatura para fazer uma estimativa para os 3 anos consecutivos aos dados de treinamento (1998,1999 e 2000). Como entrada as RNA tem dados de duas espécies, para efeitos comparativos: variáveis ou atributos reduzidos e com todas as variáveis. O produto final deste processo para as variáveis de precipitação e temperatura são previsões, contendo médias trimestrais com de alcance temporal D (1 ou 3 trimestres à frente). ABSTRACT - This study analyze the use of the Rough Set Theory (RST) with goal the reduce variables for the climate forecast using Artificial Neural Network (ANN), decreasing the computational computation time and keeping the errors in accept levels on the climate forecast. The RST is an efficient tool for compress a database, reducing the numbers of elements and the superfluous variables. Additionally, on this study, the neural networks, was used to learn the seasonal atmospheric behavior for precipitation and temperature, data between the period of Jan/1980 until Dec/1997 in the South America and estimate the 3 consecutive years (1998, 1999 and 2000) of this variables. The input of RNA there is two kinds of data: reduce variables data and full variables data. This process results in quarterly forecast for precipitation and temperature, estimated by neural networks for a time-step D forward.
Full text: yes
Atualizar
 
  

Análise comparativa de simulações de dinâmica molecular em ambientes de alto desempenho
Ribeiro, J. A. J.

INPE-14465-TDI/1146
Becceneri, José Carlos (presidente)
Stephany, Stephan (orientador)
Preto, Airam Jônatas (co-orientador)
Granato, Enzo
Sousa, João Sinohara da Silva

2004-02-19
Simulações em dinâmica molecular são utilizados em experimentos computacionais para reproduzir propriedades de líquidos, sólidos ou moléculas. Os N átomos ou moléculas são tratados como massas pontuais e as equações de Newton são integradas a cada passo de tempo para calcular seu movimento. A carga computacional é alta devido à necessidade de calcular forças de interação entre todos os pares de partículas e com complexidade algorítmica O(N2). No caso deste trabalho, as N partículas estão confinadas num domínio bidimensional com condições de contorno periódicas, tendo sido adotado o potencial de Lennard-Jones. O código sequencial em Fortran 90 foi paralelizado usando a biblioteca de comunicação Message Passing Interface (MPI). Um esquema de decomposição por partículas foi adotado de forma a distribuir o domínio, e os cálculos redundantes foram drasticamente reduzidos, utilizando-se a 3ª Lei de Newton. Foi definido um anel lógico, no qual cada processador recebe dados de seu vizinho à esquerda e envia dados para o da direita. Mesmo considerando um potencial que requer o cálculo das interações entre todos os pares de partículas, esse esquema permite uma paralelização eficiente. Resultados de desempenho apresentaram bons speed-ups para até 20000 partículas, para simulação em ambas as máquinas paralelas de memória distribuída. Como esperado, o tempo de comunicação aumenta com N mas, ainda assim, a versão paralela proporcionou uma significativa redução do tempo de execução em relação à versão sequencial. Largura de banda e latência de comunicação também foram analisadas para ambas as arquiteturas. ABSTRACT: Molecular dynamics algorithms are used in computational experiments simulating the properties of liquids, solids and molecules. The N atoms or molecules in the simulation are treated as point masses and Newton's equations are integrated to compute their motion at each time step. The processing load is heavy due to the need of calculating interaction forces between pairs of particles and therefore the algorithmic complexity scales as O(N2). In the case of this work, the N particles are bound to a 2D domain with periodical boundary conditions and the Lennard-Jones potential was adopted. The Fortran 90 sequential code was parallelized using the Message Passing Interface (MPI) communication library. A particle decomposition scheme was adopted in order to decompose the domain and redundant calculations were drastically reduced with the use of the Newton 3rd law. A logical ring is defined in which each processor receives data from its left neighbor and sends data to the right neighbor. Even considering a potential which requires the calculation of the interactions between all pairs of particles, the scheme yields an efficient parallelization. Performance results for up to 20000 particles show good speed-ups running on both distributed memory parallel machines. As it would be expected, communication time tends to increase for larger N, but still the parallel version yields a significant reduction of the total time, compared with the sequential version. Communication latency and bandwidth for both architectures were analysed.
Full text: yes
Atualizar
 
  

Uma ferramenta para identificação, análise e controle de aplicações ponto-a-ponto
Rossi, G. B.

INPE-14478-TDI/1159
Guedes, Ulisses Thadeu Vieira (presidente)
Montes Filho, Antônio (orientador)
Becceneri, José Carlos
Cansian, Adriano Mauro

2004-04-02
Este trabalho apresenta o desenvolvimento de uma metodologia para identificação de aplicações ponto-a-ponto ou de protocolos com portas variáveis, como por exemplo, streaming de áudio e vídeo, permitindo sua monitoração, bloqueio ou controle. Essa metodologia baseia-se em dados extraídos do tráfego de rede por um sensor estrategicamente posicionado, que através da análise de assinaturas pré-configuradas permite a correta identificação do protocolo, não apenas fazendo uso do cabeçalho dos pacotes, mas sim de todo o seu conteúdo. Após essa identificação, o sensor cria um alerta contendo as informações relevantes sobre os dois nós participantes da comunicação, e envia esse alerta para a estação de análise e controle. De posse do alerta e de acordo com uma configuração pré-estabelecida, a estação de análise e controle toma a decisão sobre o bloqueio ou controle da utilização de banda de rede daquela sessão. Dessa maneira, o tráfego de rede pode ser classificado, permitindo que as aplicações críticas possam ter garantia de banda, enquanto aplicações não críticas possam ser restringidas ou totalmente bloqueadas. São emitidos relatórios estatísticos sobre a utilização de banda de rede por protocolo, permitindo uma fácil visualização sobre os protocolos utilizados na rede da corporação. Essa metodologia é a base para o desenvolvimento do Sistema Guardião de Protocolos (Protocol Guardian System PTGUARD), que irá auxiliar os administradores de rede a implementar políticas de segurança e de uso adequado de forma mais eficaz. ABSTRACT: This work presents the development of a methodology to identify peer to peer protocols or variable ports protocols, like audio and video streaming, for example, allowing its blocking or control. This methodology is based on traffic data obtained by a sensor put in a strategic manner in the network, which by analysis of previous configured signatures allows the correct identification of protocol, not only by the headers of the packet, but also its contents. After identifying the protocol, the sensor creates an alert containing all relevant information about the two nodes participating in the communication, sending this alert to the analysis and control station. With the alert and a predefined configuration, the analysis and control station decides over blocking or controlling the network bandwidth usage from that session. That way, network traffic can be classified, allowing critical applications the proper network usage and at the same time non critical applications can be restricted or totally blocked. Statistical reports made by the system about network bandwidth usage per protocol, allow easy visualization over protocols in use in corporate networks. This methodology is the basis to the development of Protocol Guardian System (PTGUARD), which will help network administrators to efficiently implement adequate usage and security policies.
Full text: yes
Atualizar
 
  

Diferentes estratégias de paralelização de um algoritmo genético epidêmico aplicadas na solução de um problema inverso em transferência de calor
Sambatti, S. B. M.
INPE-TDI/
Preto, Airam Jônatas (presidente)
Campos Velho, Haroldo Fraga de (orientador)
Stephany, Stephan
Diverio, Tiarajú Asmuz

2004-12-17
Este trabalho analisa e compara diferentes estratégias de paralelização de um Algoritino Genético (AG). Foi usado Algoritmo Genético Paralelo (AGP) para solucionar um problema inverso de condução de calor, onde deseja-se determinar o perfil inicial através da temperatura medida num dado tempo. Por ser um problema mal-posto é necessário o uso de uma técnica de regularização. O código paralelo foi gerado utilizando a biblioteca de comunicação por troca de mensagens MPI (Message Passing Interface). Cada processador executa um AO em uma sub-população (alocadas em diferentes processadores) e a migração do melhor indivíduo ocorre periodicamente entre os processadores. Um novo operador genético - epidemia - é empregado, onde parte da população é eliminada quando nenhuma melhora for obtida após um determinado número de gerações. Neste trabalho, diferentes estratégias de migração foram testadas, e os resultados obtidos, tais como desempenho, qualidade e convergência da solução foram discutidos. ABSTRACT: This work analyzes as well as compares different strategies for the paralelization of a Genetic Algorithm (GA). A Paralell Genetic Algorithm (PGA) was used to solve a inverse problem of heat transfer where the initial profile shall be determined based on the temperature values at a specific time. As a ill-conditioned problem, it is necessary to use a regularization technique. The paralell code was generated by using the Message Passing Interface (MPJ) library. Each processor executes a AG within a sub-population (allocated at different processors) and the migration of the best fit individual takes place periodically between processors. A new genetic operator (epidemic) is used where part of the population is eliminated whenever there is no improvement after a determined number of generations. In this work, different migration strategies were tested and the results, expressed by performance, quality and solution convergency were discussed.
Full text: no
Atualizar
 
  

Mapas auto-organizáveis na análise exploratória de dados geoespaciais multivariados
Silva, M. A. S.

INPE-12434-TDI/996
Silva, José Demísio Simões da (presidente)
Monteiro, Antônio Miguel Vieira (orientador)
Medeiros, José Simões de, (co-orientador)
Câmara Neto, Gilberto
Araújo, Aluízio Fausto Ribeiro

2004-03-08
Os Mapas Auto-Organizáveis têm sido aplicados, com sucesso, em variados problemas de análise exploratória de dados multivariados, todavia, poucos são os trabalhos voltados para a análise de dados coletados para unidades espaciais definidas, como os dados produzidos por censos demográficos, aqui chamados genericamente por dados geoespaciais. Este trabalho apresenta uma metodologia para a an´alise destes dados que contempla desde a verificação de dados atípicos até a análise de dependência espacial, fazendo uso, como ferramentas, somente do Mapa Auto-Organizável e seus algoritmos relacionados. Pode-se dividir a metodologia em quatro partes: detecção de dados atípicos através da análise da matriz de distância unificada (U-matriz), análise de componentes através dos Planos de Componentes, detecção automática de agrupamentos através do algoritmo Costa-Netto e análise da distribuição e dependência espaciais a partir dos Planos de Componentes e do particionamento dos dados na etapa anterior, respectivamente. Para a aplicação da metodologia proposta foi projetado e implementado um ambiente computacional integrado para an´alise explorat´oria de dados, que faz extensivo uso de banco de dados geogr´afico atrav´es da biblioteca aberta TerraLib (terralib.dpi.inpe.br). Compõem este ambiente a biblioteca SOMLib e o sistema CASA - Connectionist Approach for Spatial Analysis of Areal Data. A biblioteca SOMLib compreende um conjunto de classes em C++ projetadas a partir do uso de padrões de projeto e outras técnicas modernas de programação, cujo objetivo ´e implementar os algoritmos relacionados com os Mapas Auto-Organizáveis, de maneira a considerar a escalabilidade, a capacidade de manutenção do projeto e a conectividade com a biblioteca TerraLib. O sistema CASA é um simulador neural SOM 2-D, com interface gráfica, desenvolvido sobre as bibliotecas SOMLib e QT para execução das tarefas de análise exploratória de dados geoespaciais. Para validação da metodologia e do ambiente computacional de an´alise geográfica com redes SOM a mesma foi aplicada no problema de análise de indicadores de exclusão/inclusão social no município de São José dos Campos, São Paulo. Os resultados desta aplicação foram comparados com resultados anteriores, para o mesmo conjunto de dados, obtidos através de técnicas estatásticas e mostraram que os Mapas Auto-Organizáveis e os algoritmos relacionados são ferramentas robustas para a tarefa de análise exploratória de dados geoespaciais. ABSTRACT: Self-Organizing Maps (SOM) have being applied, successfully, in a variety of problems of exploratory analysis of multivaried data, however, few are the works related to the analysis of geospatial data. This work considers a methodology of analysis of geoespacial data that contemplates from the verification of outliers to the analysis of space dependence using a Self-Organizing Map and its related algorithms as tools. The methodology is divided into four parts: detection of outliers through the analysis of the matrix of unified distance (U-matrix), analysis of components through the Component Planes, automatic clustering through the Costa-Nettos algorithm and analysis of the space distribution and dependence from the Component Planes and analysis of the partititioning of the data in the previous stage, respectively. The application of the methodology was carried out with direct access to geographic data through the integration with the TerraLib library (terralib.dpi.inpe.br) by a computational environment. The SOMLib library and the system CASA - Connectionist Approach for Spatial Analysis of Areal Data are components of that environment. The SOMLib library is a set of C++ classes designed by using Design Patterns and other modern programming techniques, whose objective is to implement the algorithms related with the Self-Organizing Maps in way that considers the escalability, manutenability of the project and the conectivity with the TerraLib. The CASA system is a neural 2D SOM simulator, with graphical interface, developed on the SOMLib and QT libraries. The methodology was applied to the problem of social exclusion/inclusion in the City of São José dos Campos, São Paulo. The results of this application were compared with previous statistical results and showed that a Self-Organizing Map and related algorithms are robust tools for the task of exploratory analysis of geospatial data.
Full text: yes
Atualizar
 
  

Metodologia para paralelização de programas científicos
Tomita, S. S.

INPE-14474-TDI/1155
Stephany, Stephan (presidente)
Campos Velho, Haroldo Fraga de (orientador)
Panetta, Jairo (co-orientador)
Navaux, Philippe Olivier Alexandre

2004-02-10
Este trabalho propõe uma nova metodologia para paralelização de programas científicos e sua aplicação a um problema real. Visa direcionar o trabalho do programador da área de processamento de alto desempenho. Essa metodologia mostra os requisitos básicos e as técnicas necessárias para transformar programas seqüenciais em programas paralelizados. Demonstra as formas de medir desempenho e avaliar os resultados numéricos ao final de cada etapa quando se aplica gradativamente a estratégia de paralelização. A metodologia é dividida em quatro passos que são: preliminares, análise do problema, estratégia geral de paralelização e análise dos resultados. A metodologia foi aplicada ao modelo regional de previsão de tempo Eta usando uma máquina de arquitetura vetorial e paralela de memória compartilhada NEC/SX4 e arquitetura híbrida NEC/SX6 no CPTEC/INPE. O programa original era codificado em Fortran 77 e inicialmente foi transformado em Fortran 90. Em seguida houve a reestruturação do programa para permitir o paralelismo de dois níveis vetorização e paralelismo implementado por diretivas (padrão OpenMP). A implementação foi baseada em paralelismo de dados, e resultou um programa portátil com paralelismo também portátil para máquinas de memória compartilhada. Com o objetivo de facilitar o trabalho do programador na aplicação de paralelismo em programas, a metodologia propõe um caminho menos custoso e que requer menor tempo na fase de inicialização do processo de paralelização. ABSTRACT: This project is proposing a new methodology on the scientific program parallelism and applications on a real problem. It is a goal, direct the high performance processing programmers work. This methodology shows the basic techniques and requirements needed to convert sequential onto parallel codes. It does show the skill and evaluate the numerical results at the end of each stage when gradually the parallelism technique is applied. The methodology is divided in four steps: preliminaries, analysis of the problem, global strategy of parallelism and results analysis. The methodology has been applied to the regional weather forecast model Eta using both vectorial and parallel architecture machine with shared memory NEC/SX4 and hybrid architecture NEC/SX6 at CPTEC/INPE. The original code was built in Fortran 77 and re-written in Fortran 90. Afterwards, the code was re-structured to allow the parallelism in two levels vectorization and parallelism based on directives (OpenMP standard). The implementation is based on data parallelism and has resulted in a portable program with portable parallelism to shared memory machines. As an aim to turn the programmers job easier on the code parallelism, this methodology purposes an economical way where less effort is made in the initialisation stage of the parallelism process.
Full text: yes
Atualizar
 
  


   2005



Uma abordagem para a persistência dos modelos de objetos de sistemas configuráveis e adaptáveis
Almeida, W. R.

INPE--14174-TDI/1091
Becceneri, José Carlos (presidente)
Ferreira, Maurício Gonçalves Vieira (orientador)
Sant'Anna, Nilson
Alves, Sidnei de Brito

2005-04-01
Alguns sistemas de informação possuem domínios que se alteram constantemente. Os desenvolvedores desses sistemas tem o problema de lidar com mudanças nos requisitos do domínio após a implementação do sistema. O Modelo de Objetos Adaptável (Adaptive Object Model-AOM) propõe uma solução para esse problema armazenado a estrutura e o comprotamento dos objetos desses sistemas em um banco de dados, ao invés de codificá-los, permitindo realizar mudanças nesses objetos através de alterções nesse banco de dados, sem a necessidade de recodficação. Esses sistemas são adaptáveis e configuráveis em tempo de execução, mas o seu desenvolvimento apresenta algumas dificuldades para seus desenvolvedores. Duas dessas dificuldades são armazenar e recuperar o modelo de objetos em um banco de dados. Em sistemas distribuídos desenvolvidos baseados na arquitetura AOM, a tarefa de persistir o modelo de objetos em um banco de dados, se apresenta como um desafio e motivou esta dissertação que tem por objetivos: (1) estabelecer um mapeamento do modelo de objetos de uma aplicação para três sistemas de gerenciamento de dados; (2) como estudo de caso desenvolver três protótipos, baseados nos AOMs, que armazenem o modelo de objetos de um sistema para o controle de satélites realizar uma comparação qualitativa entre os sistemas de gerenciamento de dados utilizados; (3) criar mecanismos para a instalação do modelo de objetos a partir dos seus valores armazenados em um sistema de gerenciamento de dados. ABSTRACT: Some information system domains change constantly. The developers of this kind of system have to addres the problem of frequent changes in the domain requeriments when the system is already coded. The Adaptive Object Model (AOM) proposes to solve this problem by structure and behavior of the objects in a database instead of codifying them. This allows the user to make changes in the object model without having to change the code. These are dificulties to be faced in this kind of system: kow to store and how to retrieve the object model in a database. In distributed system developed based on AOM architecture the task of persisting the object model in a database becomes a challenge. The aims of this work are: (1) to establish the mapping of an object model of a distributed, adaptive and configurable system to three data management systems; (2) to conduct a case study that consist of developing three prototypes based on AOM to store the object model of satellites control system and to compare the advantages and disadvantages of each data management system used: and (3): to creat mechanisms to instantiate the object model using values stored in a data management system.
Full text: yes
Atualizar
 
  

Geração de casos de teste para sistemas especificados em statecharts
Amaral, A. S. M. S.

INPE-14215-TDI/1116
Carvalho, Solon Venâncio de (presidente)
Martins, Eliane (orientadora)
Vijaykumar, Nandamudi Lankalapalli, (orientador)
Sant'Anna, Nilson
Yano, Edgar Toshiro
Anido, Ricardo de Oliveira

2005-11-18
Devido à necessidade cada vez maior de automação presente em sistemas modernos, em diversas áreas inclusive críticas, atividades de teste se tornam cada vez mais imprescindíveis. A automação da geração de casos de testes é de alguma forma facilitada se o sistema em questão for representado por uma técnica formal que possa ser tratada computacionalmente. A técnica de especificação mais popular é a Máquina de Estados Finita (MEF) que contém um conjunto de estados e transições entre os estados, e existem vários métodos que geram casos de testes a partir da especificação em MEF, como por exemplo: transition tour, unique-input-output sequence (uio), distinguishing sequence (DS) e characterizing sequence. O escopo deste trabalho consiste em utilizar a ferramenta Condado para a geração dos casos de teste. No entanto, se o sistema reativo é complexo com vários componentes paralelos a serem considerados, a sua representação em MEF se torna inviável em termos de clareza já que não há como especificar esta representação numa forma organizada e estruturada. A idéia é então usar uma técnica de especificação de mais alto nível como Statecharts e, utilizando a ferramenta PerformCharts, convertê-la para uma MEF para que a Condado possa ser aplicada. Entretanto, é preciso ter em mente que a geração de casos de teste pode levar a um número muito grande de casos dependendo do tamanho da MEF e conseqüentemente inviabilizando o processo. O trabalho apresenta uma metodologia para geração automática de casos de teste fazendo uso das ferramentas PerformCharts e Condado. Além de mostrar como esta associação entre as duas ferramentas é conduzida, serão também discutidas algumas técnicas para minimizar a MEF gerada a partir dos Statecharts. ABSTRACT: Due to the increasing need of automation in modern systems of several areas, including the critical ones, testing activities have become essential. Automation of test case generation is made somewhat easy if a reactive system under test is represented through a formal technique that can be dealt with computationally. The most popular specification technique is the Finite State Machine (FSM) that consists of a state sets and transitions between them, and there are several methods for the generation of test cases from the FSM specification, such as: transition tour, unique-input-output sequence (uio), distinguishing sequence (DS) e characterizing sequence. The scope of this work consists of using the Condado for the generations of the test cases. However, if the system is complex with several parallel components to be considered, its FSM representation becomes cumbersome in terms of clarity because there is no way to specify such representation in an organized and structured manner. The idea then is to use a higher-level specification technique such as Statecharts and, through the use of the PerformCharts tool, convert it to a FSM in order to be processed by another tool, the Condado. Nevertheless it is necessary to have in mind that the test case generation can lead to an excessively large number of cases depending on the FSM size and thus making the process impossible. This work presents a methodology for the automatic generation of test cases through the use of PerformCharts and Condado tools. Besides, it discusses how these two tools are combined. Some techniques will also be discussed in order to minimize the FSM generated from the Statecharts.
Full text: yes
Atualizar
 
  

Análise matemático-computacional de superfícies irregulares: aplicações para materiais ativos nanoestruturados
Baroni, M. P. M.
INPE--TDI/
Ramos, Fernando Manuel (presidente)
Silva, Antônio Ferreira da (orientador)
Rosa, Reinaldo Roberto (co-orientador)
Santos, Lucia Vieira
Silva Junior, Eronides Felisberto da

2005-02-28
Neste trabalho desenvolve-se a implementação de diferentes modelos que descrevem processos de crescimento e sua correspondente classe de universalidade: (1) deposição balística; (2) deposição randômica; e (3) KPZ. Devido as suas propriedades físicas, a modelagem de crescimento KPZ 2D é adotada para simular a estrutura de materiais porosos com características espaciais equivalentes àquelas encontradas em amostras de silício poroso e Porous Diamond-Like-Carbon (PDLC). Realiza-se a análise da modelagem utilizando conceitos de escala e aplicação da Análise de Padrões Gradientes, tanto nos resultados obtidos a partir dos modelos quanto nas imagens das amostras de materiais porosos obtidas através de Atomic Force Microscopy (AFM). Propõe-se uma classificação de padrões estruturais globais e locais e discute-se a sua importância para a área de materiais porosos nanoestruturados com destaque para a aplicação em dispositivos óptico-eletrônicos. Como objetivo fundamental, este trabalho reúne bases matemáticas, físicas e computacionais para implementação preliminar de um laboratório numérico para geração e análise de superfícies irregulares que tenham interesse para a área de nanotecnologia. ABSTRACT: In this work it is developed implementation of different models that describe processes of growth and its corresponding universality class: (1) ballistic deposition; (2) random deposition; and (3) KPZ. Due to its physical properties, the KPZ 2D is adopted to simulate the structure of porous materials with spatial characteristics compatible to those founding in porous silicon and Porous Diamond-Like-Carbon (PDLC) samples. The analysis of the modeling was done using both scaling concepts and application of the Gradient Pattern Analysis in the results obtained from the models as in the Atomic Force Microscopy (AFM) images of the porous materials samples. A sample classification of global and local structural patterns is considered discussing its importance for the area of nanostructured porous materials with application in optic-electronic devices. As a fundamental goal, this work congregates mathematical, physical and computational bases for preliminary implementation of a numerical laboratory for generation and analysis of irregular surfaces that have interest in nanothecnology.
Full text: no
Atualizar
 
  

Caracterização de processos moleculares simulados utilizando a análise de padrões gradientes
Campos, M. R.
INPE--TDI/
Becceneri, José Carlos (presidente)
Silva, Alan Winter Sousa da (orientador)
Rosa, Reinaldo Roberto (co-orientador)
Ramos, Fernando Manuel
Pascutti, Pedro Geraldo

2005-03-28
Este trabalho tem por objetivo investigar modos de aplicação da técnica de Análise de Padrões Gradientes (Gradient Pattern Analysis - GPA) para a caracterização de processos moleculares. A primeira aplicação consiste na caracterização de regimes de relaxação espaço-temporal em cadeias poliméricas simuladas por meio do modelo de Fujiwara - Sato. A segunda aplicação consiste na classificação dos níveis de assimetria e de entropia 9 presentes na evolução espaço-temporal da Protease do HIV complexada com o inibidor Saquinavir, simulada por meio do programa (3ROMACS. Em ambos os casos são obtidos resultados que confirmam a utilidade da OPA como uma nova ferramenta computacional para a análise de dados espaço-temporal de natureza molecular e biomolecular. ABSTRACT: This work investigate the application of the Gradient Pattern Analysis (GPA) technique for the characterization of molecular processes. The first application consists of the characterization spatio-temporal relaxation regime in polymer chains simulated by means of the Fujiwara-Sato model. The second application consists of the classification of the asymmetry and entropy levels found during the spatio-temporal evolution of the Protease of the HIV complexed with inhibitor Saquinavir, simulated by means of GROMACS program. In both cases the results confirm the utility of the GPA as a new computational tool for the analysis of spatio-temporal molecular and biomolecular data.
Full text: no
Atualizar
 
  

Uma nova arquitetura para a representação das regras de negócio em modelos de objetos dinâmicos
Cardoso, P. E.

INPE-13044-TDI/1020
Carvalho, Sólon Venâncio de (presidente)
Ferreira, Mauricio Gonçalves Vieira (orientador)
Sant'Anna, Nilson
Oliveira, Henrique Jesus Quintino de

2005-03-01
A Divisão de Desenvolvimento de Sistemas de Solo (DSS) sempre desenvolveu os sistemas de controle para os satélites do INPE com arquiteturas que permitissem que os mesmos fossem re-usados por futuros satélites com um conjunto reduzido de mudanças. O desafio que se apresenta é construir um sistema de controle adaptativo, usando a tecnologia de Objetos Dinâmicos, de modo que tais sistemas possam atender futuros requisitos sem necessidade de mudanças no código. De acordo com esta tecnologia as estruturas dos objetos e os seus comportamentos são armazenados em banco de dados de modo que os usuários finais possam modificá-los usando ferramentas de configuração e possivelmente uma linguagem especifica ao domínio do problema. Este trabalho propõe um sistema de Objetos Dinâmicos segundo uma arquitetura que facilite sua utilização pelos sistemas de controle de satélites. Este trabalho também apresenta uma nova abordagem para representação dos Objetos Dinâmicos, baseada em uma árvore de entidades e propriedades. Como resultados são apresentados um protótipo da ferramenta de configuração e a utilização da arquitetura proposta em um dos subsistemas do sistema de controle de satélites. Em função destes resultados chegou-se à conclusão que a abordagem de representação e arquitetura propostas são viáveis mas, estudos adicionais devem ser realizados para avaliar alguns pontos desfavoráveis que foram identificados. Outro resultado importante é que a arquitetura proposta é um framework que pode ser facilmente adaptado para outros domínios de problema. ABSTRACT: The Ground System Development Division (DSS) at INPE has always developed satellite control systems with architectures that may be used as much as possible by future satellites. The present challenge is to build an Adaptive Satellite Control System, using the technology of the Dynamic Object Model, so as to comply with later requirements without having to make significant changes in the code. According to this technology, object structures and their behavior are mapped onto a database, so endusers can modify them by using configuration tools and, possibly, a domain specific language. This paper proposes a Dynamic Object System, using an architecture that facilitates its long term use by the satellite control systems. The paper also presents a new approach for representing Dynamic Objects, based on a tree of entities and properties. Results are presented from a configuration tool prototype and the use of the proposed architecture in one subsystem of the satellite control system. Based on these results, the proposed architecture and the representation approach were proved to be viable although some unfavorable results were identified. Further studies need to evaluate these problems. Another important result is that the proposed architecture is a framework that can easily be adapted to other problem domains.
Full text: yes
Atualizar
 
  

Técnicas para detecção de intrusão em redes de alta velocidade
Carvalho Filho, B. P.
INPE--TDI/
Becceneri, José Carlos (presidente)
Montes Filho, Antonio (orientador)
Stephany, Stephan
Almeida, Felipe Afonso de

2005-05-27
Com a contínua expansão da Internet e a evolução tecnológia que tem possibilidado o aumento da velocidade das redes, a detecção de intrusão, apesar de relativamente recente, vem sendo forçada a buscar novos paradigmas. A análise do tráfego com o exame de cada pacote trafegado torna-se tarefa muitas vezes inviável, em função da grande capacidade de processamento neessária para que não ocorra perda de informação. Este trabalho investiga a aplicação de Netflow, ferramenta de monitoramento de tráfego desenvolvida pela Cisco Systems, como alternativa para a detecção de intrusão em redes de alta velocidade, em função do menor volume de dados. ABSTRACT: The continous growth of Internet, allied to the always evolving network tecnology, has been pushing the relatively new branch of Intrusion Detection to the quest for new paradigms. Traffic analysis with detailed inspection of each and every packet often becomes an unfeasible task, due to the large processing and storage costs needed to keep up without loss of valuable information. This work investigates the use of Netflow, a monitoring facility developed by Cisco Systems Inc, as an alternative to the packet inspection technique for Intrusion Detection in high-speed networks, considering its lower demands of storage space and, consequently, processing capacity.
Full text: no
Atualizar
 
  

Detecção de bacdoors e canais dissimulados
Chaves, C. H. P. C.
INPE--TDI/
Stephany, Stephan (presidente)
Montes Filho, Antonio (orientador)
Guedes, Ulisses Thadeu Vieira
Gaspary, Luciano

2005-12-09
Este trabalho apresenta desenvolvimento de uma metodologia de detecção de backdoors e canais dissimulados. Esta metodologia é dividida em três fases: a reconstrução das sessões TCP/IP, a análise e classificação, e a geração do resultado. A primeira fase propõe a utilização do Sistema de Reconstrução de Sessões TCP/IP - Recon para efetuar a reconstrução das sessões. na segunda fase, uma vez reconstruída, a sessão é analisada em busca de características que a classifiquem como pertencente a um backdoor ou canal dissimulado. Primeiramente é feita uma análise do comportamento do protocolo utilizado na sessão. Depois, procura-se no conteúdo da sessão por assinaturas conhecidas dos backdoors e das ferramentas que implementam canais dissimulados, de forma a identificá-las. A terceira fase da metodologia gera um relatório contendoo resultado da análise e classificação feita na segunda fase e as informações das sessões TPC/IP. A metodologia é, então, utilizada como base para o desenvolvimento de um Sistema de Detecção de Backdoors e Canais Dissimulados, que pretende ser uma ferramenta de auxílio ao analista de segurança na detecção de intrusão. O resultado gerado pelo sistema poderá ser correlacionado com as informações geradas por outras ferramentas, com o objetivo de ser mais uma camada na defesa em profundidade de redes de computadores. O sistema foi testado em uma rede de produção, com o auxílio de um sensor, posicionado adequadamente para coleta de pacotes do tráfego, que armazena os dados em arquivos periodicamente. Esses arquivos foram utilizados como entrada para o sistema. Finalmeten, são relatados os resultados obtidos pelo sistema durante o teste com ferramentas que implementam backdoors ou canais dissimulados, mostrando as taxas de falso-positivos e falso-negativos obtidos. ABSTRACT: In this work, the decelopment of a backdoor and covert channel detection methodology is presented. The methodololy is divided in three phases: the TPC/IP session's reconstruction, the analysis and classification and the result generation. The first phase propose the use of the TPC/IP Session's Reconstruction System - Recon to perfrm the session's recosntruction. In the scond phase, each session is analysed and some backdoor and covert channel characteristics are searched in order to classify the sessions. This is done by first analysis the session's protocol behavior. Then, known backdoor and covert channel's patterns are searched in the session's payload to indentify the tool used. The third phase generates a report containing the analysis and classification results, and the TCP/IP session's information. This methodology supports the development of the Backdoor and Covert Channel System, a tool designed to be used by a security analyst for intrusion detection. The results generated by the system can be security with information generated by other tools, intending to be one more layer in the defense of a computer network. The system was tested in a production network, with a sensor that is appropriatly to capture pakets from network traffic and regularly store captured data in files, which were used as input to the system. Finally, the tool has been tested to detect backdoors and covert channel and the false-positives and false-negatives rates are presente.
Full text: no
Atualizar
 
  

Desenvolvimento de metodologias e ferramentas para o redirecionamento de ataques
Franco, L. H.
INPE--TDI/
Stephany, Stephan (presidente)
Montes Filho, Antonio (orientador)
Guedes, Ulisses Thadeu Vieira
Moreira, Edson dos Santos

2005-03-21
Muitos acreditam que a utilização de um firewall é suficiente para proteger uma rede contra qualquer tipo de ameaça, sem se dar conta de que a segurança de uni sistema de informação e das redes que o compõem não pode ser garantida por um único mecanismo de defesa. Além de proteger estes sistemas, há situações em que surge a necessidade de se monitorar determinados ataques, com o propósito de descobrir a sua origem, as ferramentas utilizadas, assim como sua motivação. Isto é feito, atualmente, por meio de honeynets. O trabalho aqui apresentado descreve o desenvolvimento de um sistema destinado a redirecionar tráfego malicioso, dirigido contra servidores de uma organização, para honeypots sem que os atacantes se dêem conta. Isto é feito por um sistema que engloba um sistema detecção de intrusão baseado em redes (NIDS), um sistema de controle de sessões, uma honeynets e um módulo de integração e controle. Este sistema é capaz de armazenar as sessões ativas em memória, identificar tráfego malicioso, através do NIDS, e desviar os pacotes capturados, sem a interrupção da sessão hostil, para um honeypots. Outra funcionalidade do sistema é o desvio para o honeypots de tráfego destinado a portas associadas a serviços de rede que não estejam disponíveis na rede monitorada. O sistema também visa detectar novos ataques ou tentativas de acesso do atacante a outras aplicações servidoras instaladas no sistema comprometido durante o ataque inicial. ABSTRACT: Many believe that firewalls by themselves are sufficient Lo p a network against any kind of threats, without considering that the security of information systems and its networks cannot be guaranteed by a single defense mechanism. In addition, there are situations in which there is a need Lo monitor an attack, in order to find out its origin, the tools used and its motivations, among other things. Nowadays, this is done by means of honeynets. This work aims lo detect malicious traffic destined to the servers of au organization and Lo switch it to au emulation of the target system, without alerting the attacker. This is done by a system composed of a network based intrusion detection system (NIDS), a session control system, a honeynet and a control and integration module. This system stores the active session in memory, identifies the malicious traffic, through the NIDS and switch it to a honeypot, with no interruption of the hostile session An added functionality of the system is the switching to a honeypot of all traffic destined Lo ports associated with network services not available in the production network. The system also aims Lo detect new attacks or access attempt of the attackers to other server installed in the compromised system during the initial attack. .
Full text: no
Atualizar
 
  

Novas heurísticas para o problema de escalonamento de atripulações
Mauri, G. R.

INPE-13602-TDI/1041
Carvalho, Solon Venâncio de (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Souza, Marcone Jamilson Freitas
Senne, Edson Luis França

2005-02-23
O problema de escalonamento de tripula¸coes consiste na atribui¸cao da tarefa de condu¸cao dos ve´ýculos `as tripula¸coes, de tal forma que todas as viagens realizadas por uma empresa sejam executadas com o menor custo poss´ývel. Esse processo ´e uma etapa de fundamental importancia no planejamento das opera¸coes para uma empresa do setor de transporte coletivo e pertence `a classe de problemas de dif´ýcil solu¸cao. V´arios m´etodos tem sido aplicados para resolver tal problema, mostrando resultados bem variados. Este trabalho faz uma revisao de alguns trabalhos correlatos encontrados na literatura, e apresenta uma metodologia h´ýbrida, ainda nao explorada, denominada ATP/PL, para resolver tal problema, com o objetivo de alcan¸car solu¸coes variadas para problemas que considerem caracter´ýsticas de problemas reais. A ATP/PL ´e baseada na t´ecnica de Gera¸cao de Colunas e ´e implementada atrav´es da intera¸cao entre o Algoritmo de Treinamento Populacional com a Programa¸cao Linear. Al´em disso, as solu¸coes obtidas por tal metodologia sao comparadas com solu¸coes obtidas pela metaheur´ýstica Simulated Annealing, que por sua vez apresentou excelentes resultados para problemas reais em trabalhos anteriores. ABSTRACT: The crew scheduling problem consists in attributing to the crews the job of driving vehicles, in such a way that trips of dierent lines assisted by a company are executed with the smallest possible cost. This process is of fundamental importance in planning the operations for the public transportation sector and belongs to a class of dicult problems. Several methods have been applied to this problem presenting dierent results. This work reviews some of them presented in the literature, and presents a hybrid methodology, not yet explored, named ATP/PL, to solve such problem, searching varied solutions for problems considering real characteristics. The ATP/PL is based in a Column Generation technique and implemented through Population Training Algorithm with Linear Programming interaction. Besides, the obtained solutions are compared against solutions obtained by the Simulated Annealing metaheuristic, that had presented good results for real problems in previous works.
Full text: yes
Atualizar
 
  

Classificação de regiões usando atributos de forma e seleção de atributos
Oliveira, J. A.

INPE-13746-TDI/1050
Oliveira, João Ricardo de Freitas (presidente)
Rennó, Camilo Daleles (orientador)
Dutra, Luciano Vieira (orientador)
Freitas, Corina da Costa
Vieira, Carlos Antônio Oliveira

2005-04-01
Com o aumento da disponibilidade no número de atributos extraídos dos dados de sensoriamento remoto, existe uma necessidade crescente de reduzir a complexidade da etapa de classificação. Quando a dimensionalidade dos dados é muito alta, uma estratégia de busca deveria ser utilizada para selecionar um subconjunto de atributos que forneçam o mínimo erro de classificação, considerando o tamanho limitado dos dados de treinamento. Particularmente, quando se trabalha com ambiente muito complexo como é a cena urbana, a extração do atributo de forma é necessária para distinguir diferentes classes de objetos que possuem assinaturas espectrais similares. Um grande número de atributos e o número limitado de amostra de treinamento é uma situação comum nos estudos urbanos no qual implica a aplicação dos métodos de seleção de atributos adaptados para a classificação de regiões. Este trabalho propõe a utilização de métodos de extração de atributos de forma e seleção de atributos em sistemas de processamento de imagens. Primeiramente, extraíram-se 38 atributos de forma e textura de cada amostra de treinamento. A seleção dos subconjuntos para cada método de seleção foi baseada na distância média Jeffrerys-Matusita (JM). A fim de determinar a eficiência da metodologia proposta, foram realizados testes em imagens sintéticas e de sensoriamento remoto (Landsat/TM). Os métodos de seleção de atributos Sequential Forward Feature Selection (SFS), Sequential Backward Feature Selection (SBS) e NEXKSB (Next ksubset of an n-Set) foram aplicados na redução da dimensionalidade. Esses três métodos de seleção de atributos foram aplicados e uma acurácia de 100% foi alcançada usando dois atributos em ambas as imagens. Como não existe uma relação determinística entre os métodos de seleção de atributos e o erro de classificação é possível concluir que todas as estratégias de busca deveriam ser usadas para diminuir o número de avaliações baseadas no erro de classificação. Este trabalho apresentou a importância da extração do atributo de forma e a necessidade da aplicação dos métodos de seleção de atributos nos sistemas de processamento de imagens. ABSTRACT: With the steady increase in the number of features available from remote sensing sources, there is a growing necessity to reduce the complexity of the classification task. When data dimensionality is very high, a search strategy should be used to select the subset of features that gives the minimum classification error, considering the limited size of training data. Particularly when one deals with the very complex environment that is the urban scene, shape feature extraction is necessary to distinguish different classes of objects which have similar spectral signature. Large number of features and limited number of training samples is the common situation in urban studies which implies the application of feature selection methods adapted to region classification. This work proposes shape feature extraction and application of feature selection methods in systems of image processing. Firstly, we extracted 38 shape and texture features for each training sample. The selected feature subset by each criterion was classified based on greater average Jeffrerys-Matusita (JM) distance. In order to determine the efficiency of the methodology, tests were developed in synthetic and Landsat-TM images. The Sequential Forward Feature Selection (SFS), Sequential Backward Feature Selection (SBS) and NEXKSB (Next subset of an n-Set) were tested to reduce the data dimensionality. These three different feature selection methods were used and an accuracy of 100% was achieved by using 2 features in both synthetic and Landsat-TM images. As there is no a deterministic relation between feature selection methods and classification error, it is possible to conclude that all search strategies should be used to narrow the number of choices assessments based on classification error. This work showed the importance of the shape feature extraction and the necessity of the application feature selection methods in systems of image processing.
Full text: yes
Atualizar
 
  

Implementação de uma metodologia para mineração de dados aplicada ao estudo de núcleos convectivos
Politi, J.

INPE-14165-TDI/1082
Stephany, Stephany (presidente/orientador)
Domingues, Margarete Oliveira (orientadora)
Ferreira, Nelson Jesus
Mendes Júnior, Odim Mendes
Enembreck, Fabricio
Lacerda, Moacir

2005-02-03
Neste trabalho, implementou-se uma metodologia para mineração de dados (data mining) aplicada ao estudo de núcleos convectivos utilizando a teoria dos conjuntos aproximativos (rough sets). A mineração de dados foi efetuada em uma base de dados de natureza espaço-temporal, composta de dados de descargas elétricas do tipo nuvemsolo, índices de estabilidade obtidos utilizando-se dados de estações de radiossondagem e dados de inicialização de um modelo meteorológico de mesoescala. Devido à grande quantidade de dados de descargas elétricas, necessitou-se de um método para a redução destes dados. Para isto, foram investigados diversos métodos de representação espacial, visando agrupar espacialmente as ocorrências de descargas elétricas em entidades denominadas centros de atividade elétrica. Essa redução possibilitou identificar padrões em um tempo aceitável, além de permitir a integração com os demais dados. Este estudo buscou informações desconhecidas e potencialmente úteis nessa base de dados e demonstrar o potencial da metodologia proposta. Os resultados obtidos validam a ferramenta desenvolvida. ABSTRACT: In this work, a methodology for data mining was implemented using the rough sets theory and applied to the study of convective nucleous. Data mining has been used to analyze large volumes of data trying to identify frequent correlations, patterns, and outliers, in the most varied domains of applications, including scientific research. In this study, data mining was applied to a spatial-temporal database composed of occurrence data of electric discharge of the type cloud-to-ground, stability indexes obtained from radiosounding stations, and initialization data of the a mesoscale meteorological model. In face of the large amount of electric discharge data, a method for reducing these data was required. Several methods of spatial representation of data were investigated, in order to spatially group discharge occurrence data in entities that were named centers of electrical activity. This reduction allowed to identify patterns in a feasible amount of time, and made possible the integration with the remaining data. The objective of this work was to detect unknown and potentially useful information in the considered database and to demonstrate the potential of the proposed methodology. The results prove the feasibility of the developed tool.
Full text: yes
Atualizar
 
  

Sistema para simulação interativa de dinâmica molecular em um ambiente paralelo
Rodrigues, E. R.

INPE-14832-TDI/1272
Silva, José Demisio Simões da (presidente)
Preto, Airam Jônatas (orientador)
(orientador), Stephan Stephany
Granato, Enzo
Divério, Tiaraju Asmuz

2005-03-29
Este trabalho apresenta uma implementação proposta para paralelização de simulações interativas de Dinâmica Molecular (DM) utilizando o ambiente PyMPI, o qual estende a linguagem Python para o execução paralela através da biblioteca de comunicação MPI. Utilizou-se como estudo de caso o ADKS, que é um software interativo para simulações de DM aplicadas a defeitos em sólidos, tais como fraturas e contornos de grão. Uma máquina paralela de memória distribuída composta de 5 nós biprocessados foi empregada. Inicialmente, paralelizou-se o motor de simulação do ADKS utilizando-se a abordagem de decomposição espacial do domínio entre processadores e a biblioteca MPI. Empregou-se comunicação não bloqueada para otimizar o desempenho computacional, obtendo-se então speedups próximos do linear nos casos analisados. As simulações interativas paralelas foram modeladas como um autômato finito e implementadas por meio do ambiente PyMPI. O motor de simulação foi então integrado a esse ambiente de forma que suas rotinas associadas sejam acessíveis ao usuário na forma de comandos. Um novo módulo de visualização foi integrado à simulação interativa e executado no nó mestre, que executa a interface de usuário. Esse módulo é baseado naquele do ADKS e exibe as partículas em uma janela gráfica. O desempenho paralelo das simulações interativas foi ligeiramente inferior ao do motor de simulação devido à comunicação das coordenadas atualizadas das partículas ao processador mestre. Testes com simulações específicas demonstraram a viabilidade da abordagem proposta. ABSTRACT - This work presents a proposed implementation of a Molecular Dynamics (MD) interactive simulator. It employs the PyMPI environment, that extends the Python language for parallel execution by means of the MPI communication library. The ADKS was chosen as a case study. It is an interactive software for MD simulations aimed at defects in solid materials, such as fractures and grain boudaries. A distributed memory parallel machine composed of 5 biprocessor nodes was employed. In a first step, the ADKS simulation engine was parallelized by means of the MPI library and the partition of the simulation domain among processors. In order to optimize the computational performance, non blocking communication was employed. As a result, speedups very close to linear were obtained in the test cases. The parallel interactive simulations were modelled as a finite automata and implemented by means of the PyMPI environment. The simulation engine was integrated to this environment in such a way that its routines were made available as user commands. A new visualization module was integrated to the interactive simulation and executed in the master node, that runs the user interface. This module is based on the original ADKS one and displays the particles in a graphical window. The parallel performance of the simulation coupled to visualization was slightly lower than that of the stand alone simulation engine. This is due to the communication that is required to update the particle coordinates in the master node. Specific test cases were executed with visualization showing the feasibility of the proposed approach.
Full text: yes
Atualizar
 
  

Uma arquitetura de testes para sistemas espaciais
Silva, C. S.
INPE--TDI/
Sant'Anna, Nilson (presidente)
Martins, Eliane (orientador)
Vijaykumar, Nandamudi Lankalapalli (co-orientador)
Ferreira, Mauricio Gonçalves Vieira
Weber, Taisy Silva

2005-10-07
Atualmente os computadores são utilizados em praticamente todas as áreas da ciência e tornaram imprescindíveis em várias atividades fundamentais na sociedade. Particularmente em aplicações espaciais, os sistemas computacionais têm que ser confiáveis e tolerantes à falhas, ou seja o sistema deve continuar operando de forma degradada ou não mesmo em presença de falhas. Para isso é necessário investir no processo de desenvolvimento de sistemas e fazer uso de alguns mecanismos de tolerância á falhas. Além disso, com a constante evolução tecnológica os sistemas para aplicações espaciais estão evoluindo e mudando de plataforma com uma freqüência cada vez maior. Isto faz com que seja necessário adaptar uma arquitetura para testes de software que suporte: testes multi-partes, várias tarefas sendo executadas em paralelo, característica inerente à sistemas espaciais; alta portabilidade; testes de injeção de falhas e que seja extensível. Assim esse trabalho apresenta uma arquitetura de testes para sistemas espaciais que contempla as características para esse tipo de sistema. ABSTRACT: Nowadays, computers have become an intrinsic part in several scientific applications as well as in most of the fundamental activities within the society. In particular, computational systems, in space applications, have to be reliable and fault-tolerant, i.e., the system must be able to at least perform basic operations even in the presence of faults. Achieivng this requires investing in the development process by employing fault tolerant mechanisms. Morever, with technological evolution, space application systems are also evolving and switching to different platforms more frequently. This demands for adapting an for testing software that provides support to: multi-point testing; parallel execution of several tasks which is intrinsic feature of space systems; highly portable; tests with fault injections and should be extendible. Therefore, the work described here discusses a test arquitecture for space systems that addresses the above mentioned items.
Full text: no
Atualizar
 
  

Simulação multi-agentes para modelagem de situações de pânico
Sumida, I. Y.
INPE--TDI/
Becceneri, José Carlos (presidente)
Macau, Elbert Einstein Nehre (orientador)
Ramos, Fernando Manuel
Marietto, Maria das Graças Bruno

2005-03-28
Este trabalho apresenta uma proposta de um modelo conceitual para o fenômeno do pânico coletivo. Além disso, um estudo de caso é desenvolvido e implementado utilizando a teoria de Simulação Multiagentes. Tendo em vista que, nas situações de pânico as pessoas precisam tomar atitudes rápidas para sobreviver e apresentam um comportamento pouco racional, agindo por instinto para salvarem suas vidas, notou-se que não seria necessário o uso de agentes internamente complexos, optando-se pelo uso de agentes reativos. As simulações realizadas analisaram algumas questões relevantes nessas situações, como o tempo total gasto para evacuação de uma sala, a quantidade de colisões entre os participantes e um aspecto intrínseco do problema, que é a formação de arcos. Também, foram propostas e testadas duas hipóteses que procuraram reduzir o tempo real de saída e a quantidade das colisões entre as pessoas durante a evacuação de uma sala. Como resultado dessas hipóteses obteve-se um tempo de saída menor com a adição de uma coluna em frente á porta de saída. E a quantidade de colisões diminuiu quando, por um processo de comparação, o agente com menor força retrocedia para dar passagem a um agente de maior força. ABSTRACT: This work presente a new conceptual model for the phenomenon of collective panic. Based on this model, situations are computational implemented using the framework of multiagent systems. The paradigm of reactive agents is considered as the most appropriate in the context of our model. This happens because according to our model, in panic situations people takes actions based on the ultimate goal of save their lives, choosing ways more based on short range considerations than on complexcognitive processing. Our simulations focus on key questions related to this phenomenon, as the total escape time for people to leave the room, number of collisions, pattern formation and the relevance of environment geometry for the development of the phenomenon. Furthermore, we conceive strategies to mitigate panic situation, to allow people evacuation as fast as possible with a reduced number of collisions.
Full text: no
Atualizar
 
  


   2006



Wiss - serviço web para segmentação de imagens: especificação e implementação
Aulicino, L. C. M.

INPE-14609-TDI/1189
Santos, Rafael Duarte Coelho dos (presidente)
Monteiro, Antonio Miguel Vieira (orientador)
Fonseca, Leila Maria Garcia
Câmara, Gilberto
Filho, Jugurta Lisboa

2006-04-03
Instituições governamentais, corporativas e científicas têm realizado grandes investimentos na geração, processamento e distribuição de imagens de sensoriamento remoto. Estes investimentos têm causado um crescimento explosivo nos acervos e bancos de imagens das instituições, superando em muito a atual capacidade de interpretar e analisar estes dados. Paralelo a este crescimento uma nova plataforma tecnólogica esta surgindo, os Web Services, que são vistos hoje como sendo a próxima onda da evolução da Internet. A visão é de ter uma Web rica em funcionalidades como a atual é rica em informações, fato que abre uma oportunidade única para disponibilizar serviços na Web que permitam a um usuário qualquer executar processamentos sobre os bancos de imagens, aumentando assim a atual capacidade de interpretar e analisar estes dados, reduzindo custos e agilizando processos de decisão. Com base nesta visão este trabalho propõe uma especificação para um novo serviço geográfico, o WISS Web Image Segmentation Service que adere às propostas apresentadas pelo OWS Framework, em sua versão 0.1.3 apresentada pelo consórcio OGC. É apresentada uma implementação da especificação WISS proposta, que utiliza a biblioteca de componentes geográficos de código aberto TerraLib, e um protótipo demonstrativo foi implementado para o serviço especificado. Por fim, é feita uma discussão sobre o uso das especificações de serviços Web no contexto do OGC e suas limitações para aplicações que operam sobre grandes bases de imagens de sensoriamento remoto. ABSTRACT : Governmental, corporative and scientific institutions have carried through great investments in the generation, processing and distribution of remote sensing images. This context has caused an explosive growth in the repositories of images of these institutions, surpassing the current capacity to interpret and to analyze these data. Parallel to this growth a new technological platform has appeared, the Web Services which is seen today as being the next wave to the evolution of the Internet. The vision is to open for the provision of available processing services in the Web that would allow any user, anywhere to execute a established procedure over a chosen remote sensing images stored in an repository. That shall increases the current capacity to interpret and to analyze these type of data, reducing costs and speeding decision processes. This work considers a specification for a new geographic service, the WISS - Web Image Segmentation Service - which is compliant with the proposals presented for the OWS Framework, in its version 0.1.3 presented by the OGC trust. An implementation of the specification WISS proposed that uses the open source library of geographic components - TerraLib, and a demonstrative prototype was implemented for the specified service. Finally, a discussion on the use of the specifications of Web Services is made in the context of the OGC and its limitations for applications that operate on large remote sensing image databases.
Full text: yes
Atualizar
 
  

Estudos da variabilidade de séries temporais ambientais através de espectros de assimetria implementados em software cientifico livre
Barbosa, E. B. M.

INPE-14670-TDI/1223
Ramos, Fernando Manuel (presidente)
Rosa, Reinaldo Roberto (orientador)
Vijaykumar, Nandamudi Lankalapalli (orientador)
Campos Velho, Haroldo Fraga de
Nogueira Junior, Edvaldo
Bolzan, Maurício José Alves

2006-05-26
A análise de séries temporais (ST) curtas (~103 pontos) e não-estacionárias, em geral, comuns na natureza, exige a utilização de abordagens robustas da matemática. Duas novas técnicas estatísticas computacionais que merecem destaque são a transformada em ondeletas e a análise de padrões-gradiente. O presente trabalho tem por objetivo investigar as características dessas técnicas implementadas em software científico de domínio público (SCDP) Scilab. As técnicas foram aplicadas em diferentes ST e seus resultados mostraram-se coerentes, quando comparados com os resultados das implementações originais, desenvolvidas em ambientes distintos de programação MATLAB® e Interactive Data Language (IDL). Realiza-se uma discussão sobre a importância do desenvolvimento e utilização de SCDP no contexto dos cursos de pósgraduação e projetos de pesquisa realizados no Instituto Nacional de Pesquisas Espaciais (INPE). Adicionalmente, propõe-se uma metodologia alternativa para a análise de ST, apropriada e robusta para ST curtas. Esta metodologia, que complementa a caracterização de diferentes padrões de variabilidades em ST curtas, consiste na utilização conjunta da transformada de ondeletas discretas e da análise de padrõesgradiente, para obtenção do espectro de assimetrias. Resultados preliminares, obtidos com a aplicação da metodologia em séries de ciências atmosféricas, conseguiram caracterizar, de maneira quantitativa, diferentes padrões de variabilidades associados aos seguintes regimes não-lineares: caótico, reativo-difusivo e turbulento. ABSTRACT: The analysis of short (~103 points) and non-stationary time series (TS), quite common in the nature, demands the use of robust mathematical techniques. Two new computational statistical techniques that deserve attention are wavelet transforms and the gradient pattern analysis. The objective of this work is to investigate the characteristics of these techniques implemented within a free scientific software environment Scilab. The techniques were applied in different TS and the results obtained from this environment were similar when compared with the results obtained from the same techniques implemented in proprietary software environments MATLAB® and Interactive Data Language (IDL). There has been discussions on the importance of the development and use of free scientific software in the context of the under-graduate courses and carried out through research projects at the National Institute for Space Research (INPE). Additionally, an alternative methodology is considered for the analysis of TS, very appropriate and robust for short TS. This methodology, that complements the characterization of different standards of variabilities in short TS, consists of the joint use of the discrete wavelet transforms and the gradient pattern analysis, for obtaining the asymmetry spectra. Preliminary results from the application of this methodology in series from the fields of atmospheric sciences, characterized in a quantitative way, different standards of variability associates with the following nonlinear regimes: chaotic, reactive-diffusive and turbulent.
Full text: yes
Atualizar
 
  

Análise de sinais turbulentos na copa da floresta Amazônica: em busca de comportamento caótico e estruturas coerentes
Campanharo, A. S. L. O.

INPE-14604-TDI/1184
Rosa, Reinaldo Roberto (presidente)
Ramos, Fernando Manuel (orientador)
Macau, Elbert Einstein Nehrer (co-orientador)
Campos Velho, Haroldo Fraga de
Castro, Joaquim José Barroso de
Viana, Ricardo Luiz

2006-08-31
Neste trabalho é analisada a possível natureza caótica da turbulência atmosférica. As análises aqui realizadas, baseadas em dados de temperatura de alta resolução, obtidos pela campanha WETAMC do projeto LBA, sugerem a existência de um comportamento caótico de baixa dimensão na camada limite atmosférica.O atrator caótico corespondente posui uma dimensâo de corelação de D2 =3:500:05. A presença de dinâmica caótica nos dados analisados é confirmada com a estimativa de umexpoente de Lyapunov pequeno mas positivo,com valor 1=0:0500:02. No entanto,esta dinâmica caótica de baixa dimensâo está associada à presença das estruturas coerentes na camada limite atmosférica e não à turbulência atmosférica Esta afirmação é evidenciada pelo processo de filtragem por wavelets utilizado nos dados experimentais estudados, que permite separar a contribuição das estruturas coerentes do sinal turbulento do fundo. ABSTRACT: In this work the posible chaotic nature of the atmospheric turbulence is analysed. The analyses caried out here, based in data of high resolution temperature,obtained of campaign WETAMC of project LBA, sugest the existence of a low-dimension chaotic behavior in the atmospheric boundary layer.The coresponding chaotic at- tractor poses a corelation dimension of D2=3:500:05.The presence of chaotic dynamics in the analysed data is conrmed with the estimate of a smal Lyapunov exponent but positive, with value 1 =0:0500:02. However, this low-dimension chaotic dynamics is asociated with the presence of the coherent structures in the atmospheric boundary layer and not tothe atmospheric turbulence.This armation is evidenced by the process of filtering for wavelets used in the studied experimen- tal data, that alow to separate the contribution of the coherent structures of the turbulent back ground signal.
Full text: yes
Atualizar
 
  

Integration of functional programming and spatial databases for GIS application development
Costa, S. S.

INPE-14688-TDI/1226
Monteiro, Antonio Miguel Vieira, (presidente)
Câmara, Gilberto, (orientador)
Oliveira, João Ricardo de Freitas
Silva, José Demisio Simões da
Davis Junior, Clovoveu Augusto
Casanova, Marco Antônio

2006-10-11
A pesquisa recente em geoinformação indica que há benefícios no uso de programação funcional aplicada ao desenvolvimento de aplicativos geográficos. No entanto, o desenvolvimento completo de um sistema de geoinformação em linguagem funcional não é factível. O acesso a banco de dados geográfico exige um grande conjunto de operações de entrada e saída, de difícil implementação em linguagens funcionais. Essa dissertação apresenta um aplicativo que integra uma linguagem funcional (Haskell) com banco de dados espacial (TerraLib). Esta integração permite o desenvolvimento, em uma linguagem funcional, de aplicativos geográficos que manipulem dados em um banco de dados espacial. Esse aplicativo foi usado no desenvolvimento de uma Álgebra de Mapas, que mostra os benefícios do uso desse paradigma em geoinformação. Nosso trabalho mostrou que existem muitas vantagens no uso de uma linguagem funcional, especialmente Haskell, no desenvolvimento de aplicativos geográficos mais expressivos e concisos. Combinando Haskell e TerraLib, nós permitimos o uso de programação funcional em problemas reais, e tornamos o Haskell uma ferramenta ainda mais amplamente usada no desenvolvimento de aplicativos geográficos. ABSTRACT: Recently, researchers in GIScience argued about the benefits on using functional programming for geospatial application development and prototyping of novel ideas. However, developing an entire GIS in a functional language is not feasible. Support for spatial databases requires a large set of I/O operations, which are cumbersome to implement in functional languages. This thesis presents an application that interfaces a functional language with a spatial database. It enables developing GIS applications development in a functional language, while handling data in a spatial database. We used this application to develop a Map Algebra, which shows the benefits on using this paradigm in GIScience. Our work shows there are many gains in using a functional language, especially Haskell, to write concise and expressive GIS applications. Combining Haskell and TerraLib enables the use of functional programming to reallife GIS problems, and is a contribution to make Haskell a more widely used tool for GIS application development.
Full text: yes
Atualizar
 
  

Tecnologias e padrões abertos para o domínio geográfico na web: um estudo em ecoturismo
Gioielli, F. L. P.

INPE-13779-TDI/1053
Ferreira, Mauricio Gonçalves Vieira (presidente)
Monteiro, Antonio Miguel Vieira (orientador)
Santos, Rafael Duarte Coelho dos
Soares, João Vianei
Câmara, Gilberto
Davis Junior, Clodoveu Augusto

2006-04-07
Este trabalho apresenta contribuições para os bancos de dados espaciais compartilhados, para a biblioteca de software livre TerraLib, e para os sistemas de informagio ao ecoturista. A presente dissertação apresenta uma solução de arquitetura para sistemas de informação no dominio geogrfifico apoiados na web. A arquitetura em questão baseada no conceito de agentes, modelados como serviços para a Web - Web Services - e atuando sobre bancos de dados espaciais compartilhados, sob condições de alta interatividade. A solução proposta se baseia em protocolos e padriles abertos e no uso extensivo de software livre. Uma implementação desta arquitetura foi desenvolvida utilizando a TerraLib, o sistema de banco de dados MySql, a plataforma de web services Apache Axis, e o servidor web Apache HTTP Server. O prototipo de um sistema de informação ao ecoturista foi implementado para demonstrar a validade dos conceitos e da arquitetura proposta. Este prot6tipo apresenta as caracteristicas da arquitetura aplicadas em um sistema de apoio ao ecoturista para a região de Capit61io- MG, fazendo uso de um banco de dados espaciais da referida região, disponivel a partir de um trabalho anterior, e demonstra a capacidade desta proposta em acomodar padriles, especificções e contextos jfi previstos e ainda não previstos nas especifica9ies atuais. Dentro deste conceito de extensibilidade, 6 proposto um serviço de georreferenciamento qualitativo, e discutida a aderência desta solução aos padriles e especificações do Open Geospatial Consortium. ABSTRACT: This work represents contributions for the shared spatial databases, for the free software library TerraLib, and for information systems to support ecotourists. This work presents an architecture solution for Web based information systems in the geographic domain. This architecture is based on the concept of agents, modeled as Web Services, acting over shared spatial databases, under conditions of high interactivity. The proposed solution is based on open protocols and standards and wide use of free software. An implementation of this architecture was developed using the TerraLib, the Apache Axis Web Services framework, the Apache HTTP Web Server and the MySql database. A prototype of an information system to support ecotourists was developed as a proof-of- concept for this architecture. This prototype presents the features of the proposed architecture applied on a system to support ecotourists in the area of Capitolio - MG, using a previously created spatial database of the referred region, which proves that this proposal can accomodate standards, specifications and contexts, determined and still undetermined. Under this concept of extensibility, an innovative service of qualitative georeferencing is proposed, and it's adherence to the standards and specifications of the Open Geospatial Consortium.
Full text: yes
Atualizar
 
  

Aplicação da tecnologia de agentes de planejamento em operações de satélites
Gonçalves, L. S. C.

INPE-14092-TDI/1075
Sant'Anna, Nilson (presidente)
Orlando, Valcir (orientador)
Ferreira, Mauricio Gonçalves Vieira (co-orientador)
Becceneri, José Carlos
Silva, José Demisio Simões da
Oliveira, Henrique Jesus Quintino de

2006-03-14
A busca de solução de automatização aplicada às operações espaciais é uma necessidade mundial para diminuir os custos das missões. No Instituto Nacional de Pesquisas Espaciais (INPE) uma grande parte das atividades de operação dos satélites é ainda feita de forma manual. Por isso, encontrar caminhos de automatização das atividades de operação de satélites do INPE é de extrema importância para conseguir manter o bom desempenho nas operações de rastreio dos satélites mesmo com a escassez de recursos financeiros disponíveis. Com este enfoque voltado à automatização de operações espaciais, este trabalho propõe uma arquitetura de um sistema de Planejamento Inteligente de Planos de Operação de Vôo (PlanIPOV) que emprega a tecnologia de planejamento da Inteligência Artificial (IA) na geração automática dos Planos de Operação de Vôo (POVs) para a fase operacional de rotina de satélites artificiais. O sistema PlanIPOV tem como propostas o uso da Linguagem de Definição do Domínio de Planejamento (PDDL) para modelagem da base de conhecimento do domínio de rastreio de satélites e também a geração automática dos arquivos de problemas. Um protótipo foi desenvolvido baseado na arquitetura PlanIPOV usando a linguagem PDDL2.2 e o planejador Local Searching for Planning Timed initial literal and Derived predicates (LPG-TD). Este protótipo foi testado para o domínio de rastreio dos satélites atualmente controlados pelo INPE: SCD1, SCD2 e CBERS2. Os POVs gerados pelo protótipo foram comparados com os POVs reais e os resultados obtidos foram satisfatórios. Durante o desenvolvimento da base de conhecimento e do protótipo, foram encontradas algumas limitações na aplicação da tecnologia de planejamento e soluções alternativas tiveram que ser adotadas para possibilitar a geração automática de POVs. Adicionalmente, esta pesquisa produziu um processo para a modelagem de uma base de conhecimento para um problema de planejamento genérico e um framework de classes que tem como objetivo gerar arquivos de problemas de forma automática. ABSTRACT: Research for automatic solutions for space operations is a real need for all space agencies in order to reduce space mission costs. Nowadays, a significant parcel of satellite operation activities at the National Institute for Space Research (INPE) is still performed manually. Finding automated alternatives for the satellite operation activities at INPE is an important issue in order to maintain the currently satisfactory performance of these activities, despite the scarcity of financial resources. In this work an architecture of an Intelligent Planning System for the automatic generation of satellite flight operation plans (PlanIPOV) is proposed. This architecture employs the planning technology of Artificial Intelligence (AI) in the automatic Flight Operation Plans (FOPs) generation for the routine operational phase of a satellite. The PlanIPOV system proposes the use of Planning Domain Definition Language (PDDL) to model the knowledge base of satellite tracking domain and also the automatic generation of problem files. A prototype was developed based on the PlanIPOV architecture using the PDDL2.2 language and Local Searching for Planning Timed initial literal and Derived predicates (LPG-TD) planner. It was tested for the tracking domain of the satellites currently being controlled by INPE (SCD1, SCD2 and CBERS2). The FOPs generated by the prototype were compared with the real INPE FOPs and the obtained results were satisfactory. During the knowledge base and prototype development, some limitations were observed in the utilization of the planning technology and solutions were adopted to overcome them to allow the automatic generation of FOP. Additionally, the research work leads to the development of a process to model a knowledge base for a generic planning problem and a framework of classes, which has the aim to generate automatic problem files.
Full text: yes
Atualizar
 
  

Aprendizagem por reforço na adaptação a obstáculos em navegação robótica autônoma não-estruturada baseada em imagens
Hoffmann, L. T.

INPE-14434-TDI/1133
Guimarães, Lamartine Nogueira Frutuoso, (presidente)
Silva, José Demisio Simões da, (orientador)
Santos, Rafael Duarte Coelho dos
Osório, Fernando Santos

2006-02-23
Nas últimas décadas, a robótica tem desempenhado um papel importante na sociedade, com participação de destaque na indústria de manufatura de bens. Mais recentemente, aplicações de robos móveis, desde simples brinquedos até a exploração de outros planetas, tem demonstrado o quão promissor o uso dessas ferramentas será num futuro próximo. Contudo, atualmente o custo e a complexidade de construção de robos móveis, que sejam suficientemente flexíveis e ao mesmo tempo úteis, tem sido uma barreira para sua ampla disseminação. Neste sentido, técnicas de Inteligência Artificial vem sendo freqüentemente estudadas, a fim de dotar os sistemas robóticos com capacidades de aprendizado, adaptação e autonomia. Este trabalho apresenta um estudo de aprendizagem de máquina, aplicado a navegação autonoma em robótica móvel. O objetivo principal é avaliar o desempenho de técnicas de aprendizagem por reforço, no uso de robos móveis de baixo custo e baixa precisão, equipados com sensores de visão computacional. Para tanto, um robo foi modelado à luz de uma arquitetura de agente de aprendizagem, para através de imagens obtidas por uma camera Charge-Coupled Device (CCD), ser capaz de aprender a navegar de forma autonoma, em ambientes internos não-estruturados. Os operadores de visão computacional são construídos com Redes Neurais Artificiais e algoritmos de rotulação de imagem, que identificam objetos diferenciados por suas características radiométricas. As posições relativas dos objetos na imagem são utilizadas para definir o estado do agente, que através da experimentação de ações, aprende a otimizar o seu processo de tomada de decisão. A implementação da arquitetura do agente de aprendizagem é suportada pelo protótipo de sistema Cool Autonomous Navigation Enterprise with Learning Agents (Canela), que viabilizou principalmente a conexão de sensores CCDs e a condução dos experimentos. Duas modelagens com aprendizado por reforço foram desenvolvidas, utilizando o algoritmo Q-learning, sendo o intuito da primeira prover uma navegação simples, evitando-se obstáculos e da segunda a exploração homogênea do ambiente. Uma série de ensaios foram realizados em um ambiente real, para validar a primeira modelagem. Os resultados obtidos demonstraram a capacidade de aprendizagem do agente, que navegou por um ambiente inicialmente desconhecido. Com a segunda modelagem, validada em experimentos de simulação, foi possível avaliar o bom desempenho de um sistema de navegação mais complexo, orientado a multi-objetivos. Os resultados encorajam o uso da modelagem de sistemas de navegação de robos móveis, baseados em técnicas de aprendizado por reforço, proporcionando uma alternativa interessante aos métodos de programação tradicionais. ABSTRACT: In the last decades, robotic has become an important role for society, specially in the manufacturing industry. In recent times, applications of mobile robots, from simple toys to planets explorations, has shown how promising will be the use of these tools in a close future. Though, the cost and complexity in developing mobile robots nowadays, which should be suciently flexible and still helpful, has been a diculty for its broad deployment. Hence, Artificial Intelligence techniques has been studied frequently, aiming for introducing a learnable, flexible, and autonomous behavior to robotic systems. This work presents a machine learning study, applied to autonomous navigation in mobile robotic. The main goal is to analyze reinforcement learning techniques performance, when using low cost and low accuracy mobile robots, with on-board computer vision sensors. Thus, a robot was modeled as a learning agent architecture, which is able to learn to navigate autonomously in indoor non-structured environments, using images taken by a Charge-Coupled Device (CCD) camera. Computer vision operators are made with Artificial Neural Networks and image labeling algorithms, to recognize objects by its spectral features. Relative positions from images objects are used to define the agent state, which experiments actions, and learn to optimize its decision making process. The learning agent architecture implementation is supported by a prototype system, called Cool Autonomous Navigation Enterprise with Learning Agents (Canela), which holds the CCDs sensors connections and manages the experiments. Using the Q-learning algorithm, two reinforcement learning based models were developed. The first model aims to build a simple obstacle avoidance navigation system, and the second an environments homogeneous exploration navigation system. To evaluate the first model, a series of experiments were conducted in a real environment. The results has shown agents learning capabilities on obstacle avoidance and navigation in an unknown environment. The second model was evaluated by simulation experiments whose brought good results on applying a more complex and multi-goal oriented navigation system. The results encourage to use reinforcement learning based models in mobile robots navigation systems, bringing an interesting choice to traditional programming methods.
Full text: yes
Atualizar
 
  

Monitoração da trajetória em tempo-real de veículos espaciais: suporte na tomada de decisão pela segurança de vôo
Louis, J. E.

INPE-14605-TDI/1185
Rosa, Reinaldo Roberto (presidente)
Vijaykumar, Nandamudi Lankalapalli (orientador)
Stephan, Stephany
Carrara, Valdemir
Rosa, Mauricio Antoniazzi Pinheiro
Moreira, Fernando José de Oliveira

2006-04-10
Quando veículos com satélites ou simplesmente com algum tipo de experimento científico são lançados ao espaço, o dever de se cumprir a missão à que o veículo foi destinado, é interesse de todas as entidades envolvidas. Porém, neste tipo de atividade, existem várias equipes que participam do projeto, e cada uma tem a sua meta a cumprir. Assim, em relação à segurança, uma das equipes envolvidas é a da Segurança de Vôo, que tem o objetivo de proteger o público interno e externo a uma operação de lançamento. Para isso, conta com informações antes (para uma análise pré-vôo), durante e após o lançamento (para uma análise pós-vôo). As informações chegam a cada instante durante um lançamento, e são referentes à posição do veículo em vôo, e muitas vezes são oriundas de mais de um meio de rastreio, como radar e telemetria. O modo como estas informações são apresentadas para a equipe de Segurança de Vôo é muito importante, já que, baseada nestas informações tomam-se decisões que podem até mesmo finalizar um vôo. Por isso, normalmente, nos centros de lançamento, já existem ferramentas para auxiliar uma eventual decisão. Para colaborar com a tarefa de decidir a continuidade ou não do vôo, está sendo apresentado neste documento um método alternativo para se analisar a tendência da trajetória real. A cada instante de vôo, será realizado um novo cálculo da trajetória, utilizando-se os mesmos recursos que geram uma trajetória prevista. Este cálculo acontece simultaneamente ao vôo, sendo que as características do veículo e os eventos de vôo são mantidos como previsto. Apenas os dados de tempo de vôo, de posição e velocidade do veículo são adquiridos. Baseado nestas informações é calculada uma trajetória, obtendo-se uma extrapolação da trajetória a partir do referido tempo de vôo. Com os resultados, o responsável pela Segurança de Vôo, terá como analisar não somente uma projeção da tendência por onde o veículo deverá percorrer, mas também monitorar o percurso que o veículo fará considerando todas as condições iniciais de vôo, como vento ou perturbação ao sair da rampa de lançamento. Os resultados serão apresentados de forma gráfica, projetando-se a trajetória calculada, na tela de um computador sobre a projeção de um mapa cartográfico. Esta divulgação utilizará algumas ferramentas gráficas existentes para a internet, conhecidas como tecnologias open web standards. ABSTRACT: Whenever satellites or scientific experiments are launched from vehicles, it is more than natural that the successful accomplishment of the mission is of interest to all the involved parties. In such activities, several teams with determined targets contribute as participating members. In terms of safety, the Flight Safety (SVO) team is responsible for this task to protect the public, internal and external to the operation. This group counts not only on pre-flight and post-flight information but also on the present status of the flight in order to conduct analysis. Information are received every instant from several tracking means such as radar and telemetry and they refer to the position of the vehicle. It is of fundamental importance to display such information in a proper way to the SVO as decisions such as aborting a flight, have to be taken. Usually, launching centers are already equipped with tools to assist taking such decisions. In order to contribute with the task of deciding on the continuity or not of the flight, this dissertation proposes another method to conduct analysis of the trend of the actual trajectory. At each instant of the flight, a new calculation of the trajectory is conducted using the same facilities that predict a trajectory. This calculation occurs simultaneously with the flight and the characteristics of the vehicle and flight events are maintained as predicted. The only information received are duration of the flight and the vehicle position. Based on these information a new trajectory is determined and this results in a trajectory extrapolation obtained from the duration of the flight. These results enable the SVO to analyze not only the projection of the trend of the trajectory, but also the trajectory the vehicle should traverse, considering the initial conditions such as wind or any perturbation on leaving the launch pad. The results will be presented graphically by projecting the new determined trajectory on a computer monitor over a cartographic map. This display makes use of existing graphical tools for the internet known as open web standard technologies.
Full text: yes
Atualizar
 
  

Simulação de transientes elétricos durante processos de solda anódica
Paes, F. F.

INPE-14606-TDI/1186
Souza, Jonas Rodrigues de (presidente)
Fabbri, Maurício (orientador)
Senna, José Roberto Sbragia
Moro, João Roberto

2006-10-19
Este presente trabalho descreve um processo de discretização numérica da equação nãolinear do transporte iônico que rege a camada de depleção para o crescimento do óxido de silício durante a solda eletrostática (solda anódica) silício-vidro (Si-G) na ausência do transporte difusivo com evolução no tempo. A equação da continuidade é resolvida usando uma discretização em diferenças finitas com fronteira móvel, que toma espécies distintas de ânions e cátions no interior do vidro. O oxigênio que alimenta a matriz do silício, também é modelado por uma suposição conveniente sobre a continuidade da carga e sua mobilidade. A partir da suposição que o oxigênio necessário para a solda é suprido da camada de depleção no vidro, os resultados da espessura do óxido de silício aproximaram-se razoavelmente dos valores observados nos processos práticos de soldas. O esquema numérico emprega mobilidades independentes no interior do vidro e do óxido, e pode tratar modelos não-lineares para o campo elétrico. ABSTRACT: The present work describes a stable numeric discretization of the ionic non-linear transport equations that governs the depletion layer dynamics for oxide growth during electrostatic bonding (anodic bonding) glass-silicon, in the absence of carrier diffusion. The continuity equation is solved by a moving-boundary stable finite-difference discretization, which takes into account distinct anion and cation species within the glass. Oxygen feeding into the silicon matrix is also modeled by suitable conditions on charge continuity and mobility drift. On the assumption that the oxygen required for bonding is supplied from the depleted glass layer, the resulting oxide thickness agrees to the values which are observed in practical bonding procedures. The numerical scheme allows for independent mobilities in the glass and oxide regions, and can handle high non-linear models for electric field.
Full text: yes
Atualizar
 
  


   2007



Modelo de propagação de fogo em incêndios de superfície baseado no método nodal
Almeida, R. M.

INPE-15261-TDI/1344
Campos Velho, Haroldo Fraga de (presidente)
Macau, Elbert Einstein Neher (orientador)
Ramos, Fernando Manuel (co-orientador)
Muraoka, Issamu
Soares Filho, Britaldo Silveira

2007-02-28
Este trabalho propõe um modelo de propagação do fogo aplicavel a modelagem de incêndios orestais de superfcie. A radiação emitida pela frente de fogo e considerada como o principal mecanismo de transferência de calor responsavel pela propagação do fogo. As trocas de calor por condução, convecção e radiação que ocorrem no interior do leito de combustvel são aproximadas por um termo de condução equivalente. A abordagem matemática utilizada e o método nodal. Atraves dele, o leito de combustível e subdividido em um número nito de regiões, denominadas nós. Cada nó possui uma temperatura e propriedades térmicas constantes. A chama sobre cada nó e aproximada por um paraleleppedo, cujas superfcies emitem radiação aos nós situados na sua vizinhanca. Condutâncias térmicas caracterizam as trocas de calor. O modelo resulta em uma rede termica formada pelos nos e condutâncias, caracterizando uma malha que é análoga a um circuito elétrico. O equacionamento térmico surge do balanço das trocas de calor em cada no. A influência da divisão nodal sobre a velocidade de propagação e o custo computacional são analisados. Efetua-se simulações variando-se a velocidade do vento e a quantidade de combustível por unidade de área do leito de combustível. Observa-se que a velocidade de propagação está diretamente ligada as propriedades geométricas dos elementos de chama. Quanto mais inclinados, maior será a velocidade de propagação na direção de inclinação. O modelo mostra ser exível para lidar com situações envolvendo propagação em superfícies com obstáculos. Os resultados obtidos são encorajadores para a utilização do método nodal na modelagem da propagação do fogo. ABSTRACT: This work presents a new approach for a surface re spread model applicable to wildland re modelling. The mathematical method used in the modeling is the lumped parameter approach. In this method the thermal domain is divided in a nite number of volumes, supposed isothermal and with homogeneous properties, called nodes. To each node are attributed a temperature, a thermal capacitance and possibly internal heat generation. Each node exchanges heat with its neighbors through conductive condutances and interacts with the ames and the ambient through radiatives conductances. When the node reach the temperature of ignition, it is subject to an internal heat generation that keeps on until total consumption of the vegetal fuel. The ame over each node within the reaction zone is approximated by a parallelopiped whose surfaces emits radiation to the nodes positioned in its surrounding. Each ame has a predetermined temperature-time prole model, geometrical properties and a residence time that depend of ambient condictions. The system of dierential equations, representing the net heat balance of the nodes, is numerically solved, yielding, among other results, the temporal evolution of the ame on the surface. The conductance matrix, as well as the thermal capacitances and the internal heat generation, is updated each time step. The in uence of the nodal division on the re spread rate and on the computational cost is analyzed. Simulation are carried out varying the wind speed and the fuel load. It is observed that the rate of spread is directly related with the geometric properties of the ame nodes. The model shows to be exible in situations involving propagation in surfaces with obstacles. The results are encouraging for the use of the lumped parameter approach in the the surface re spread modelling.
Full text: yes
Atualizar
 
  

Mosaico de imagens baseado em múltiplas resoluções
Bagli, V. V.

INPE-14807-TDI/1250
Lorena, Luiz Antonio Nogueira (presidente)
Fonseca, Leila Maria Garcia (orientador)
Dutra, Luciano Vieira
Mura, José Cláudio
Feitosa, Raul Queiroz

2007-02-05
Mosaico de imagens é um processo de grande interesse para aplicações de sensoriamento remoto e cartografia. Este processo consiste em juntar duas ou mais imagens para gerar uma imagem maior. Desta forma pode-se obter uma imagem que cubra uma área maior do que a disponibilizada por uma única imagem do sensor. Em geral, duas etapas são envolvidas no processo de mosaico. Na primeira etapa, as feições homologas são identificadas e alinhadas (registradas). Na segunda fase, as feições presentes na área de sobreposição são mescladas. O processo de mesclagem consiste em combinar as imagens na área de sobreposição de tal forma que a emenda entre estas imagens fique visualmente imperceptível. Diversos problemas podem ocorrer caso o processo de mesclagem seja inadequado. Borramentos (causados por erros de registro), fantasmas (causados por objetos em movimento), linha de emenda visível (causado por diferenças radiométricas), são alguns exemplos que podem ocorrer em um processo de mosaico de imagens. A mesclagem das imagens registradas deve determinar como os pixels presentes na área de sobreposição serão apresentados no mosaico final. Esta tarefa envolve a seleção dos pixels que pertencerão a área de sobreposição do mosaico (linha de corte) como também a suavização radiometrica destes pixels. Emendas visíveis, borramentos e fantasmas destroem a ilusão que o mosaico é uma imagem contínua. Um processo de mesclagem ideal é aquele que constrói, automaticamente, mosaicos sem emendas. Este trabalho integra modernas técnicas automáticas de geração de linha de corte com um eficiente algoritmo de blending. A linha de corte é traçada sobre regiões de alta freqüência e o processo de suavização radiométrica é realizado em múltiplas resoluções. Os resultados mostram que o método desenvolvido é mais eficiente quando comparado com os métodos tradicionais. ABSTRACT: The mosaicking process is of interest in many applications such as remote sensing and cartography applications. It is, in general, performed in two stages. In the first stage, the corresponding points in the two to-be-combined images are identified and matched. In the second stage, the intensities of the overlapped images are blended. The task of image blending in the registration process is referred to as blending or compositing. The aim of blending is to provide a smooth transition between images and to eliminate visible seams (due to exposure differences), blurring (due to mis-registration), or ghosting (due to moving objects). The compositing of registered images must address the problem of determining how the pixels belonging to overlapping areas should be represented. This task involves selecting those pixels that contribute to the final composite and how to optimally blend them to minimize the visible seams, blur, and ghosting. The composition of two or more images may generate geometric and radiometric discontinuities along the line where two individual images abut. This line is called a seam or cut line. Visible seams between the images ruin the illusion that the mosaic is a continuous image. Therefore, an ideal blending process should automatically build seamless mosaics. This task can be achieved through the integration of modern techniques to construct an intelligent cut line and an efficient blending algorithm. The present work describes a blending technique that integrates methods to create a seam line in the high frequency regions and multiresolution analysis to blend the images. The results show that the method developed is more efficient when compared to traditional methods.
Full text: yes
Atualizar
 
  

Novas parametrizações de turbulência atmosférica para o modelo BRAMS
Barbosa, J. P. S.

INPE--TDI/
Travelho, Jerônimo dos Santos (presidente)
Campos Velho, Haroldo Fraga de (orientador)
Freitas, Saulo Ribeiro (co-orientador)
Bonatti, José Paulo
Valentin, Fréderico Gerard Christian

2007-04-11
Muitos pesquisadores vem contribuindo pelo desenvolvimento de novas parametriza- ¸coes de turbulencia para descrever o comportamento da Camada Limite Planet´aria (CLP). O objetivo deste trabalho foi de implementar as novas parametriza¸coes do coeficiente de turbulencia referentes as condi¸coes de estabilidade da atmosfera (inst ´avel, est´avel e neutra) no modelo num´erico Brazilian Regional Atmospheric Modeling System (BRAMS). A cl´assica teoria estat´ýstica de difusividade ´e usada para a estimativa desses coeficientes. As an´alises aqui realizadas, sao baseadas nos dados observados da campanha WETAMC do projeto LBA juntamente com dados de rean ´alise do modelo do Centro Europeu ECMWF utilizados como dados de condi¸coes iniciais e de contorno para as simula¸coes de 48hs realizadas pelo BRAMS. A partir dos resultados obtidos pelas simula¸coes num´ericas, foram feitas compara¸coes entre os perfis de temperatura potencial dos dados observados com os simulados pela nova parametriza¸cao e tamb´em com as parametriza¸coes de Smagorinsky (1963) e Mellor e Yamada (1982). Al´em do ganho computacional em rela¸cao ao n´umero de opera¸coes necess´ario em cada parametriza¸cao, a nova implemen¸cao mostrou resultados satisfat ´oria ao compara-los com os dados observados sobre os s´ýtios de floresta (Rebio Jar´u) e pastagem (ABRACOS). ABSTRACT: Lot of searchers have been contributed for development of new eddy parameterization that describe the Planetary Boundary Layer (PBL) behavior. The objective of this work was to implement new parameterization of eddy diffusivity that refers to the stability conditions of the atmospheric (unstable, stable and neuter) in the Brazilian Regional Atmospheric Modeling System (BRAMS) numeric model. The classical statistical diffusion theory is used to esteem these diffusivities. This analysis, that was performed, were based in datas from WETAMC campaign of LBA project together with datas from the re-analysis of European Center ECMWF Model that were used as initial and boundary condition for simulation of 48 hours that were performed by BRAMS. From this obtained results, by numeric simulations, was performed comparisons among potential temperature profile of the observated datas with the simulated datas by the new parameterization and with Smagorinsky (1963) and Mellor and Yamada (1982) parameterization too. Further then computational gain in relation at number of necessary operations in each parameterizations, a new implementation showed satisfactory results when it was compared with the observated datas from forest farm (Rebio Jar´u) and pasture (ABRACOS).
Full text: yes
Atualizar
 
  

Novas heurísticas para o problema de geração de escalas de jogos para torneios esportivos
Biajoli, F. L.

INPE--TDI/
Silva, José Demisio Simões da (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Pinto, Luiz Ricardo
Ribeiro Filho, Geraldo

2007-03-27
O Traveling Tournament Problem (TTP), ou Problema de Gera¸cao de Escala de Jogos para Torneios Esportivos, ´e um problema de otimiza¸cao que trata algumas caracter´ýsticas de torneios esportivos, tendo como objetivo a minimiza¸cao das distancias percorridas pelos times no decorrer da competi¸cao. O presente trabalho apresenta o uso de novas t´ecnicas heur´ýsticas h´ýbridas para a resolu¸cao da versao espelhada do TTP, utilizando um algoritmo evolutivo, chamado Evolutionary Clustering Search (ECS), bem como uma adapta¸cao deste, chamado Clustering Search (*CS), onde a metaheur´ýstica Variable Neighborhood Search (VNS), ser´a utilizada como alternativa ao algoritmo evolutivo empregado no ECS. Apresenta-se ainda, uma modelagem in´edita para o m´etodo evolutivo utilizado atrav´es de uma codifica¸cao gen´etica compacta associada a um algoritmo de expansao de c´odigo que tem por objetivo decodificar cromossomos em escalas de jogos. A valida¸cao dos resultados foi realizada em instancias existentes na literatura e em problemas reais (Campeonato Brasileiro de Futebol). Quando poss´ývel, os resultados apresentados foram comparados com os de outros m´etodos j´a utilizados na literatura. ABSTRACT: The Traveling Tournament Problem (TTP) is an optimization problem that represents some types of sports timetabling, where the objective is to minimize the total distance traveled by the teams. This work presents the use of hybrid heuristics to solve the mirrored TTP, using an evolutionary algorithm, called Evolutionary Clustering Search (ECS) and an adaptation of this, called Clustering Search (*CS), where the metaheuristic Variable Neighborhood Search (VNS) was used instead of the evolutionary algorithm of the ECS. It presents the use of Genetic Algorithm with a compact genetic codification in conjunction with an algorithm to expand the code. The validation of the results were done in benchmark problems available in literature and real benchmark problems, e.g. Brazilian Soccer Championship.
Full text: yes
Atualizar
 
  

Agentes auxiliando ambientes de engenharia de software centrado em processo
Casillo, B. H.

INPE-15321-TDI/1364
Vijaykumar, Nandamudi Lankalapalli (presidente)
Carvalho, Solon Venâncio de (orientador)
Ferreira, Maurício Gonçalves Vieira
Melnikoff, Selma Shin Shimizu

2007-06-26
Organizações desenvolvedoras de software estão cada vez mais preocupadas com a qualidade de seus produtos, por isso a abordagem de processos de software esta sendo cada vez mais utilizada. Criados para facilitar a utilização de processos de software, ambientes de engenharia de software centrado em processos, disponibilizam ferramentas para apoio a execução de processos em um ambiente voltado para o auxilio ao trabalho colaborativo, um exemplo deste tipo de ambiente é o e-WebProject, um ambiente de engenharia de software centrado que conta com ferramentas de suporte ao desenvolvimento e processos implementados com interface através do ambiente. Para cada novo processo inserido ou modificado neste ambiente, uma aplicação específica para a utilização do processo deve ser construída, utilizando recursos nem sempre disponíveis nos projetos da empresa. Visando a rápida introdução de novos processos ao ambiente e a facilidade na melhoria de processos já existentes, a automatização do serviço de criação, e uso dos processos pelo ambiente foi implementada. A aplicação desenvolvida necessita que as tarefas executadas para a implementação do processo no ambiente sejam executadas de forma autônoma, visando criar instancias de processos dentro do ambiente. A tecnologia de agentes vem de encontro a essa necessidade, possibilitando a criação de agentes que executam as tarefas para instanciação e monitoramento dos processos. ABSTRACT: Software development organizations are each time more worried about the quality of its products, therefore the boarding of software processes is being more used. Created to facilitate the use of software processes, process-centered software engineering environments, presents tools for support the execution of processes in an environment directed toward to assist the collaborative work, an example of this environment are e-WebProject, a process-centered software engineering environment that have support tools to the development of software and processes implemented into the environment. For each new process inserted, or modified in this environment, an specific application for the management of the process must be constructed, using available resources nor always available to the projects of the company. Aiming at the fast introduction of new processes to the environment and the facility in processes improvement, the automatization of creation, and use of the processes into the environment was implemented. The developed application needs that tasks which are executed, aiming to create instances of processes inside the environment in a autonomous way. The technology of agents can be used to solve this necessity, making possible the creation of agents who execute the instanciation and monitoring tasks of the processes.
Full text: yes
Atualizar
 
  

Desenvolvimento de um ambiente para análise de códigos-fonte com ênfase em segurança
Duarte, L. O.

INPE-15297-TDI/1349
Becceneri, José Carlos (presidente)
Montes Filho, Antonio (orientador)
Vijaykumar, Nandamudi Lankalapalli
Yano, Edmar Toshiro

2007-02-27
Este trabalho apresenta uma proposta de ambiente para an´alise de c´odigos-fonte com enfase em seguran¸ca, tendo como objetivo primordial auxiliar desenvolvedores a encontrar reais vulnerabilidades presentes em seus pr´oprios softwares. Dentre elas, as que podem ser encontradas com maior ocorrencia sao as que permitem ataques de extravasamento de buffer ou buffer overflow. Sao muitas as formas de explorar estas vulnerabilidades dentre elas destacam-se stack smash, arc injection e pointer subterfuge. Para endere¸car estas vulnerabilidades existem algumas abordagens que tentam elimin´a-las ou minimizar o impacto gerado quando estas sao exploradas. As abordagens sao divididas em abordagens dependentes do compilador, dependentes do sistema e dependentes da aplica¸cao. O ambiente proposto, atrav´es de uma abordagem preventiva e dependente da aplica¸cao, analisa o c´odigo-fonte do programa a fim de encontrar instru¸coes que possam ocasionar um extravasamento de buffer. Para isso, o ambiente procura suprir limita¸coes encontradas em ferramentas similares. Serao mostrados atrav´es dos testes realizados as vantagens na utiliza¸cao de an´alise sint´atica para melhor identifica¸cao de problemas e como um prot´otipo vi´avel do ambiente pode ser implementado. ABSTRACT: This work presents a proposal of a source code analysis aid tool focused on security. Its main goal is to help developers to find real vulnerabilities in their own software. Among the vulnerabilities that can be found in a software, buffer overflows have greater occurrence. There are several ways to exploit this vulnerability and some of them are stack smash, arc injection, pointer subterfuge. To address these vulnerabilities there are some approaches that try to mitigate these vulnerabilities or to minimize the impact generated when they are exploited. The approaches are divided into compiler-dependent, system-dependent and software-dependent. The proposed tool analyzes the source code of a software to find buffer overflows vulnerabilities through a preventive and software-dependent approach. To achieve it, the tool tries to supply limitations found in similar tools. The advantages of sintatic analysis to improve the buffer overflow identification and the development of a viable prototype of this tool will be shown in this work.
Full text: yes
Atualizar
 
  

Aplicação de técnicas de data mining para a análise de logs de trafégo TCP/IP
Grégio, A. R. A.

INPE-15340-TDI/1376
Silva, José Demísio Simões da, (presidente)
Montes Filho, Antonio, (orientador)
Santos, Rafael Duarte Coelho dos, (orientador)
Becceneri, José Carlos
Geus, Paulo Lício de

2007-02-27
Com a popularização da Internet nos últimos anos, a variedade de serviços providos através de redes de computadores aumentou consideravelmente. Ao mesmo tempo surgiram novas formas de crimes usando estes serviços, muitos através da tentativa de invasão ou comprometimento de redes. O registro das atividades de redes e aplicações através da coleta e armazenamento de registros de auditoria (logs) é muito importante para que se possa analisar eventos e descobrir erros, anomalias ou até mesmo caracterizar ataques ou intrusões. Ainda hoje, a área de análise de logs carece de ferramentas que façam uma separação adequada dos logs interessantes para serem analisados por um humano. Isto torna a tarefa de análise muitas vezes impossível de ser cumprida, podendo levar ao comprometimento da rede de uma instituição sem que contra-medidas sejam tomadas em tempo hábil. Neste trabalho tem-se por objetivo expor o problema da análise de logs, discutir as abordagens para filtragem, tratamento de logs e detecção de intrusão por técnicas de mineração de dados, avaliar alguns algoritmos de mineração de dados para aplicá-los em separação de logs do tráfego de rede e construir um protótipo para realizar a redução de logs com uma taxa aceitável de falsos-positivos. Os testes feitos com os algoritmos dos vizinhos mais próximos, perceptrons de múltiplas camadas e árvores de decisão permitiram a implementação de um protótipo modular que utiliza árvores de decisão para automatizar a classificação de logs e reduzí-los para um pequeno conjunto de sessoes suspeitas. É mostrado um estudo de caso com a aplicação deste protótipo, onde apresentam-se os resultados obtidos de mais de 90% de redução nos conjuntos de logs disponíveis. ABSTRACT: Since the popularization of the Internet in recent years, the amount and variety of computer network services has greatly increased. At the same time new methods to commit crimes using these services appeared, mostly by attempting intrusion or compromising networks. Logging network and application activities through collection and storing of network logs is a very important step to allow further event analysis in order to discover errors, anomalies or even to characterize attacks and intrusion. In spite of the importance of this task, even today log analysts suer from a lack of tools to classify correctly interesting logs, making the analysis task impossible to be accomplished timely. This fact can lead to the compromise of an institutions network without counter measures being taken in time. In this work we aim to present the log analysis problems, to discuss log filtering, handling and intrusion detection approaches through data mining techniques, to evaluate some data mining algorithms to apply them on network trac logs separation and to build a prototype to perform log reduction with an acceptable rate of false positives. Tests were done with some algorithms such as nearest neighbors, multilayer perceptrons and decision trees, which allowed the deployment of a modular prototype using decision trees to automatize log classification and reduce logs to a small set of suspicious sessions. A case study containing the prototype application and the results obtained with reduction rates in the log sets greater than 90% are also presented.
Full text: yes
Atualizar
 
  

Utilização de rede neural LVQ para previsão do nível do rio Paraguai
Kono, Y.

INPE-15191-TDI/1300
Vijaykumar, Nandamudi Lankalapalli (presidente)
Santos, Rafael Duarte Coelho dos (orientador)
Silva, José Demísio Simões da (co-orientador)
Silva, Ivan Nunes da
Becceneri, José Carlos

2007-12-11
Redes Neurais Artificiais têm sido utilizadas nos mais diversos campos do conhecimento para auxiliar na solução eficiente de problemas complexos e que, muitas vezes, processam grande volume de dados. Uma aplicação de sucesso é a previsão da vazão de um rio, utilizado para controle de reservatórios e barragens de água, bem como para alerta de enchente. A previsão de nível de rio também pode ser utilizada para esse alerta ou para conhecer o comportamento desse rio no futuro. Este trabalho de Dissertação de Mestrado propõe uma metodologia para realizar previsões de nível do rio Paraguai utilizando uma Rede Neural Artificial do tipo LVQ Learning Vector Quantization. Os resultados dos estudos mostraram a capacidade da rede LVQ na previsão do nível do rio, gerando erros de 0% em alguns experimentos, utilizando um modelo gerado a partir dos dados observados e medidos. Portanto, o método proposto nesta dissertação apresenta-se como uma alternativa viável e de fácil calibração para a geração de alarmes em épocas de cheia ou de vazante. ABSTRACT: Artificial Neural Nets have been used in a variety of applications to assist in the solution of complex problems using huge volumes of data. A success application is the forecast of the outflow of a river, used to control reservoirs and water barrages, as well as for flooding alerts. The forecasting of a river level can also be used to know the its future behavior. This dissertation proposes a methodology to carry out forecasts of the level of the Paraguay river, using a Learning Vector Quantization Artificial Neural Network. The results of the studies show the capacity of the LVQ to forecast the level of the river, leading to 0% errors in some experiments, using a model derived from observed and measured data. Thus, the method proposed in this work is a viable alternative, easily calibrated, to generate alarms at flooding or ebb tide phenomena.
Full text: yes
Atualizar
 
  

Um paradigma para re-segmentação de imagens de alta resolução
Korting, T. S.

INPE-15210-TDI/1307
Renó, Camilo Daleles, (presidente)
Fonseca, Leila Maria Garcia, (orientadora)
Dutra, Luciano Vieira, (orientador)
Silva, José Demisio Simões da
Feitosa, Raul Queiroz

2007-12-20
A segmentação de imagens é uma das mais importantes tarefas na área de processamento digital de imagens. Utilizada em diversas áreas da ciência, como reconhecimento de caracteres e faces humanas, detecção e classificação de imagens, a segmentação tem recebido grande atenção em sensoriamento remoto, devido aos sensores apresentarem resoluções espectrais e espaciais cada vez melhores. Este trabalho propõe uma metodologia para re-segmentação de imagens urbanas de alta resolução baseada em formas retangulares. O método tem como entrada uma ou mais imagens, e um conjunto de polígonos resultantes da segmentação, onde os segmentos adjacentes são conectados em uma estrutura de grafos. Sobre essa estrutura são realizadas buscas por agregações de polígonos cujos formatos sejam retangulares, para objetos tradicionais do ambiente urbano, como por exemplo telhados. Para os demais objetos urbanos, {it e.g.} praças, árvores, corpos d'água, etc., são utilizadas outras heurísticas para agregar os polígonos. Visando facilitar a conexão dos segmentos, uma etapa anterior é realizada, a chamada pré-classificação da entrada. Essa deve separar a entrada em classes diferentes, conectando apenas polígonos de mesma classe, e guardando a topologia da vizinhança, pela conexão de vizinhos em primeira ordem de classes diferentes. O algoritmo empregado para a classificação foi o dos Mapas Auto-Organizáveis de Kohonen, ou Self Organizing Maps (SOM). Os polígonos classificados são conectados em uma estrutura de grafos adjacentes, apresentada na literatura como Region Adjacency Graphs (RAG). Sobre o RAG são feitas as buscas por formas retangulares e outras agregações são realizadas por heurísticas definidas como conhecimento a priori. O resultado da re-segmentação é um novo conjunto de polígonos, que melhor representa o ambiente urbano. Resultados são apresentados e discutidos, de forma a comprovar a acurácia da técnica apresentada, quando comparada com métodos consagrados na literatura. ABSTRACT: Image segmentation is one of the most important tasks in Digital Image Processing. It is used in several scientific areas, such as character recognition, image detection and classification. Segmentation is being applied also to remote sensing data, since the sensors present better resolution nowadays. This work proposes a methodology for re-segmentation of high resolution urban imagery, shape and graph based. The input is formed by a set of images and polygons resultant from an over-segmentation. Adjacent regions, or polygons, are connected in a graph structure, and a graph search is performed, looking for rectangular shapes, present on roofs and buildings. For other urban objects, such as streets or trees, other heuristic are employed. To perform such task, a previous operation is necessary. The classification is done over the set of polygons, using the Self Organizing Maps (SOM) algorithm. The polygons are then classified and connected in a Region Adjacency Graph (RAG), according their topology. Using the RAG, the algorithm tries to fit rectangles for building and roof classes, and other heuristic-based approaches for merging polygons from remaining classes. The result of the algorithm is a new set of polygons that best fits the urban environment. Some results are shown and discussed, as a way to prove the accuracy of the proposed work.
Full text: yes
Atualizar
 
  

Alocação dinâmica de recursos computacionais para experimentos científicos com replanejamento automatizado a bordo de satélites
Kucinskis, F. N.

INPE-14798-TDI/1241
Silva, José Demisio Simões da (presidente)
Ferreira, Mauricio Gonçalves Vieira (orientador)
Carvalho, Solon Venâncio de
Ambrosio, Ana Maria
Melnikoff, Selma Shin Shimizu

2007-03-30
Os experimentos a bordo dos satélites científicos do INPE são atualmente pensados para executar suas tarefas de forma repetitiva, coletando, armazenando e enviando dados em um ciclo que não sofre grandes alterações. Esta forma de lidar com a operação de experimentos é perfeitamente adequada para a observação científica de longo prazo. Existem, entretanto, fenômenos científicos de curta duração cuja ocorrência, embora previsível, é aleatória. Para analisar melhor estes fenômenos, pode ser importante aumentar a taxa de aquisição ou a precisão dos dados coletados. Isso aumenta o consumo de recursos como memória e energia para além do originalmente previsto. Devido à curta duração e à dificuldade em precisar quando um fenômeno deste tipo irá ocorrer, não é suficiente deixar a cargo da equipe de operações em solo a reconfiguração do satélite. O tempo necessário para que o fenômeno seja relatado e para que a equipe de operações crie e envie um novo plano ao satélite é em geral muito maior que a duração do fenômeno. Surge então a necessidade de se permitir que os experimentos, ao detectarem a ocorrência de fenômenos de curta duração, solicitem diretamente ao computador de bordo do satélite a realocação temporária de recursos. Esta realocação deve ocorrer de tal forma que afete o mínimo possível a operação dos outros experimentos e do próprio satélite. Como o número de estados em que o sistema pode estar no momento da detecção do fenômeno é enorme, torna-se difícil o uso de técnicas clássicas de programação para tratá-los. Este trabalho propõe o uso de técnicas de Planejamento e Escalonamento, da área de Inteligência Artificial, para permitir o replanejamento embarcado de operações quando da detecção de fenômenos de curta duração. O objetivo é propiciar ao satélite maior autonomia, e conseqüentemente, maior capacidade de resposta a eventos externos. Foi definida uma arquitetura para um serviço de replanejamento embarcado para os satélites científicos do INPE. Houve a preocupação de se contextualizar esta arquitetura nos projetos atuais do Instituto para satélites e computadores. Foi então desenvolvido um protótipo baseado nesta arquitetura, implementado para execução em um computador de bordo para satélites que está sendo desenvolvido no INPE. Devido à falta de ferramentas de software para este tipo de computador, foi preciso desenvolver também uma linguagem de representação do conhecimento e um sistema planejador, específicos para este domínio. O protótipo criado se baseia na idéia de garantir uma maior integração entre o processo de planejamento e o restante do software do satélite. A linguagem de representação do conhecimento traz uma forma mais próxima de modelar a operação e o comportamento de satélites do que outras linguagens existentes, não voltadas à área espacial. Os resultados obtidos mostram que o protótipo desenvolvido é adequado para execução no ambiente embarcado, e que este trabalho pode ser considerado um primeiro passo no sentido de aumentar a autonomia do software embarcado nos futuros satélites do INPE. ABSTRACT: The experiments aboard the Brazilian scientific satellites are currently thought to execute its tasks in a repetitive way, collecting, storing and sending data in a cycle that does not suffer great alterations. This way of dealing with the experiments operation fits perfectly to long-term scientific observation. There are, however, short-duration scientific phenomena of which occurrence, although predictable, are random. To better analyze these phenomena it may be important to increase the acquisition rate or the precision of the data collected. This increases the consumption of resources, such as memory and power, beyond the originally predicted. Due to the short duration and the difficulty to specify exactly when a phenomenon of this kind will occur, it is not enough to leave the ground operations team in charge of the satellite reconfiguration. The necessary time for the phenomenon to be reported and for the ground team to create and send a new operation plan to the satellite is in general much longer than the duration of the phenomenon. There is then the need for allowing the experiments, when detecting the occurrence of a short-duration phenomenon, to request from the onboard computer the temporary reallocation of resources. This reallocation shall occur in a way that affects the least possible the operation of the other experiments and the satellite itself. As the number of states in which the system can be is huge, it becomes difficult the use of classical programming techniques to handle it. This work proposes the use of Artificial Intelligence Planning and Scheduling techniques to allow the onboard replanning of operations, when a short-duration scientific phenomenon is detected. The main goal is to provide more autonomy to the satellite and, consequently, more strength to respond to external events. It was defined an architecture for an onboard replanning service, to be used in INPEs scientific satellites. There was the concern for context this architecture in the current INPEs projects for satellites and computers. Thus, it was developed a prototype based on this architecture, implemented for execution in a satellite onboard computer which is being developed at INPE. Due to the lack of software tools for this kind of computer, it was also necessary to develop a knowledge representation language and a planning system, specific for this domain. The prototype created is based on the idea of guaranteeing a greater integration between the planning process and the rest of the satellite software. The knowledge representation language brings a form of modeling closer to the operation and behavior of satellites than other existing languages, which are not directed to the space area. The results gotten show that the prototype is adequate for execution in the onboard environment, and that this work can be considered a first step in the direction of increasing the autonomy of the software aboard future INPEs satellites.
Full text: yes
Atualizar
 
  

Um estudo de métodos de solução do modelo hipercubo de filas para sistemas de grande porte
Luque, L.

INPE-15350-TDI/1386
Yanasse, Horacio Hideki (presidente)
Carvalho, Solon Venâncio de (orientador)
Rodrigues, Rita de Cássia Meneses
Morábito Neto, Reinaldo
Yoneyama, Takashi

2007-08-10
O planejamento de sistemas públicos e privados de atendimento à população é essencial para a garantia e manutenção da qualidade dos serviços prestados. Um modelo que tem sido amplamente utilizado para o planejamento de sistemas de atendimento nos quais servidores se deslocam até clientes para prestar serviços é o modelo Hipercubo de Filas. O modelo Hipercubo de Filas é um modelo analítico estocástico que permite a avaliação de diferentes cenários de configuração de sistemas através de diversas medidas de desempenho numéricas. O cálculo de valores exatos para essas medidas de desempenho através do modelo envolve a solução de um sistema de 2N equações lineares, o que dificulta ou inviabiliza, em alguns casos, o uso de métodos diretos ou iterativos tradicionais para a solução de modelos de sistemas de grande porte. Métodos alternativos de solução, como alguns métodos de decomposição de cadeias de Markov, podem ser aplicados ao modelo, mas as condições necessárias para sua aplicação são restritivas e seus resultados nem sempre são satisfatórios. Procurando superar estas limitações, foram desenvolvidos diversos métodos aproximados de solução do modelo que envolvem, de uma forma geral, a solução de um sistema de N equações não-lineares. Porém, os testes realizados com estes métodos foram incompletos e apenas observações gerais referentes à sua precisão foram apresentadas. Completando este cenário, foram propostas algumas modificações nos métodos aproximados com o objetivo de garantir sua convergência, mas não foram realizados testes de precisão para estas versões modificadas. Portanto, a identificação do método aproximado mais apropriado para determinado sistema é hoje baseada em conclusões fundamentadas em um pequeno conjunto de resultados sobre os quais poucos detalhes foram publicados. Neste trabalho, alguns métodos de decomposição que podem ser aplicados ao modelo Hipercubo de Filas são estudados, os métodos aproximados de solução do modelo e suas versões modificadas são revisados em relação a sua precisão e são apresentados novos resultados que estendem e completam aqueles encontrados na literatura. A relevância deste trabalho está relacionada à apresentação de novos resultados que permitem uma melhor avaliação da precisão dos métodos aproximados e suas versões modificadas. ABSTRACT: The planning of public and private service systems is essential to assure the quality of the services realized by these systems. A model that has been widely used for planning server-to-customer service systems is the Hypercube Queueing model. The Hypercube Queueing model is an analytical stochastic model that allows the evaluation of different configuration scenarios of systems throught numerical performance measures. The calculation of accurate values for these performance measures through the model involves the solution of a system of 2N linear equations, what makes it difficult or unfeasible, in some cases, the use of traditional direct or iterative methods in the solution of models for large scale systems. Alternative solution methods, as some Markov chain decompositional methods, can be applied to the model, but the necessary conditions for its application are restrictive and its results arent always satisfactory. Looking for to surpass these limitations, many approximate procedures have been developed that involve, in general, the solution of a system of N nonlinear equations. However, the tests carried out with these methods were incomplete and only general comments about its accuracy have been made. Completing this scene, some modifications to these methods were proposed with the objective to guarantee its convergence, but have not been carried out tests of accuracy with these modified versions. Consequently, the identification of the more appropriate approximate procedure is based today on conclusions about a small set of results on which few details have been published. In this work, some decompositional methods that can be applied to the Hypercube model are studied, the approximate procedures and its modified versions are revised in despite to its accuracy and are presented new results that extends and completes those published in the literature. For the attainment of these results, 25650 cases of tests with variations in diverse model parameters were generated. The relevance of this work is related to the presentation of new results that allows a more accurate analysis of the approximate procedure and its modified versions.
Full text: yes
Atualizar
 
  

Estimação de fonte de poluição atmosférica usando otimização por enxame de partículas
Luz, E. F. P.

INPE-15227-TDI/1319
Vijaykumar, Nandamudi Lankalapalli (presidente)
Campos Velho, Haroldo Fraga de (orientador)
Becceneri, José Carlos (co-orientador)
Roberti, Débora Regina
Silva Neto, Antonio José da

2007-02-26
A poluição atmosférica é um problema de aspecto global que leva cientistas e líderes mundiais a juntar esforços com o objetivo de obter soluções de médio e longo prazo para evitar problemas futuros. Uma das ações necessárias envolve a localização de fontes e a estimação da quantidade de emissão de poluentes. Atualmente, técnicas de problemas inversos podem ser utilizadas neste processo, e quando este problema é visto sob a ótica de um problema de otimização com restrições, o uso de técnicas alternativas de pesquisa operacional, tais como algoritmos bioinspirados, podem ser consideradas como uma alternativa viável e de comprovada robustez. Esta dissertação apresenta os resultados obtidos pela utilização de um algoritmo bioinspirado (PSO) e comparados com um método exato para a localização e estimação de fontes de poluição atmosférica. ABSTRACT: Atmospheric pollution is a problem of global aspect that takes scientists and world leaders to join efforts with the objective of finding mid and long term solutions to avoid future problems. One of the necessary actions involves the localization of sources and the estimation of polluting emission quantities. Actually, inverse problem techniques can be used in this process, and when this problem is taken as an optimization problem with restrictions, the use of alternatives techniques can be considered feasible with proven robustness. This dissertation presents the results obtained by the use of a bioinspired algorithm (PSO) and compared with an exact method for localization and estimation of atmospheric polluting sources.
Full text: yes
Atualizar
 
  

Uma ferramenta de apoio ao diagnóstico do nível de maturidade utilizando um modelo de rede neural
Miyashiro, M. A. S.

INPE-15770-TDI/1513
Sant'Anna, Nilson (presidente)
Ferreira, Mauricio Gonçalves Vieira (orientador)
Silva, José Demisio Simões da (orientador)
Kienbaum, Germano de Souza
Spinola, Mauro de Mesquita
Serra, Ana Paula gonçalves

2007-10-03
Atualmente é real e observável a importância do desenvolvimento de software com qualidade, motivação e tecnologia de ponta, embora mesmo as pessoas mais qualificadas não sejam capazes de fazer o melhor quando o processo não é entendido ou executado da maneira mais adequada. O processo, quando descrito de forma detalhada, possibilita o seu entendimento, treinamento na prática, validação, melhoria e alteração. O CMMI - Capability Maturity Model Integration (Integração de Modelos de Maturidade da Capacidade) tem como principal objetivo modelar as melhores práticas para ajudar as organizações a atingir a maturidade, porém, estas atividades são caras e demoradas. O uso de uma aplicação inteligente e adaptável para auxiliar as organizações pode colaborar para acelerar esta evolução. Este trabalho se propõe a apresentar o desenvolvimento da aplicação CMMI-Qualidade, que tem o objetivo de motivar as organizações a institucionalizar o uso de modelos de processos para as áreas de desenvolvimento de softwares, apresentando inicialmente a situação de seu ambiente de desenvolvimento para, em seguida, sugerir ações para a implementação das práticas exigidas pelo modelo CMMI aos seus processos. ABSTRACT: Currently it is real and noticeable the importance of a software development with quality, motivation and top level technology, but even the best people are not able to do the best when the process is not understood or executed the best possible way. The process, when described in a detailed way, enables its understanding, training in its practice, validation, improvement and alteration. The CMMI Capable Maturity Model Integration main objective is to model the best practices to help the organization achieve the maturity. However, these activities are expensive and lengthy. The use of an intelligent and adaptable application to help the organizations might contribute to accelerate this evolution. This paper proposes to present the development of the CMMI-Quality applications which objective is to motivate the organizations and institutionalize the use of models of process for the areas of software development, presenting firstly the situations of its development environment, so that afterwards it can suggest actions for the implementation of the practices required by the CMMI Model from its process.
Full text: yes
Atualizar
 
  

An algebra for Opengis coverages based on topological predicates
Palomo, D. M.

INPE--TDI/
Monteiro, Antonio Miguel Vieira (presidente)
Câmara, Gilberto (orientador)
Oliveira, João Ricardo de Freitas
Santos, Rafael Duarte Coelho dos
Lisboa Filho, Jugurta

2007-03-27
Álgebra de mapas é uma coleção de funções para a manipulação de dados espaciais onde cada dado contém um conjunto de geometrias do mesmo tipo ligado a uma referência geográfica. A atual teoria para Álgebras de Mapas utiliza operadores ad hoc propostos por Dana Tomlin. Sua proposta obteve um grande sucesso prático, e a maioria das implementações de Sistemas de Informações Geográficas disponibiliza essas operações. Entretanto, existe uma carência de bases teóricas aos operadores propostos na álgebra de mapas de Tomlin. Já a proposta do Open Geospatial Consortium para a manipulação de mapas (ou coverages) necessita de um conjunto de funções para manipular esse conteúdo. Nosso trabalho propõe a especificação de uma Álgebra de Mapas para a coverage do Open Geospatial Consortium que utiliza uma versão estendida dos predicados topológicos propostos por Egenhofer e Herring. A álgebra para coverages aqui proposta inclui todas as funções propostas por Tomlin, bem como operações que não são parte, mas que na prática são úteis. Nossa proposta pode ser uma base para o desenvolvimento de um padrão para as operações sobre coverages. O uso de padrões para as operações sobre coverages seriam um avanço significativo para o avanço da interoperabilidade dos dados espaciais. ABSTRACT: Map algebra is a collection of functions for handling spatial datasets where each data contains a set of geometries of the same type which bound to a geographical reference. The current theory for Map Algebra uses ad hoc operators proposed by Dana Tomlin. His proposal has had great practical success, and most GIS implementations provide its operations. However, there is a lack of theoretical foundations for the operations proposed in Tomlins map algebra. This is a limitation for the proposal of international standards for map algebra. Specifically, the Open Geospatial Consortiums proposal for handling a map (the coverage data type) lacks a set of functions to manipulate its content. To address this problem, our work proposes a specification for an algebra for Open GIS® coverages which uses a dimension-extended version of Egenhofer and Herrings 9-intersection predicates to express spatial operations. The proposed coverage algebra includes all Tomlins functions, as well as operations that are not part of Tomlins algebra, but are useful in practice. Our proposal could be the basis for setting up standards for operations on Open GIS coverages. The use of standards for operations in coverages would be a significant advance for increased interoperability of spatial data.
Full text: yes
Atualizar
 
  

Estudo de métodos numéricos para solução de problemas de fenômenos de transporte em malhas não estruturadas
Rocha, R. S.

INPE-14822-TDI/1262
Campos Velho, Haroldo Fraga de (presidente)
Travelho, Jerônimo dos Santos (orientador)
Vila Nova, Helcio Francisco
Baldan, Maurício Ribeiro
Cardoso, Sebastião
Pimenta, Amilcar Porto

2007-02-12
O presente trabalho apresenta a especificação de uma biblioteca computacional que está sendo desenvolvida com a finalidade de auxiliar na busca de erros que surgem durante o desenvolvimento de um modelo numérico. A referida biblioteca mostra cromogramas das variáveis sendo calculadas. Ela é capaz de atualizar os campos calculados em cada iteração, o que é interessante para localização e identificação de possíveis fontes de instabilidades. A especificação foi realizada ao mesmo tempo em que se fez a investigação de vários métodos numéricos para se determinar o mais adequado na modelagem do reator HFCVD utilizado no LAS/INPE. Simulações mostraram que uma alternativa viável para tratamento dos termos difusivos das equações do transporte é a Abordagem Baseada no Circuncentro, já para o acoplamento pressão-velocidade o método que obteve maior êxito foi o método PRIME. A utilização da biblioteca de visualização foi um fator determinante na solução de problemas que surgiram durante a implementação dos métodos numéricos testados. ABSTRACT: This work presents the specification of a computational library currently being developed in order to help find the errors that appear during the development of a numerical model. This library shows chromograms of the variable fields being calculated. It is capable to bring up to date the fields calculated in each iteration, this characteristic is interesting for localization and identification of possible sources of instabilities. The specification was carried through at the same time that several numeric methods were tested in order to find which were best suited for modeling the HFCVD reactor being currently utilized in the LAS/INPE. Simulations have shown that circumcenter based approach is a viable alternative for the transport equation diffusive terms modeling and for the pressure-velocity coupling the PRIME method was the best suited. The use of the new visualization library was a determinative factor in the solution of problems that had appeared during the implementation of the tested numerical methods.
Full text: yes
Atualizar
 
  

Análise integrada de dados ambientais utilizando técnicas de classificação e agrupamento de microarranjos de DNA
Ruivo, H. M.

INPE-15217-TDI/1311
Silva, José Demisio Simões da (presidente)
Ramos, Fernando Manuel (orientador)
Rosa, Reinaldo Roberto
Martinez, Alexandre

2007-12-17
O crescente dilúvio de dados na área de ciências ambientais gera um gargalo na sua análise e interpretação. Esta tendência requer cada vez mais o emprego de técnicas estatísticas e computacionais avançadas de extração do conhecimento. Na biologia molecular experimental, por exemplo, os microarranjos de DNA são, hoje em dia, uma das tecnologias chave em estudos genômicos e geram gigabytes de dados de expressão gênica. Por este motivo a bioinformática é uma das áreas pioneiras no tratamento de vastos volumes de informação. Esta dissertação tem por objetivo mostrar que é possível transpor técnicas computacionais que são utilizadas atualmente na bioinformática, para a área ambiental. As aplicações realizadas investigaram, inicialmente, quais foram os fatores climáticos associados à grande seca de 2005 na Amazônia. Como outra aplicação, procurou-se identificar quais são as variáveis fisico-químicas que controlam a emissão de gases de efeito estufa em reservatórios de hidrelétricas. Em ambas as aplicações, grandes volumes de dados originários de diferentes fontes foram organizados como se fossem experimentos de microarranjos. Os resultados obtidos comprovam que métodos de análise da bioinformática podem ser extremamente úteis na área ambiental. ABSTRACT: The growing flood of data in the environmental sciences generates a bottleneck in this information extraction as well as in its analysis and interpretation. This tendency requests the employment of computational techniques and advanced statistics analysis increasingly. In the experimental molecular biology, for instance, DNA microarrays, nowadays, one of the key technologies in gene expression studies, and they generate gigabytes of gene expression data making it one of the pioneering areas in the treatment of this vast information. The objective of this dissertation is to show the possibility of transpose computational techniques currently used in the bioinformatic, into the environmental area. Initially the accomplished applications investigated, which were the climatic component for the great drought of Amazonia in 2005. As another application, we have been identified the physiochemical variables that control the emission of greenhouse effect in hydroelectric dams. In both applications, great volumes of original data of different sources were organized as microarray experiments. The results shows that methods of analysis of the bioinformatic can be extremely useful in the environmental area.
Full text: yes
Atualizar
 
  

Extração de atributos de forma e seleção de atributos usando algoritmos genéticos para a classificação de regiões
Santos, J. C.

INPE-14671-TDI/1224
Fonseca, Leila Maria Garcia (presidente)
Dutra, Luciano Vieira (orientador)
Oliveira, João Ricardo de Freitas (co-orientador)
Rennó, Camilo Daleles
Perrella, Waldecir João

2007-02-02
O crescente avanço tecnológico dos sensores remotos tem gerado imagens com alto poder de discriminação de alvos terrestres. Com esta possibilidade, é cada vez maior o número de estudos do sistema urbano usando dados de sensoriamento remoto. Imagens do ambiente urbano apresentam uma alta diversidade espacial e espectral de objetos. Para casos como este, a extração de atributos de forma é necessária para se reconhecer objetos com geometrias diferentes de mesma assinatura espectral. Neste trabalho foram propostos cinco atributos de forma que apresentaram ótimo desempenho no reconhecimento de tais objetos. Uma grande dimensionalidade do espaço de atributos pode causar degradação na classificação, devido à redundância de informações, e um alto custo de processamento. Este trabalho propõe o uso de algoritmos genéticos (AG) para a seleção de atributos. Estes algoritmos se baseiam nos mecanismos de evolução dos seres vivos. Para a busca da melhor solução é utilizada a distância Jeffrerys-Matusita (JM), ou seja, considera-se como melhor solução a que apresenta a maior distância média JM entre os pares de classe. Foram propostos dois algoritmos genéticos distintos: AG binário e AG permutação. A fim de se verificar a eficiência da metodologia proposta, foram realizados testes com uma imagem sintética e uma imagem Quickbird com 0,6m de resolução espacial. Em tais testes foram extraídos 46 atributos das amostras de treinamento. Foram selecionados subconjuntos de atributos de tamanhos 1, 2, 3 e 4, e para todos eles o AG permutação se mostrou um método mais eficiente e robusto do que o AG binário na solução do problema. Com os atributos selecionados foram alcançados coeficientes kappa de 0,8647 a 0,9927. Também foi constatado por esta pesquisa que uma boa classificação não depende apenas dos métodos de seleção de atributos, mas também do classificador utilizado. Este trabalho apresentou a importância da extração de atributos de forma e a necessidade da aplicação dos métodos de seleção de atributos nos sistemas de processamento de imagem. ABSTRACT: Discrimination power of earth surface targets has been continuously bettered with the increasing remote sensors technological advances. Urban systems applications are one of the areas that recently took benefit of these advances, particularly when using high resolution remote sensing data. In this scale, however, it is often necessary to take into account the shape of the objects to achieve a proper identification when separating objects with the same spectral signature. In this work five new shape features have been considered, in addition to those already existing in a system being developed for region classification. In such system, high feature space dimensionality can be readily achieved, which can jeopardize the image classification, due to information redundancy and high processing costs. This work also uses genetic algorithms (GA) as search strategy for feature selection and dimensionality reduction. These algorithms are based on living creatures evolution mechanisms. In order to reach the best solution, the Jeffrerys-Matusita (JM) distance is used as quality criterion. It is considered the best solution the one which presents the greatest JM average distance between pairs of classes. Two distinct genetic algorithms were tested: binary GA and permutation GA. In order to check the efficiency of the proposed methodology, tests were performed with a synthetic image and a Quickbird image with 0,6m of spatial resolution. In such tests 46 features were obtained from training samples. Feature subsets of size 1, 2, 3 and 4, were selected and in all of them the permutation AG showed a better performance than binary GA. With these selected features, kappa coefficient from 0,8647 to 0,9927 were reached. This research showed the importance of shape features for intra-urban classification; also showed an excellent performance of GA algorithms as search strategy, once, using it, a similar quality as exhaustive search was reached, at a fraction of the cost. This work, in a broad perspective, presented the importance of shape feature extraction and the need of an adequate feature selection procedure in image processing systems devoted to region classification.
Full text: yes
 
  

Simulação e análise da dinâmica de fluidos granulares
Soterroni, A. C.

INPE-14808-TDI/1251
Rosa, Reinaldo Roberto (presidente)
Macau, Elbert Einstein Neher (orientador)
Ramos, Fernando Manuel (co-orientador)
Castro, Joaquim José Barroso de
Caldas, Iberê Luiz

2007-02-27
Materiais granulares são freqüentemente manipulados pelo homem, encontrados de forma abundante na natureza e utilizados em diversas atividades agro-industriais. Dependendo das condições físicas a que são submetidos, eles são capazes de apresentar comportamentos não usuais, assumindo propriedades de sólidos, líquidos ou gases, além de exibir interessantes e diversificados fenomenos. Estas e outras características contribuem para a falta de uma teoria que forneça uma visão unificada de todos os fenomenos observados. Neste trabalho simula-se numericamente dois sistemas granulares a fim de estudar e investigar os fenomenos da segregação por tamanho (Sistema 1) e o da formação de padrões em finas camadas osciladas verticalmente (Sistema 2). As análises obtidas para o Sistema 1 sugerem que o fenomeno da segregação é o resultado da combinação de dois mecanismos distintos: empuxo e convecção. Já para o Sistema 2 encontramos algumas formas geométricas isoladas (quadrados, pentágonos e hexágonos) e a dinâmica observada é essencialmente difusiva, do tipo movimento browniano, em contraste com a dinâmica convectiva do Sistema 1, caracterizada pela presença de uma célula de convecção dentro do recipiente. ABSTRACT: Granular materials are ubiquitous in nature and in our daily lives, and used in many industrial processes. Depending on the physical conditions that they are subjected, granular materials may present unusual behavior, combining properties of solids, liquids or gases, and displaying interesting and diversified phenomena. In this work we numerically simulated two granular systems in order to investigate the phenomenon of size segregation (System 1) and pattern formation in vertically vibrated thin granular layers (System 2). Results for the System 1 suggest that the phenomenon of segregation is the effect of the combination of two distinct mechanisms: buoyancy and convection. For System 2, we found disordered patterns but with some isolated squares, pentagons and hexagons. The dynamics observed in System 2 is essentially diffusive, Brownian motion-type, in contrast with the convective dynamics displayed by System 1, characterized by the presence of a convection cell within the simulation box.
Full text: yes
Atualizar
 
  

Um processo de gerenciamento de configuração de software como repositório de artefatos definidos dinamicamente
Tavares, R. P.

INPE-15243-TDI/1330
Silva, José Demisio Simões da (presidente)
Sant'Anna, Nilson (orientador)
Carvalho, Solon Venâncio de (co-orientador)
Ferreira, Mauricio Gonçalves Vieira
Prado, Antonio Francisco do

2007-11-06
Uma das constantes preocupações no desenvolvimento de software são o armazenamento e controle de informação gerada ao longo do projeto. Armazenar artefatos de software e gerenciá-los ao longo do projeto é um dos grandes objetivos da Gerência de Configuração de Software (GCS), processo previsto nas normas e modelos de maturidade de software. Entende-se por Artefato toda e qualquer informação produzida, consumida ou modificada por um processo, cita-se como exemplos: um pedaço de informação, um documento, um modelo, um código fonte, dentre outros. A base de todo o processo de GCS está em um repositório central onde todos os artefatos devem ser sistematicamente controlados. Controlar artefatos significa manter meta-informação e versionamento, controlar acesso de usuários concorrentes e gerenciar modificações que forem realizadas ao longo do desenvolvimento. Construir um repositório de artefatos exige conhecer características dos artefatos que serão produzidos que podem ser diferentes dependendo de cada projeto em específico. A abordagem de repositório de artefatos clássica estabelece um modelo padrão e inflexível para a definição dos artefatos. Uma abordagem que prevê alta flexibilidade e dinamismo é a utilização de modelos de objetos dinâmicos. Este trabalho apresenta uma forma de aplicação de modelos de objetos dinâmicos para a construção de um repositório de artefatos que proporciona alta flexibilidade e dinamismo na determinação das características de maneira que representem de maneira precisa os artefatos dentro de cada necessidade específica. Como estudo de caso é apresentado um processo de GCS baseado nas práticas definidas no modelo de maturidade CMMI que faz uso do repositório de artefatos implementado. ABSTRACT: Store and control of projects information have been a permanent important issue in software development. Store and management of software artifacts are the main goals in the Software Configuration Management (SCM) process. Artifacts can be defined as any result produced by a process. These artifacts can include files, documents, parts of the product, services, processes, specifications, and invoices. The core of the SCM process is a central repository where all artifacts may be formally controlled. The artifact control involves persisting meta-information and version, access control of concurrent users and management changes along the project. Building an artifact repository involves much knowledge about the artifacts features that can be produced during the project. The classical approach of artifact repository determines an inflexible pattern to artifacts definition. The dynamic object model approach can be used to provide dynamism and flexibility. This dissertation proposes the dynamic object model approach to build a repository to provide high flexibility and dynamism in the definition of specific features to determine the more precise way in the necessity of the project. As a case study presented a SCM process is presented based on the CMMI maturity model practices using the dynamic repository developed.
Full text: yes
Atualizar
 
  

Aplicação de mapa de Kohonen para classificação de texturas em imagens SAR em ambiente paralelo
Veronese, T. B.

INPE-15239-TDI/1326
Ramos, Fernando Manuel (presidente)
Guimarães, Lamartine Nogueira Frutuoso (orientador)
Silva, José Demisio Simões da
Stephany, Stephany
Moreira, João Manoel Losada

2007-02-05
Ao longo das últimas décadas, diversas técnicas tem sido desenvolvidas para classificação de imagens de sensoriamento remoto. No caso de imagens geradas por sensores que atuam na faixa de microondas (radar), novas pesquisas são necessárias, já que muitas vezes técnicas consagradas para a classificação de imagens ópticas não produzem resultados satisfatórios quando aplicadas a imagens radar. Isso acontece devido às características peculiares deste tipo de imagem - presença de forte ruído, por exemplo. Na região amazônica, as condições climáticas freqüentemente favorecem a cobertura de nuvens, o que se apresenta como fator restritivo à utilização de sensores ópticos, incapazes de transpor este obstáculo naturalmente. Entretanto, os sensores SAR praticamente não são afetados pela cobertura de nuvens, e portanto tem se tornado os principais responsáveis pela obtenção de dados, contribuindo para suprir a falta de informação disponível sobre esta região. Neste trabalho, avalia-se a eficiência de um classificador neural baseado no mapa auto-organizável de Kohonen para classificação de imagens SAR do SIVAM (Sistema de Vigilância da Amazônia), utilizando medidas de textura obtidas por filtros Gabor. Na fase de extração de atributos, um processo de elevado custo computacional, foram implementadas técnicas de processamento paralelo em rede de computadores de baixo custo, a fim de avaliar o real ganho em desempenho. As imagens utilizadas foram obtidas pelo sensor SAR-SIVAM sobre Machadinho dOeste - RO, adquiridas em 13 de Setembro de 2004 pelo sensor SAR da aeronave de sensoriamento remoto do SIVAM, gentilmente cedidas pela Divisão de Sensoriamento Remoto do Instituto de Estudos Avançados (IEAv/CTA). Como referência para a identificação visual de classes de texturas, serão utilizadas imagens ópticas SPOT e dados de campo cedidos pela EMBRAPA. ABSTRACT: In the last decades, several techniques have been developed for classification of remote sensing images. In the case of images obtained from sensors that act in the microwave regions (radar), new researches are necessary, since often successfull techniques for optical images classification do not produce satisfactory results when applied to radar images. This happens due to the peculiar characteristics of this type of image - e.g., the presence of strong noise. In the Amazon region, the climatic conditions frequently benefit clouds covering, what presents itself as a restrictive factor to the use of optical sensors, unable to naturally cross this obstacles. However, SAR sensors are pratically not aected by the clouds covering, and thus have become the main responsible for collection of data, contributing to supply the lack of information about this region. In this work, we evaluate the eciency of a neural classifier based on the Kohonens Self-Organizing Map for classifying SAR-SIVAM images obtained from Machadinho dOeste - RO, using Gabor texture features. In the feature extraction phase, a high computational cost proccess, techniques of parallel processing were implemented in low cost computer network, in order to analyze the real performance improvement. The images for testing were obtained in 2004 September 13, by the SAR sensor of SIVAMs remote sensing aircraft, kindly given by Remote Sensing Division of Advanced Studies Institute (IEAv/CTA). As reference for the visual identification of texture classes, SPOT optical images and field information, given by EMBRAPA, are used.
Full text: yes
Atualizar
 
  


   2008



WEB-PerformCharts: a web-based test case generator from statecharts modeling
Arantes, A. O.

INPE-15379-TDI/1398
Carvalho, Solon Venâncio de (presidente)
Vijaykumar, Nandamudi Lankalapalli (orientador)
Senne, Edson Luiz Franca
Oliveira Moreira, Fernando José de
Souza, Simone do Rocio Senger de

2008-08-11
O desenvolvimento distribuído de software é uma realidade cada vez mais comum onde equipes espalhadas por um país ou mesmo pelo mundo podem trabalhar juntas no desenvolvimento de um produto. Nesse sentido, a utilização da internet é o recurso o qual possibilita o trabalho cooperativo entre profissionais geograficamente distantes. A presente dissertação propõe uma ferramenta acessível pela internet, WEB-PerformCharts, que adapta as rotinas da ferramenta PerformCharts possibilitando a geração e armazenamento de casos de teste remotamente via internet pelos testadores de software. O funcionamento da ferramenta proposta se baseia na especificação de sistemas reativos utilizando a técnica Statecharts e na geração de casos de teste para a mesma de acordo com alguns métodos disponíveis. A maior contribuição deste trabalho diz respeito ao estudo de métodos apropriados para a geração de casos de teste aplicados a software embarcado, além de propiciar a utilização da WEB-PerformCharts remotamente com o objetivo de dar suporte aos processos de testes em um ambiente de desenvolvimento distribuído. ABSTRACT: Distributed development of software is an increasing approach where teams spread over a country or even over the world can work together in order to develop the product. Web appears as a valuable resource enabling the cooperative development of software by professionals geographically distant from each other. This dissertation proposes a web-based tool, WEBPerformCharts, which implements PerformCharts tool by adapting it to enable test designers to achieve generation of test sequences remotely via Internet. The goal of this proposed tool is to specify a reactive system in Statecharts, using the Web, and to generate test sequences according to a test case generation method. The main contribution of this dissertation is to investigate a test case generation method appropriate for space software specifications, besides enabling the use of WEB-PerformCharts through remote access with the objective of supporting the test process in a distributed development environment.
Full text: yes
Atualizar
 
  

Redes neurais e diferentes métodos de assimilação de dados em dinâmica não linear
Furtado, H. C. M.

INPE-15235-TDI/1322
Ramos, Fernando Manuel (presidente)
Macau, Elbert Einstein Neher (orientador)
Campos Velho, Haroldo Fraga de (co-orientador)
Domingues, Margarete Oliveira
Dias, Pedro Leite da Silva

2008-02-22
Técnicas de assimilação de dados são essenciais para sistemas operacionais de previsão baseados em modelos físico-matemáticos. De modo simplificado pode-se dizer que a assimilação de dados é a ciência de ter uma adequada combinação de dados de um modelo matemático de previsão com dados de observação do sistema em estudo. Este trabalho propõe-se a avaliar métodos de assimilação de dados, que são: Filtro de Kalman (KF), Filtro de Partículas (FP), ou Método Sequencial de Monte Carlo, Método Variacional (MV) e Redes Neurais Artificiais, utilizando a arquitetura de rede Perceptron de Múltiplas Camadas (PMC). Primeiramente, faz-se uma revisão de algumas técnicas tradicionias em assimilação, tais como: Correções Sucessivas, Análise de Correções e Interpolação Ótima. O objetivo principal desta pesquisa é avaliar a capacidade da Rede Neural PMC emular o KF, FP e o MV. Avaliou-se também, a frequência com que as observações são inseridas no processo de assimilação. Os resultados obtidos com a rede PMC foram precisos para ambas as técnicas utilizadas no treinamento da rede. Sendo que, a RN obteve o resultado mais preciso que o Filtro de Kalman, com capacidade de fazer assimilação com frequência de observações a cada 500 passos de tempo. As técnicas foram aplicadas ao sistema de Lorenz em regime caótico. ABSTRACT: Techniques of data assimilation are essential for operating systems of forecast based on physical and mathematical models. In simplied it can be said that the data assimilation is the science to have a adequate combination of data from a mathematical model of forecast with observation data from the system under study. This study proposed to evaluate methods of data assimilation, which are: Kalman Filter (KF), Particle Filter (PF), or Sequential Monte Carlo method , Variacional Method (VM) and Neural Networks, using the network architecture of Perceptron Multiple Layers (PML). Firstly, made by a revision of some technical tradicionias in assimilation, such as: Successive Correction, Analysis Correction and Optimo Interpolation. The main objective of this research was to evaluate the ability of Neural Network (PML) to emulate the KF, FP and VM. It also evaluated the frequency with which the observations are included in the process of assimilation. The results obtained with the network PML were accurate for both techniques used in the training of the network. The network obtained the result more accurate that the Kalman Filter, with capacity to make assimilation with frequency of observation to every 500 steps of time. The techniques were applied to the Lorenz system in chaotic regime.
Full text: yes
Atualizar
 
  

Calibração radiométrica relativa da câmara CCD dos satélites CBERS-2 e CBERS-2B
Gouvêa, É. J. C.

INPE-15270-TDI/1347
Silva, José Demísio Simões de (presidente)
Fonseca, Leila Maria Garcia (orientador)
Dutra, Luciano Vieira (co-orientador)
Renno, Camilo Daleles
Costa, Max Henrique Machado

2008-04-08
Os satélites CBERS-2 e CBERS-2B foram lançados em 2003 e 2007, respectivamente. As imagens são recebidas pela estação de recepção em Cuiabá e processadas antes de serem distribuídas aos usuários. Nesta fase de processamento, correções radiométricas e geométricas são realizadas para melhorar a qualidade das imagens. Uma das técnicas de correção radiométrica é a calibração relativa, que tem como objetivo uniformizar as respostas dos detectores para que eles tenham a mesma resposta (mesmo valor digital) quando sensibilizados por um sinal de mesma intensidade. Portanto, dada a importância e a necessidade de gerar imagens com boa qualidade radiométrica, este trabalho tem como objetivo implementar e avaliar um método de calibração relativa da câmara CCD dos satélites CBERS-2 e CBERS-2B. Uma avaliação das distorções presentes na resposta dos detectores da câmara CCD é também apresentada. Para efeito de avaliação, o método proposto é testado em imagens de três diferentes tipos de alvos: agricultura, urbano e vegetação. ABSTRACT: The satellites CBERS-2 and CBERS-2B were launched in 2003 and 2007, respectively. The images are received by reception station in Cuiabá and processed before being available to the users. In this step of the image processing, radiometric and geometric corrections are performed to improve image quality. One of the radiometric correction techniques is the relative calibration, which aims to homogenize the detector responses so that they have the same digital value when reached by a signal of same intensity. Therefore, given the need to generate images with good radiometric quality, this work aims to implement and evaluate a method to perform the relative calibration of CBERS-2 and CBERS-2B CCD camera. An evaluation of the distortion in the response of CCD camera detectors is also presented. To perform the evaluation, the proposed method was tested with images from three kinds of targets: agriculture, urban and vegetation.
Full text: yes
Atualizar
 
  

Novos algoritmos para problemas dinâmicos de roteirização de veículos com janela de tempo
Graça, A. E. S. T.

INPE-15659-TDI/1435
Senne, Edson Luiz Franca (presidente)
Lorena, Luiz Antonio Nogueira (orientador)
Arakaki, Reinaldo Gen Ichiro
Marins, Fernando Augusto Silva

2008-11-21
Um Problema de Roteirização de Veículos com Janela de Tempo Dinâmic(PRVJTD) é uma especialização do Problema de Roteirização de Veículos, que tem rotas para a entrega e ou coletas de itens, com penalidades de atraso ou antecipação de chegada dos veículos ao local da coleta e ou retirada e a possibilidade de inserções de novos locais de coleta em uma rota já iniciada. Este trabalho aborda novos algoritmos para resolver o PRVJTD, utilizando um algoritmo evolutivo aplicado a uma técnica de agrupamento, denominado Evolutionary Clustering Search (ECS) que vem sendo aplicada em outros problemas de Otimização com muito sucesso. ABSTRACT - A Dynamic Vehicle Routing Problem with Time Windows (PRVJTD) is a specialization of the Vehicle Routing Problem, which presents routes to deliver and/or collect merchandize, with penalties due to the delay or anticipation on arrival of vehicles and inclusion of new pick up places when a route is in course. This dissertation presents new algorithms to solve the PRVJTD, using an evolutionary algorithm applied to a technic of clustering, called Evolutionary Clustering Search (ECS), which is being applied in other optimization problems with success.
Full text: yes
Atualizar
 
  

Caracterização fina dos padrões de variabilidade do ECG para validação de modelos e aplicações em microgravidade
Guerra, J. M.

INPE-15668-TDI/1443
Silva, José Demísio Simões da (presidente)
Macau, Elbert Einstein Neher (orientador)
Tierra Criollo, Carlos Julio
Rosa, Reinaldo Roberto

2008-12-10
RESUMO O principal objetivo desta pesquisa de mestrado consistiu no estudo e aplicação de metodologias matemáticas modernas para a análise de sinais cardíacos. O estudo compreendeu a análise de padrões de variabilidade dos (a) eletrocardiogramas (ECGs) e (b) seus respectivos intervalos-RR (ou tacogramas), ambos em condições normais e patológicas. Considerando ECGs obtidos pelo Centro de Microgravidade da PUCRS, os resultados provenientes das análises são discutidos no contexto de programas espaciais envolvendo estudos da fisiologia humana em condições de microgravidade. Com esse propósito, foram analisados, através de diferentes metodologias, padrões de variabilidade de ECGs sintéticos, gerados através do modelo proposto por McSharry, Clifford, Tarassenko e Smith, denominado aqui modelo MCTS, bem como de ECGs reais. Os ECGs reais incluem: (i) batimentos cardíacos de pacientes obtidos em laboratórios clínicos (Physionet Database) e (ii) batimentos cardíacos simulados em condições de microgravidade (Laboratório de Microgravidade PUC-RS). Os resultados sugerem a validação do modelo MCTS utilizado para gerar os ECGs sintéticos, uma vez que mostraram similaridades estruturais significativas entre os dados reais e os dados sintéticos (tanto para os padrões normais como para os alterados). Os resultados referentes à microgravidade simulada indicam que a condição de gravidade reduzida pode alterar a dinâmica do sistema cardíaco, resultando em ECGs com padrões de variabilidade classificados entre a normalidade e a patologia, com alterações na freqüência e amplitude do ECG. Conclusivamente, discutimos no contexto da computação aplicada à análise de sinais cardíacos, o desempenho das metodologias utilizadas: (i) Espectro de potência, (ii) Detrended Fluctuation Analysis (DFA), (iii) Técnicas por reconstrução da série (Retrato de Fases por Diferenças Locais e Plotagem de Recorrência) e (iv) Análise Espectral Gradiente. ABSTRACT The main objective of this master research is to study and apply modern mathematical methods for analysis of cardiac signals. The study address the analysis of (a) electrocardiograms (ECGs) variability patterns and (b) their respective RR intervals (or tacograms), both under normal and pathological conditions. Considering ECGs obtained from the Microgravity Laboratory of PUC-RS, the results from our analysis are discussed in the context of space programmes involving studies of human physiology under microgravity conditions. For this purpose we analyze, using different methods, variability patterns of simulated ECGs, using the MCTS model, as well real ECGs. The real ECGs include (i) heartbeat obtained from patients in clinical conditions (Physionet Database) and (ii) heartbeat obtained under microgravity simulated conditions (Microgravity Laboratory of PUC-RS). The results suggest the validation of the MCTS model used for generating the synthetic ECGs, once they shown considerable structural similarities between the real data and the synthetic data (for both healthy and pathological patterns). The results for simulated microgravity indicate that the reduced gravity condition can change the cardiac systems dynamics; resulting ECGs having patterns classified between normality and pathology, showing alterations in the ECG frequency and amplitude. Conclusively, we discuss, in the context of applied computing to cardiac signal analysis, the performance of each used method: (i) Power spectra, (ii) DFA, (iii) Time series reconstruction (Phase Portrait from Local Differences and Recurrence Plot) and (iv) Gradient spectral analysis.
Full text: yes
Atualizar
 
  

Um ambiente de apoio à gerência de projetos utilizando gestão de processos
Magalhães, A. F.

INPE-15405-TDI/1418
Silva, José Demísio Simões da (presidente)
Carvalho, Solon Venâncio de
Kienbaum, Germano de Souza
Ferreira, Mauricio Gonçalves Vieira
Sant'Anna, Nilson
Yano, Edgar Toshiro

2008-09-25
Este trabalho utiliza uma abordagem multidisciplinar, fundamentada na Ciência e Tecnologia de Processos, visando a integração de técnicas provenientes das áreas de Gerência de Projetos, Gestão de Processos de Negócios e Simulação de Sistemas. O objetivo principal do trabalho é projetar e implementar um aplicativo, ou módulo de extensão a uma ferramenta já existente, para compor um ambiente de apoio à Gerência de Projetos na Web, baseado em conceitos e técnicas da área de Gestão de Processos de Negócios. O ambiente resultante foi denominado WfPM Workflow Project Manager e a solução adotada foi a implementação de um módulo de extensão à interface de código livre dotProject, de forma a possibilitar seu uso para modelagem, análise, simulação, execução e gestão automatizada de projetos utilizando processos de negócios. ABSTRACT: This work makes use of a multidisciplinary approach, based on Design and Process Science, aiming at the integration of techniques originated from Project Management, Business Process Management and Simulation. The main goal of the work is to project and to build an application, or a module/extension to an existing one, as part of an environment to support project management on the Web based on concepts and techniques from Business Process Management. The resulting environment was named WfPM Workflow Project Manager and the solution adopted was to implement the application as an extension module for the dotProject project management interface, making it possible to use it to model, to analyze, to simulate, to automatically execute and to manage projects based on Business Process Management.
Full text: yes
Atualizar
 
  

A utilização da tecnologia de workflow em ambientes virtuais de aprendizagem para apoio à educação a distância
Marcondes, V. P. P.

INPE-15569-TDI/1427
Kienbaum, Dr. Germano de Souza
Carvalho, Dr. Solon Venâncio de
Silva, Dr. José Demísio Simões da
Anna, Dr. Nilson Sant'
Guimarães, Dr. Lamartine
Oliveira, Dr. José M. Parente de
Rocha, Dra. Heloísa Vieira da

2008-11-03
A incorporação da tecnologia de workflow a sistemas EAD visa proporcionar aos educadores poderosos recursos para a modelagem, construção, execução e gestão automáticas de cursos que utilizam a Web como meio de comunicação. Este trabalho analisa o uso desta tecnologia em apoio a ambientes virtuais de aprendizagem e apresenta um caso particular de desenvolvimento e aplicação de uma ferramenta nela baseada, denominada Workflow Course Manager, que foi projetada para ser integrada ao ambiente virtual de aprendizagem TelEduc, de forma a convertê-lo em um sistema completo do tipo Learning Content Management System. The incorporation of the workflow technology in e-learning systems aims at providing educators with powerful resources for modeling, building, automatically execute and manage course content on the Web. This work analyzes the use of the workflow technology to support e-learning systems and presents the development and the implementation of a particular tool of this kind, named Workflow Course Manager, which was designed to be integrated with the TelEduc e-learning system, in order to convert it into a complete Learning Content Management System.
Full text: yes
Atualizar
 
  

Mapeamento do risco da esquistossomose no Estado de Minas Gerais, usando dados ambientais e sociais
Martins, F. T.

INPE--TDI/
Monteiro, Dr. Antônio Miguel Vieira (presidente)
Dutra, Dr. Luciano Vieira (orientador)
Freitas, Dra. Corina da Costa (orientadora)
Sandri, Dra. Sandra Aparecida
Correia, Dra. Virginia Ragoni de Moraes
Santos, Dr. Reinaldo Souza dos

2008-02-26
RESUMO A esquistossomose mansoni é uma doença endêmica, transmitida por hospedeiros intermediários do gênero Biomphalaria. A esquistossomose está presente em diversos países, principalmente os subdesenvolvidos, infectando uma grande quantidade de pessoas e colocando várias outras em situação de risco. Como a doença é determinada por fatores ambientais e sociais que variam no espaço e no tempo, o uso de um sistema de informações geográficas facilita a determinação da distribuição da doença e a delimitação das possíveis áreas de risco. Nesta dissertação, foram usados os dados de prevalência da esquistossomose em 197 municípios do Estado de Minas Gerais, para estimar a prevalência da esquistossomose para os 853 municípios do Estado, juntamente com variáveis de sensoriamento remoto oriundas dos sensores MODIS e SRTM, variáveis climáticas, variáveis socioeconômicas e variáveis de caracterização de vizinhança. Com este objetivo, foram usadas várias técnicas, tais como: análise de regressão linear, classificação imprecisa, regionalização e reconhecimento de padrões, para a geração e comparação dos modelos global, regional e de árvore de decisão. O modelo global foi desenvolvido usando um modelo de regressão linear para todo o Estado, alcançando 50,7% de exatidão global. O modelo regional contém um modelo de regressão linear para cada uma das quatro regiões propostas nesse trabalho e atingiu 66,90% de exatidão global. O modelo de árvore de decisão classificou a prevalência da doença em três faixas de risco: baixa, média e alta, alcançando 71,8% de exatidão global. A classificação imprecisa foi gerada a partir dos modelos de regressão linear usando intervalos de 55% e 60% de confiança, para o modelo global e regional, respectivamente. A classificação imprecisa atingiu 86,6% de exatidão global para o modelo global e 90,8% para o modelo regional. Finalmente a prevalência da doença foi estimada para os outros 656 municípios do Estado, onde não existem dados disponíveis, usando os cinco modelos desenvolvidos, sendo dois de regressão linear (global e regional), dois de classificações imprecisas e um de árvore de decisão. ABSTRACT The schistosomiasis mansoni is an endemic disease, transmitted by intermediate hosts of the genus Biomphalaria. The schistosomiasis is present in several countries, especially the underdeveloped, infecting a large number of people and putting several others in risk situation. As the disease is determined by environmental and social factors that vary in space and time, the use of a geographic information system facilitates the determination of the distribution of the disease and the delimitation of possible areas of risk. In this dissertation, were used the prevalence of schistosomiasis data in 197 municipalities in the Minas Gerais State, to estimate the prevalence of schistosomiasis for the 853 municipalities in the State, along with variables of remote sensing from the MODIS sensor and SRTM, climate variables, socioeconomic variables and variables of characterization of neighborhood. With this purpose, were used various techniques, such as linear regression analysis, imprecise classification, regionalization and pattern recognition for the generation and comparison of global, regional and decision tree models. The global model was developed using one linear regression model for all state, reaching 50.7% of overall accuracy. The regional model contains a linear regression model for each one of the four regions proposed in this work and reached 66.90% of overall accuracy. The model of decision tree classified the disease prevalence in three ranges of risk: low, medium and high, reaching 71.8% of overall accuracy. The imprecise classification was generated from the linear regression models using intervals of 55% and 60% confidence for the global and regional models, respectively. The imprecise classification reached 86.6% of overall accuracy for the global model and 90.8% for the regional model. Finally the disease prevalence has been estimated for the other 656 municipalities in the state, where no data are available, using the five models developed, two linear regression (global and regional), two of imprecise classifications, and one decision tree.
Full text: yes
Atualizar
 
  

Controle temporal em métodos adaptativos espaciais híbridos wavelet - diferenças finitas
Mendonça, F. C. G.

INPE-15353-TDI/1389
Travelho, Jerônimo dos Santos (presidente)
Macau, Elbert Einstein Neher (orientador)
Domingues, Margarete Oliveira (co-orientador)
Castro, Joaquim José Barroso de
Ricci, Mario Cesar
Villagran, Octavio Paulo Vera

2008-06-26
Nas ´ultimas d´ecadas, v´arios m´etodos vem sendo desenvolvidos utilizando ferramentas wavelet, para resolu¸cao de equa¸coes diferenciais parciais com adaptabilidade espacial e evolu¸cao temporal. Essas t´ecnicas utilizam tradicionalmente m´etodos expl´ýcitos para a discretiza¸cao no tempo. A necessidade de m´etodos temporais mais eficientes e que mantenham a estabilidade do esquema num´erico tamb´em vem sendo abordada, em especial, com o aperfei¸coamento dessas t´ecnicas espaciais em m´etodos h´ýbridos, wavelets - diferen- ¸cas finitas em equa¸coes diferenciais parciais evolutivas. O grande desafio de tais m´etodos ´e permitir uma evolu¸cao num´erica da solu¸cao em uma malha discreta economica com o maior passo de tempo poss´ývel, mantendo a dinamica do modelo. Nas aplica¸coes deste trabalho, considera-se a estrat´egia adaptativa espacial denominada Representa¸cao Esparsa de Pontos, proposta por Holmstr¨om, em 1999. Neste m´etodo, a cada passo de tempo, um novo sistema de equa¸coes diferenciais ordin´arias ´e formado para a evolu¸cao temporal. Para esta evolu¸cao, sao utilizados os m´etodos de Runge-Kutta Encaixados, propostos inicialmente por Fehlberg, por volta de 1960. Neste contexto num´erico adaptativo, o problema de escolha do tamanho do passo de tempo, pode ser visto como um problema de controle retroalimentado do tipo Proporcional-Integral (PI). Esta t´ecnica de controle tem sido testada para m´etodos de Runge-Kutta expl´ýcitos e tem apresentado boas propriedades. Os estudos desta disserta¸cao de mestrado sao dedicados `a avalia¸cao do desempenho num´erico e computacional de esquemas adaptativos temporais, juntamente com um esquema wavelet adaptativo espacial, visando um aperfei¸coamento dos mesmos com a introdu¸cao da t´ecnica PI. Para esta avalia¸cao, sao utilizadas a Equa¸cao de Burgers e a Equa¸cao de Korteweg-de Vries. Os resultados apresentados apontam t´ecnicas mais eficientes computacionalmente e com aplica¸coes a outros esquemas de interesse na ciencia espacial. ABSTRACT: In recent decades, several methods have been developed using tools wavelet, for resolution of partial differential equations with adaptability spatial and temporal evolution. These techniques use traditionally explicit methods for the discretization in time. The need for more efficient temporal methods which maintain the stability of the numerical scheme has also been studied, in particular, with the improvement of these spatial techniques in hybrids methods, wavelets - finite difference in evolutionary partial differential equations. The great challenge of such methods is to allow a numerical evolution of the solution in a economic discrete mesh, with the longest step of time possible, maintaining the momentum of the model in question. In applications of this work, the spatial adaptive strategy called Sparse Point Representation (SPR) is used, proposed by Holmstr¨om, in 1999. In this method, in each step of time, a new system of ordinary differential equations is formed for the temporal evolution. For this evolution, the methods of Runge-Kutta Embedded are used, proposed initially by Fehlberg, around 1960. In these numerical adaptative context, the problem of choosing the size of the step of time, can be seen as a problem of controlling of the type Proportional-Integral (PI). This technique of control, has been tested for explicit methods of Runge-Kutta and has shown good properties. The studies of this masters dissertation, are dedicate to the evaluation of performance numerical and computational of schemes adaptive temporal, together with a scheme adaptive spatial wavelet, being the target an improvement of the same with the introduction of the control PI. For this evaliation the Burgerss equation and the Korteweg-de Vriess equation are used. These results suggest techniques computationally more efficient and with applications to other schemes of interest in space science.
Full text: yes
Atualizar
 
  

Modelagem markoviana de comunicação em redes de satélites
Moraes Júnior, H. A.

INPE-15257-TDI/1342
Silva, José Demisio Simões da (presidente)
Carvalho, Solon Venâncio de (orientador)
Rodrigues, Rita de Cássia Meneses (co-orientadora)
Yanasse, Horacio Hideki
Belderrain, Mischel Carmen Neyra

2008-04-02
Um dos objetivos de sistemas de satélites de comunicação é conectar pessoas distantes geograficamente, permitindo a transmissão de dados, sinais de radio e televisão, telefonia móvel e internet, entre outros. Neste trabalho modela-se um sistema de satélites de comunicação por um processo markoviano. Inicialmente, considera-se uma constelação de seis satélites geoestacionários em uma única órbita. Posteriormente, considera-se que os satélites se movem em relação à Terra e, assim, os sinais, que são emitidos para um satélite, são transferidos para o próximo satélite que ocupa seu lugar, operação que é denominada handoff. Admite-se que as chegadas de chamadas são uniformemente distribuídas nas áreas de cobertura dos satélites e seguem uma distribuição de Poisson, e que os tempos de duração das chamadas são exponencialmente distribuídos. Expressões são apresentadas para se obter as seguintes medidas de desempenho: número médio de chamadas entre os satélites, número médio de canais usados, probabilidade de bloqueio e taxa de rejeição de chamadas no sistema e em cada conexão, e taxa efetiva de chegada de chamadas em cada conexão. No modelo markoviano proposto o espaço de estados cresce exponencialmente quando o número de satélites aumenta, portanto, apresenta-se um método de decomposição que permita tratar com sistemas geoestacionários maiores. Resultados numéricos são apresentados. ABSTRACT: One of the main purposes of satellite communication systems is to connect geographically distant individuals, allowing the transmission of data, radio and television signs, mobile telephony, internet connection, and others. In this work we model a satellites communication system by a Markov process. Initially, we consider a constellation with six geostationary satellites in a single orbit. Then, we consider that the satellites move relatively to the Earth, and, hence, the signs that are being emitted for a satellite are transferred to the next satellite that occupies its place, operation called handoff. We assume that calls arrivals are uniformly distributed over the satellites cover areas and follow a Poisson distribution, and that call duration times are exponentially distributed. Expressions are presented for obtaining the following performance measures: the average number of calls between satellites, average numbers of used channels, call-blocking probabilities and call rejection rate in each connection and in the system, and effective arrival rate of the calls in each connection. In the proposal Markov model the process state space grows exponentially when the number of satellites increase, therefore, we present a decomposition method that allows us to handle larger geostationary systems. Numeric results are presented.
Full text: yes
Atualizar
 
  

J-sdl: um framework para a simulação de especificações em sdl e geração automática de casos de teste
Ribeiro, J. R.

INPE-15660-TDI/1436
Dutra, Luciano Vieira (presidente)
Vijaykumar, Nandamudi Lankalapalli (orientador)
Yano, Edgar Toshiro
Alves, Miriam Celia Bergue

2008-11-20
O objetivo, dos testes de software, é detectar faltas latentes antes que produtos de software sejam colocados em funcionamento. Existem métodos para a geração automática de casos de testes, desde que o comportamento do software esteja representado como uma Máquina de Estados Finitos (MEF). São exemplos desses métodos: T, UIO, D e Switch Cover. Devido a algumas limitações das MEFs, investiga-se a geração automática de casos de teste a partir de técnicas formais de descrição que permitam a representação explícita de hierarquia e paralelismo, características muito necessárias para a representação dos softwares modernos. Isso já foi explorado por meio de uma metodologia baseada na representação do comportamento de software por meio de Statecharts. Essa metodologia consiste em converter a representação Statecharts em uma MEF a partir da qual possam ser aplicados os métodos de geração de testes. Essa dissertação de mestrado possui o objetivo de investigar uma outra técnica de modelagem: SDL. Será estudada a viabilidade de derivar casos de teste a partir de especificações em SDL, de forma direta, sem a necessidade de converter a especificação para MEFs. Para isso foi desenvolvido um framework denominado J-SDL que permite a simulação de comportamento, em termos de mudança de estados e consequentemente a geração automática de casos de teste. ABSTRACT - The objective of tests in software is to detect faults before it can be released. Methods exist to generate test cases as long as the software behavior is represented as a Finite State Machine (FSM), for example: T, UIO, D e Switch Cover. Due to some limitations in FSM, it is necessary to investigate specification techniques that enable explicit representation of parallel activities and hierarchy very much necessary to model modern software. This has already been explored by using Statecharts in which the Statecharts representation is converted into a FSM from which test cases are generated. The approach used in this dissertation is to investigate the feasibility of using SDL to generate automatically test cases in a straightforward manner, i.e., without the necessity to convert into a FSM. A framework J-SDL has been developed to simulate the behavior in terms of state changes and by simulating this behavior it will be shown that test cases can be generated.
Full text: yes
Atualizar
 
  

Qsee-tas/spac: execução automatizada de casos de teste para software embarcado em aplicações espaciais
Silva, W. P.

INPE-15662-TDI/1438
Monteiro, Antonio Miguel Vieira (presidente)
Vijaykumar, Nandamudi Lankalapalli (orientador)
Correa, Ricardo Varela
Yano, Edgar Toshiro
Delamaro, Márcio Eduardo

2008-10-20
O software embarcado em satélites científicos é crítico, pois exige interações com o hardware em tempo real para, por exemplo, adquirir dados por meio de sensores, controlar atitude, controlar as cargas úteis, comunicar-se com as estações na Terra, entre outras. Uma vez que o satélite está em órbita, sua manutenção é dispendiosa dada a natureza autônoma da missão. Assim, o teste deste tipo de software demanda muito tempo e geralmente é executado em diferentes níveis (instrumento, subsistema, sistema) e em diversos modelos de hardware (engenharia, qualificação e vôo), tornando seu processo de Verificação, Validação e Teste (VV&T) um grande desafio. Portanto, automatizar a execução dos testes pode ajudar a otimizar o tempo gasto nesta atividade, possibilitando o re-uso dos casos de teste, rastrear os itens de testes e seus casos de teste, emissões de relatos de teste e formação de bases de dados com a evolução dos testes. Neste contexto, foi desenvolvida a ferramenta Qualidade do Software Embarcado em aplicações Espaciais - Teste Automatizado de Software (QSEE-TAS) cujo objetivo é automatizar a execução de testes caixa-preta (funcionais) para software embarcado em computadores de satélites e balões que usam comunicação via padrões de interface RS-232 e USB, assim como TCP/IP e portas analógicas e digitais. A QSEE-TAS também permite gerar de forma automática a documentação associada ao processo de teste, tais como especificações de casos de teste e relatos dos testes, o que é outra característica que permite reduzir o custo associado à atividade de execução de casos de teste. Além da QSEE-TAS, foram desenvolvidos os módulos Software para Processamento e Análise de Dados Científicos (SPAC), como o objetivo de processar os dados científicos de fontes astrofísicas e mostrar uma visualização destes por meio de histogramas. Adicionalmente, apresentam-se os resultados de uma experiência de uso da QSEE-TAS/SPAC no processo de validação de três aplicações embarcadas medindo-se a redução de custo da execução dos testes. ABSTRACT - Software embedded in scientific satellite systems is usually critical due to, for instance, it's needed real-time behavior to interact with sensors, attitude control systems, payload control and communication systems. Once the satellite is in orbit, fixing bugs on its software is extremely expensive because of the autonomous nature of the mission. Hence, testing such software is a time consuming task and it is often applied to many system levels (i.e. instruments, subsystems and systems) in many hardware models (i.e. engineering, qualification and flight models), making Verification, Validation and Testing (VV&T) a complex and challenger process. Therefore, running tests automatically may leads to optimize the efficiency of testing by creating opportunities to reuse test cases, tracking test items and its test cases, enabling the generation of the documentation related to the test process and tracking the evolution of the tests in terms of failure exposures. In this context, the QSEE-TAS/SPAC tool has been developed and it aims to automate functional tests on software embedded in space platforms which uses RS-232 serial, USB, TCP/IP, and/or digital-analogic communication interfaces. Additionally, this work presents the results attained in terms of cost saving in the test execution of three embedded applications.
Full text: yes
Atualizar
 
  

Metodologia computacional para o projeto de dispositivos semicondutores nanoestruturados
Tanaka, R. Y.

INPE-15354-TDI/1390
Velho, Haroldo Fraga de Campos, (presidente)
Stephany, Stephan, (orientador)
Passaro, Angelo, (orientador)
Castro, Joaquim José Barroso de
Machado, José Márcio

2008-08-15
Nanoestruturas semicondutoras como poços, fios e pontos quânticos possuem inúmeras aplicações de interesse tecnológico. Como exemplo pode-se citar sua utilização em lasers, detectores de infravermelho, transistores, spintrônica, na medicina e, prevê-se que, futuramente, sejam essenciais na computação quântica. O domínio dessa tecnologia é visado por diversos países, sendo que no Brasil, a fabricação e caracterização de dispositivos a poços e pontos quânticos vem sendo realizados por meio de uma cooperação entre várias universidades e institutos de pesquisa do país. O presente trabalho busca contribuir para o projeto e análise dessas nanoestruturas para fotodetectores de infravermelho, complementando a capacitação já existente para a sua fabricação e caracterização. Foi desenvolvida uma metodologia computacional com códigos que permitem projetar e analisar essas nanoestuturas semicondutoras por meio do Método dos Elementos Finitos. Também foram implementados e validados cálculos autoconsistentes do perfil de energia da banda de condução dessas nanoestruturas alterado pelas cargas elétricas adicionadas por dopantes. Os resultados dos testes de validação e de outras aplicações são apresentados. Embora o foco do trabalho sejam fotodetectores de infravermelho, a metodologia proposta pode ser usada para modelar nanoestruturas semicondutoras de outros dispositivos. A metodologia desenvolvida neste trabalho servirá como base para o projeto ótimo de fotodetectores de infravermelho a poços quânticos. ABSTRACT: Semiconductor nanostructures like quantum wells, quantum wires and quantum dots have many technological applications, such as lasers, infrared photodetection, transistors, spintronics, medical imaging. It is foreseen that such nanostructures will have a fundamental role in quantic computing. Several countries do research on the design and manufacturing of semiconductor nanostructures. In Brazil, this research is being carried out jointly by universities and research institutes. The current work intends the contribute for the design and analysis of nanostructures for infrared photodetector devices, enhancing the existing knowledge about their characterization and manufacture. A methodology was implemented by means of computer codes for the design and analysis of semiconductor nanostructures using the Finite Element Method. Codes for the autoconsistent calculation of the energy profile of the conductive band of the considered nanostructures were also implemented considering the influence of electrical charges due to the addition of dopants. Evaluation test results and some applications of the method are shown. The proposed methodology focuses nanostrucures for infrared photodetectors, but can be employed in other nanostructured devices. The presented methodology will be used for the optimal design of quantum well infrared photodetectors.
Full text: yes
Atualizar
 
  

Comparação do desempenho dos índices r-tree, grades fixas, e curvas de Hilbert para consultas espaciais em bancos de dados geográficos
Teotônio, F. A. B.

INPE-15251-TDI/1338
Santos, Rafael Coelho Duarte dos (presidente)
Câmara, Gilberto (orientador)
Monteiro, Antônio Miguel Vieira (co-orientador)
Vinhas, Lúbia
Davis Júnior, Clodoveu Augusto

2008-03-27
O desenvolvimento de bancos de dados espaciais tem sido influenciado pelas pesquisas sobre indexação espacial. Várias pesquisas de índices multidimensionais podem ser encontradas na literatura, como as R-trees e suas variantes. O aumento no desempenho das operações espaciais com a utilização de índices espaciais tem levado os desenvolvedores a incluir o suporte à R-tree em seus produtos. Apesar desses avanços, existem Sistemas Gerenciadores de Bancos de Dados (SGBD) que não fornecem suporte a dados e operações espaciais. Usuários desses tipos de SGBD podem querer o desenvolvimento de aplicativos espaciais sobre estas plataformas, mas podem ser desencorajados por restrições de desempenho. Uma solução óbvia é implementar o mecanismo de indexação espacial no núcleo do SGBD. No entanto, esta solução pode não ser viável, devido a restrições de tempo e custo ou por falta de acesso aos códigos fontes dos SGBDs (caso de sistemas proprietários). Este trabalho investiga uma forma para incluir índices espaciais no SGBD, sem a necessidade de alterações nos SGBDs. Serão considerados índices como as curvas de Hilbert e as Grades Fixas construídos como uma camada sobre a TerraLib. Os desempenhos desses índices serão comparados com o desempenho dos mecanismos nativos oferecidos pelos SGBDs estudados como as B-Trees e R-Trees. ABSTRACT: The development of spatial databases has been influenced by the research on spatial indexes. There has been a considerable amount of research on multidimensional indexes such as R-trees and its variants. The performance improvements when using spatial indexes for spatial operations led database developers to include R-tree support on their products. Despite these advances, there are database management systems (DBMS) that do not provide spatial indexing in their internal core. Users of this and similar DBMS may want to develop spatial applications, but may be deterred because of performance drawbacks. One obvious solution would be to implement spatial indexes in the DBMS kernel. However, such solution may not be feasible, either because of lack of access to the source code or due to time and cost constraints. This work investigates an alternative way of including spatial indexes in DBMS. We consider indexes such as Hilbert space-filling curves and Fixed Grid developed on top of TerraLib GIS Library. Our main goal is to provide, through this library, the functionalities that are not available in a DBMS that do not include spatial index support and verify the performance between the indexes and the native mechanisms of the SGBDs like B-Trees and R-Trees.
Full text: yes
Atualizar
 
  

Serviços geográficos baseados em mediadores e padrões abertos para monitoramento ambiental participativo na Amazônia
Xavier, E. M. A.

INPE-15301-TDI/1353
Monteiro, Antônio Miguel Vieira (presidente/orientador)
Câmara Neto, Gilberto (co-orientador)
Casanova, Marco Antônio
Ferreira, Mauricio
Valeriano, Dalton de Morisson
Vijaykumar, Nandamudi L.

2008-04-28
O INPE criou e atualmente opera três projetos que auxiliam no monitoramento da Amazônia. Esses sistemas são efetivamente utilizados pelo governo brasileiro para apoio à tomada de decisões em relação à proteção da região amazônica. O mecanismo de disseminação dos dados desses sistemas em operação não está integrada, nem permite que usuários insiram suas contribuições às bases. Neste contexto, o objetivo deste trabalho é definir uma arquitetura que possa integrar diferentes fontes de dados geográficos e permitir uma maior interação dos usuários com essas bases. A hipótese formulada aponta que utilizar uma estratégia de integração apoiada em uma arquitetura mediada, em conjunto com o emprego de padrões abertos, configuram uma solução adequada para este objetivo. Para validar esta hipótese foram usados os dados dos sistemas de monitoramento ambiental operados pelo INPE. Foi desenvolvida uma arquitetura mediada que engloba o processamento de consultas distribuídas. Esta arquitetura também contempla a participação dos usuários na tarefa de monitorar a paisagem amazônica. A participação é provida por módulos que possibilitam o gerenciamento de sessões e usuários, avaliação de políticas de acesso, e propriedade dos dados inseridos. ABSTRACT: Brazil's National Institute for Space Research (INPE) created and currently operates three projects that assist in the monitoring of Amazonia. These systems are effectively used by the Brazilian government to support decision-making in relation to the protection of this region. The data dissemination mechanism of these systems is not integrated, and does not let users insert their contributions to the bases. In this context, the objective of this study is to define an architecture that can integrate different sources of geographic data and allow greater interaction with users of these databases. The hypothesis formulated indicates that using a strategy of integration supported in a mediated architecture, together with the use of open standards, set an appropriate framework for this purpose. To validate this hypothesis, data from three environmental monitoring systems operated by INPE: PRODES, DETER and BDQUEIMADAS, were used. The proposed architecture encompasses distributed query processing capabilities. This architecture also includes the participation of users in the task of monitoring the Amazonia landscape. Participation is provided by modules that enable session and user management, access policies evaluation and ownership of entered data.
Full text: yes
Atualizar
 
  


   2009



Simulação e análise de colunas granulares não homogêneas submetidas à vibração vertical
Carneiro, M. V.

INPE-15680-TDI/1454
Castro, Joaquim José Barroso de (orientador)
Macau, Elbert Einstein Nehrer
Rosa, Reinaldo Roberto (presidente)
Leonel, Edson Denis
Granato, Enzo

2009-02-12
Resumo: Usando a técnica de Eventos-Dirigidos, apresentamos resultados de simulações computacionais da dinâmica de um fluido granular unidimensional. O sistema compõe-se de uma coluna vertical de esferas submetidas à ação de uma base vibratória. O sistema se reduz ao problema da bola oscilante em sua instância mais simples usando apenas uma esfera. Assim como o modelo de dinâmica granular, o modelo da bola oscilante é não-linear e apresenta regiões de periodicidade e comportamento caótico. Os resultados das simulações para o caso geral com $ N$ esferas apresentam fenômenos de fluidização e condensação, ambos dependentes da amplitude e frequência da base. Leis de escalas, incluindo a posição média do centro de massa e a dilatação coluna, resultantes da dinâmica das esferas, também são verificadas. Colunas de esferas com distribuição heterogênea de massas apresentam coexistência de diferentes regimes dispostos em camadas e possuem leis de escalas distintas em relação à distribuição homogênea. A utilização de um coeficiente de restituição dependente da velocidade no modelo da bola oscilante inclui um parâmetro de velocidade de corte que é utilizado para transladar o diagrama de bifurcação ao longo do eixo da variável de controle que representa a amplitude de vibração. Para o modelo de N esferas, a implementação desse coeficiente impede que a coluna assuma o regime fluidizado e intensifica a formação de aglomerados. ABSTRACT: We present results from computational experiments of one-dimensional granular fluid. With characteristic properties lying between those of liquids and solids, this class of material consists of assemblies of solid particles which interact via mechanical forces (contact and friction) and are maintained together by a gravitational field. The system is composed of a vertical column of spherical beads driven by a sinusoidally vibrating plate. The system encompasses the bouncing ball problem in the simplest case using a single bead. The bouncing ball model is non-linear as well as the granular matter dynamics and presents regions of periodicity and chaotic behavior. The problem has a large set of attractors and strong dependence on initial conditions. Results for N-bead experiments show the fluidization and condensation phenomena, both dependent on the amplitude and frequency of the driving plate. Some scaling properties arising from the dynamics of the beads are also shown. Sphere columns with inhomogeneous distribution present coexistence of different layered regimes and show scaling laws different from those of the homogenous distribution. Including a impact-velocity dependent restitution coefficient in the bouncing ball model incorporates a cut-off velocity parameter that is used to translate the bifurcation diagram along the axis containing the acceleration parameter. For the N-sphere model, implementing this velocity-dependent coefficient prevents the column getting into fluidized regime and intensifies the cluster formation.
Full text: yes
Atualizar
 
  

Previsão do índice geomagnético dst utilizando redes neurais artificiais e árvore de decisão
Muralikrishna, A.

INPE-15706-TDI/1471
Rosa, Reinaldo Roberto (presidente)
Silva, José Demísio Simões da (orientador)
Lago, Alisson Dal (orientador)
Alarcon, Walter Demetrio Gonzalez
Osório, Fernando Santos

2009-02-13
A Terra sofre constante influência da atividade solar através do vento solar, que traz consigo estruturas resultantes, principalmente, de eventos solares como explosões solares e ejeções coronais de massa. A interação quase estática do vento solar com o campo geomagnético forma a estrutura denominada magnetosfera, que funciona como um escudo, que protege o planeta do plasma provindo do Sol. No entanto, em função das características que as estruturas de origem solar adquirem ao longo do meio interplanetário, pode haver penetração de parte dessa matéria para dentro da magnetosfera. Como conseqüência, diversos tipos de distúrbios podem ser gerados no planeta, como, por exemplo, as auroras e as tempestades geomagnéticas, as quais podem ocasionar diversos danos aos sistemas tecnológicos, entre outros prejuízos. Este trabalho aborda a relação entre as características do meio interplanetário durante o avanço de estruturas interplanetárias em direção à Terra e os efeitos sentidos pelo campo geomagnético, como resposta a essas características. O foco principal é a previsão do comportamento do campo geomagnético, medido, neste trabalho, pelo índice geomagnético Dst, levando-se em conta, principalmente, as três coordenadas do campo magnético interplanetário. As ferramentas escolhidas para resolver o problema não-linear foram as técnicas: Rede Neural Artificial do tipo Perceptron de Múltiplas Camadas, treinada com algoritmo backpropagation, Mapa Auto-organizável de Kohonen e Árvore de Decisão com algoritmo J48. Foi possível comprovar algumas relações e questionar a existência de outras com a Árvore de Decisão e prever, com ótimo percentual de eficiência, o índice geomagnético Dst com a Rede MLP. ABSTRACT - The Earth suffers constant influence of the solar activity through the solar wind, which brings with it the resulting structures, mainly phenomena like solar flares and coronal mass ejection. The almost static interaction between the solar wind and the geomagnetic field forms a structure called magnetosphere, which acts as a shield that protects the planet from radiation and solar plasma. However, depending on the characteristics that these structures of solar origin acquire throughout the interplanetary medium, a part of the energy and matter may penetrate into the magnetosphere. As a result, different types of disturbances can be generated on the planet, for example, the aurora and the geomagnetic storms, which can cause damage to various technological systems, among other losses. The present work formulates the relationship between the characteristics of the interplanetary medium during the progress of the interplanetary structures towards the Earth and the effects observed on the geomagnetic field, in response to these characteristics. The main focus is on forecasting the behavior of the geomagnetic field, represented in this work by the Dst index, using for that, mainly, the three interplanetary magnetic field components. The tools chosen here to solve the non-linear problem were the Multi-layer Perceptrons Artificial Neural Network, trained with the backpropagation algorithm; the Kohonen Self-Organizing Map and the Decision Tree with the J48 algorithm. It was possible to establish some relationships and to question the existence of others with the Decision Tree, and predict the geomagnetic Dst index with great percentage efficiency with the Artificial Neural Network.
Full text: yes
Atualizar
 
  

Desenvolvimento de alguns métodos de solução para o problema de redução de ciclos de serra
Ranck Júnior, R.

INPE-15694-TDI/1468
Senne, Edson Luiz Franca (presidente)
Yanasse, Horacio Hideki (orientador)
Becceneri, José Carlos (orientador)
Rangel, Maria do Socorro Nogueira

2009-02-09
Neste trabalho, focaliza-se o Problema de Redução de Ciclos de Serra. Este problema surge, por exemplo, em ambientes de corte em que o custo da máquina de corte contribui significativamente para os custos de produção, e/ou em uma situação de alta demanda em que é preciso utilizar a máquina de corte de maneira eficiente, produzindo mais itens por unidade de tempo. Um novo modelo de programação linear inteira é proposto para o problema e também novas heurísticas para resolvê-lo. As heurísticas baseiam-se na idéia de produzir padrões que podem ser repetidos várias vezes, de preferência em quantidades múltiplas da capacidade da serra, associada a uma resolução aproximada de um modelo de programação linear inteira. Resolve-se o modelo utilizando-se Geração de Colunas e um método de arredondamento da solução. Testes computacionais, baseados em instâncias sugeridas por Foerster e Wäscher (1999), são apresentados para avaliar o desempenho das heurísticas propostas. Os testes mostram que, para a maioria dos casos, as heurísticas reduzem o número de ciclos de serra com relação à solução do problema de corte clássico, em que apenas a minimização do número de objetos define a função objetivo, enquanto mantém um compromisso com o número de objetos cortados. ABSTRACT In this work, the problem of reducing saw cycles is focused. This problem arises, for example, in cutting settings where the saw machine costs contributes significantly to production costs, and / or in a situation with high demand where the saw machine must be used efficiently, producing more items per unit of time. A new integer linear programming model is proposed for the problem and also new heuristics to solve it. The heuristics are based on the idea of producing cutting patterns that can be repeated several times, preferably in quantities that are multiples of the saw capacity, associated to an approximated resolution of an integer linear programming model. The model is solved using Column Generation and a rounding method of the solution. Computational tests, based on suggested instances by Foerster e Wäscher (1999), are presented to evaluate the performance of the proposed heuristics. The tests show that, for the majority of the cases, the heuristics reduce the number of saw cycles compared to the classic cutting stock problem solution when only the minimization of the number of objects defines the objective function, while maintaining a trade-off with the number of objects cut.
Full text: yes
Atualizar
 
  

Caracterização computacional de padrões estruturais em seqüências de DNA relacionadas a processos em redes metabólicas
Santos, L.

INPE-15742-TDI/1487
Vijaykumar, Nandamudi Lankalapalli (presidente)
Rosa, Reinaldo Roberto (orientador)
Gerhardt, Gunther J. L. (orientador)
Chalhub, Ezzat Selim
Almeida, Rita Maria Cunha de

2009-02-26
Nas últimas décadas, uma enorme quantidade de informação sobre o funcionamento de sistemas biológicos foram disponibilizadas em bancos de dados de acesso público. A Computação Aplicada à Biologia ou Bioinformática tem contribuído para análise computacional de dados biológicos cada vez mais ricos em informação. Neste contexto, este trabalho tem por objetivo analisar e caracterizar a estrutura do Ácido Nucléico DNA através de técnicas matemáticas e computacionais. As técnicas de caracterização empregadas são: a análise de flutuação "destendenciada", o coeciente de dispersão e a análise espectral gradiente. São utilizadas as seqüências gênicas e não gênicas dos seguintes organismos: a Escherichia coli, uma bactéria do Reino Eubacteria; a Thermoplasma acidophilum, uma arquea do Reino Archaea e a Saccharomyces cerevisiae, uma levedura do Reino Fungi. Estes organismos são importantes em estudos de Exobiologia ou Astrobiologia, uma vez que, representam origens evolutivas distintas. Os principais resultados evidenciam diferenças estruturais robustas entre os três organismos e validam as técnicas utilizadas para análise de seqüência genéticas. ABSTRACT: In the last years, an amount of information about the biological systems were available in public databases. The Computer Science Applied to Biology or Bioinformatics has contributed to computational analysis of biological data giving a lot of information on biological processes and patterns in natural systems. In this context, this study aims to examine and characterize the structure of nucleic acid (DNA) through mathematical and computational techniques. The characterization techniques used in this work are: Detrended Fluctuation Analysis, Dispersion Coefficient and Gradient Spectra Analysis. Coding and non-coding sequences of the following organisms are used: Escherichia coli which is a bacterium of the Eubacteria Kingdom, the Thermoplasma acidophilum which is an archaeal of the Archaea Kingdom and Saccharomyces cerevisiae which is a yeast of the Fungi Kingdom. Such organisms are important in the exobiological scenario due to their distinct evolutionary origins. The main results have shown robust structural dierences among the three organisms and were important in order to validate the techniques for genetic sequences analysis.
Full text: yes
Atualizar
 
  

Implementação e avaliação de métodos de fusão para geração de imagens coloridas de alta resolução
Silva, F. C.

INPE-15730-TDI/1476
Freitas, Corina da Costa (presidente)
Dutra, Luciano Vieira (orientador)
Fonseca, Leila Maria Garcia (orientadora)
Oliveira, João Ricardo de Freitas
Feitosa, Raul Queiroz

2009-02-19
A técnica de fusão de imagens utilizada neste trabalho consiste em combinar as cores das imagens multiespectrais de baixa resolução com os detalhes de uma banda pancromática que possui melhor resolução espacial. Este trabalho tem o objetivo de implementar e avaliar diferentes métodos de fusão baseados nas transformadas IHS, PCA e Wavelet. Seis métodos de fusão de imagens foram implementados usando a biblioteca TerraLib, em C++: IHS, PCA, Wavelet, Wavelet+IHS, Wavelet+PCA e WiSpeR. Os métodos foram testados utilizando imagens dos satélites CBERS-2B, SPOT-5, IKONOS e QUICKBIRD. A análise dos resultados é realizada por meio de avaliação visual e critérios quantitativos tais como Coeciente de Correlação, UIQI, ERGAS, ERGAS Espacial e Coeciente de Correlação Espacial. A análise mostrou que o método baseado na transformada Wavelet, WiSpeR, é o mais adequado pois permite injetar no produto híbrido a informação de detalhes, presente na imagem pancromática, preservando a informação espectral das imagens multiespectrais. ABSTRACT - The image fusion technique used in this work is based on combine the colors of low resolution multispectral images with panchromatic band details which has better spatial resolution. This work aims to implement and evaluate dierent fusion methods using IHS, PCA and Wavelet transforms. Six image fusion methods were implemented using the TerraLib Library, in C++: IHS, PCA, Wavelet, Wavelet+IHS, Wavelet+PCA and WiSpeR. The methods were tested using images of the CBERS-2B, SPOT-5, IKONOS and QUICKBIRD satellites. The analysis is performed using visual assessment and quantitative indices such as Correlation Coefficient, UIQI, ERGAS, Spatial ERGAS and Spatial Correlation Coefficient. The analysis showed that the method based on Wavelet transform, WiSpeR, is more appropriate because it allows inject panchromatic image details information in the hybrid product, preserving the spectral information of multispectral images.
Full text: yes
Atualizar