PROGRAMA DE PÓS-GRADUAÇÃO EM INFORMÁTICA (PPGI)

UNIVERSIDADE FEDERAL DA PARAÍBA

Telefone/Ramal:
Não informado
http://www.ufpb.br/pos/ppgi

Dissertações/Teses


Clique aqui para acessar os arquivos diretamente da Biblioteca Digital de Teses e Dissertações da UFPB

2017
Descrição
  • ALAN BONIFÁCIO DE PONTES
  • Uso de Predição de Defeitos Aplicada ao Processo de Identificação e Recomendação para Priorização de Bugs
  • Orientador : CLAUIRTON DE ALBUQUERQUE SIEBRA
  • Data: 27/11/2017
  • Mostrar Resumo
  • A utilizacao de tecnicas computacionais vem aumentando consideravelmente, proporcionando assim um desenvolvimento progressivo da ciencia e da pesquisa cientifica em todas as areas de conhecimento. Os sistemas computacionais auxiliam significativamente neste processo e a qualidade destes sistemas torna-se um fator essencial, pois os softwares estao cada vez mais complexos. Igualmente, para alcancar a qualidade deseja, a etapa de testes de software faz-se necessaria e e primordial que seja executada de forma mais otimizada quanto possivel, pois ja e consenso que esta etapa demanda tempo e dinheiro. Com isso, as tecnicas de predicao de defeitos tem se tornado uma grande aliada em descobrir defeitos de software. Neste trabalho nos apoiamos nas diversas tecnicas de predicao de defeitos disponiveis, bem como nas metricas computacionais encontradas, e a partir da matriz de confusao podemos indicar os modelos mais promissores para predizer os defeitos de software e tambem auxiliar na indicacao das possiveis recomendacoes de priorizacao de bugs. No trabalho e verificada a validacao dos modelos, que sao criados a partir das versoes mais antigas do sistema estudado, aplicando tais modelos nas versoes mais recentes. Ou seja, as versoes mais iniciais do sistema deverao indicar possiveis erros nas versoes futuras do mesmo sistema estudado. Alem disso, tambem e possivel a indicacao automatizada da prioridade do bug encontrado. O principal objetivo e servir de apoio ao time para que este possa priorizar a elaboracao e a execucao dos roteiros de testes nas proximas versoes, bem como indicar, com base em dados historicos, a prioridade do erro encontrado.
  • MATHEUS CORDEIRO DE MELO
  • Novo Método de Classificação Automática de Achados em Mamografias FFDM e SFM utilizando Rede Neural
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 16/11/2017
  • Mostrar Resumo
  • O cancer de mama e o tipo de cancer com maior incidencia entre as mulheres. A mamografia e o exame mais indicado para a deteccao precoce deste cancer, possibilitando a deteccao de lesoes muito pequenas e a visualizacao de ate 90% das anormalidades (massas, calcificacoes, distorcoes de arquitetura). O diagnostico do cancer de mama, atraves do exame de mamografia, consiste em um processo propenso a erros devido, principalmente, as interpretacoes equivocadas dos medicos, consequencia da real dificuldade do procedimento. Sistemas Baseados em Diagnostico por Computador (do ingles Computer-Aided Diagnosis – CAD) podem ser desenvolvidos com o objetivo de ser uma segunda opiniao na identificacao e diagnostico da doenca utilizando imagens mamograficas. Imagens mamograficas podem ser obtidas atraves da mamografia convencional (do ingles Screen-film Mammography - SFM) e da totalmente digital (do ingles Full Fiel Digital Mammography - FFDM), a qual apresenta uma melhor resolucao e esta substituindo gradualmente a SFM. Este trabalho desenvolveu um novo metodo de classificacao automatica de achados mamograficos em benignos ou malignos. Primeiramente, foram selecionados dois bancos, o Digital Database for Screening Mammography (DDSM) que disponibiliza imagens coletadas da SFM e o INbreast que possui imagens obtidas pela FFDM. A seguir, foram selecionadas aleatoriamente imagens com massas mamograficas do DDSM e INbreast. Na etapa de pre-processamento, desenvolveu-se uma nova tecnica de identificacao e eliminacao de ruido baseada na Teoria de Informacao. Apos o pre-processamento, importantes descritores foram extraidos atraves da matriz de Co-ocorrencia de Niveis de Cinza e do metodo Analise de Textura Fractal Baseada em Segmentacao. Por fim, a base de caracteristicas serviu de entrada para o algoritmo classificador rede neural perceptron multicamadas. Considerando o DDSM, o metodo atingiu 93,13% de acuracia, 94,17% de especificidade e 91,23% de sensibilidade. Com o INbreast, atingiu-se 88,37% de acuracia, 83,79% de especificidade e 91,84% de sensibilidade. Os resultados obtidos neste trabalho mostraram-se competitivos com a literatura da area.
  • CLOVIS GARCIA MARCONDES
  • Extração da Frequência Respiratória Utilizando Filtros de Gabor e Transformada Discreta de Fourier em Sistema Baseado em Acelerômetros
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 29/09/2017
  • Mostrar Resumo
  • O monitoramento dos sinais vitais representa um grande avanco no aspecto de prevencao e diagnostico de enfermidades, permitindo que a atencao de profissionais de saude possa ser alertada e acoes mais rapidas possam ocorrer. Para um acompanhamento continuo em situacoes cotidianas, alem do aspecto de conforto na utilizacao, dispositivos ou tecnologias nao-invasivas se fazem necessarios. A frequencia respiratoria e um dos sinais vitais que ainda nao dispoe de opcoes comerciais com tais caracteristicas e, portanto, este trabalho teve por objetivo propor um sistema de aquisicao de dados respiratorios, nao invasivo, baseados em acelerometros tri-axiais que, diferente de trabalhos similares, permita a utilizacao por periodos prolongados, com interferencia minima nas acoes cotidianas do usuario. A construcao de um sistema embarcado baseado em ARDUINO foi considerado como vantagem pela simplificacao do processo de prototipacao, reduzindo os custos e acelerando o desenvolvimento. A aquisicao de sinais se da pela utilizacao de um acelerometro frontal no torax, responsavel pela medicao da movimentacao do tronco, aliado a um outro acelerometro nas suas costas, com o objetivo de medir os efeitos de movimentacao ou mudancas posturais, e pretende preencher uma lacuna presente em trabalhos similares desenvolvidos nos ultimos anos, muito sensiveis a mudancas posturais e movimentacoes. Foram considerados dois metodos de processamento digital de sinal para a extracao da frequencia respiratoria a partir dos dados dos eixos dos acelerometros, sendo o primeiro baseado no Dominio do Tempo, atraves da utilizacao de filtros de Gabor 1D, devido a sua natureza periodica, alem de representar um potencial avanco, ja que geralmente filtros de Gabor sao utilizados predominantemente em processamento de imagens. O segundo, no Dominio da Frequencia, utilizando-se da Transformada Discreta de Fourier, foi introduzido como alternativa de solucao durante a fase experimental, devido aos bons resultados apresentados em testes complementares comparativos realizados. Para validacao da solucao em um contexto de uso cotidiano, a avaliacao experimental considerou a realizacao de testes em diferentes posturas, tendo apresentado bons resultados em ambos os metodos em situacoes de movimentacoes posturais, mas ainda carecendo de melhorias para utilizacao durante a movimentacao do usuario, a serem exploradas em trabalhos futuros.
  • DANILO ALEXANDRE BARBOSA DE ARAUJO
  • DicomFlow: gateway assíncrono e descentralizado para formação de uma infraestrutura de informação para distribuição de imagens médicas
  • Data: 31/08/2017
  • Mostrar Resumo
  • A digitalizacao de imagens medicas, o modelo PACS/DICOM e os avancos das tecnologias de informacao e comunicacao proporcionam as condicoes para formar uma infraestrutura para distribuicao de imagens medicas em larga escala. Entretanto, mesmo considerando a grande base instalada PACS/DICOM, nao se observa a formacao de uma infraestrutura de informacao para troca de imagens medicas entre entidades de saude, pois a inercia da base instalada dificulta sua evolucao. Uma infraestrutura de informacao oferece um espaco de compartilhamento de informacoes e colaboracao que permite a associacao espontanea de pessoas, organizacoes e componentes tecnologicos situados em contextos geograficos distintos para desenvolvimento de alguma atividade. O objetivo desse trabalho foi elaborar o DicomFlow, um gateway assincrono, assimetrico e descentralizado, construido sobre a base instalada PACS/DICOM e infraestrutura de e-mail da Internet visando promover a formacao de uma infraestrutura de informacao para a distribuicao de imagens medicas, favorecendo a pratica de trabalho radiologica. Para tanto, especificou-se um protocolo de comunicacao com suporte a servicos de gerencia de exames de imagens DICOM baseado em troca de mensagens assincronas e transmissao de imagens medicas e construiu-se um modelo arquitetural em duas camadas para esse fim. Experimentos em ambiente simulado e ambiente real foram realizados para avaliar a infraestrutura quanto a sua viabilidade tecnica e operacional. Concluiu-se que o DicomFlow possibilita a troca de imagens entre profissionais e organizacoes de saude quaisquer, desde que pertencam a base instalada, fomentando a formacao de uma infraestrutura de informacao para distribuicao de imagens medicas.
  • ALEXSANDRO MARCELINO FERNANDES
  • YPOSTÍRIXI: MODELO DE APOIO BASEADO EM RPG AVENTURA SOLO PARA O DESENVOLVIMENTO DE OBJETOS DE APRENDIZAGEM
  • Orientador : CLAUIRTON DE ALBUQUERQUE SIEBRA
  • Data: 31/08/2017
  • Mostrar Resumo
  • Com o avanco das tecnologias digitais no meio educacional, os objetos de aprendizagem (OA) se tornaram um elemento importante no processo de ensino aprendizagem. O OA e compreendido como sendo qualquer recurso digital ou nao que possa apoiar a aprendizagem. Considerando a educacao a distancia (EaD), essa tecnologia assume um papel ainda mais relevante, uma vez que se utiliza dos recursos tecnologicos para transmitir o conhecimento. Esse trabalho tem como objetivo propor um modelo de apoio baseado em RPG Aventura Solo para o desenvolvimento de objetos de aprendizagem utilizando o sistema e a mecanica do Role Playing Game, visando prover um componente auxiliador no processo de ensino e aprendizagem, simplificando o processo de elaboracao e construcao dos Objetos de Aprendizagem pelos professores. O modelo proposto foi criado de acordo com as teorias de ensino e aprendizagem de Skinner (1972), juntamente com Levy (1993) no que se refere ao resgate das informacoes proveniente dos estimulos com a associacao de: imagens, sons, palavras-chaves, assim como Hayashi (2003) e Siqueira (2011), com relacao a capacidade de assimilacao de conteudos e a capacidade de decisao. A validacao do modelo proposto sinalizou, a partir da analise dos dados obtidos, que o modelo proposto teve uma aceitacao positiva pelos professores participantes revelando-se como um modelo de apoio relevante no auxilio ao processo de ensino e aprendizagem.
  • DOUGLAS ANDRADE DE MENESES
  • Otimização do algoritmo Non Local Means mediante agrupamento por similaridade no domínio da frequência
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 31/08/2017
  • Mostrar Resumo
  • O algoritmo Non Local Means (NLM) e amplamente utilizado para remocao de alta qualidade de ruido de imagens. Ainda assim, sua complexidade computacional torna-se um obstaculo para a maioria das aplicacoes. Neste trabalho propoe-se uma nova abordagem que visa reduzir o tempo de processamento, sem recorrer a janelas de busca, preservando assim os calculos nao locais que caracterizam o NLM. O metodo proposto usa o algoritmo de agrupamento K-means para agrupar pixels com vizinhancas semelhantes no dominio da Transformada Cosseno Discreta (DCT). Para evitar transacoes severas nas bordas dos agrupamentos, um pixel pode ser atribuido a diferentes clusters. Apos esse passo inicial, o algoritmo NLM executa uma pesquisa baseada em cluster. Os resultados experimentais testificam uma reducao em torno de 19 vezes no tempo computacional e, em alguns casos, melhorias nos valores do Erro Quadratico Medio (MSE), quando comparados ao algoritmo original.
  • MAELSO BRUNO PACHECO NUNES PEREIRA
  • Aceleração de Autômatos Celulares no Contexto de Biologia através de Computação Paralela em GPUs com OpenCL
  • Data: 31/08/2017
  • Mostrar Resumo
  • Automatos Celulares (AC) tem suas origens no trabalho de Von Neumann e, desde entao, tornou-se um tema de pesquisa importante com uma ampla gama de aplicacoes, que vao desde modelagem de sequencia de DNA ate a dinamica ecologica. Um aspecto que pode ser interessante durante uma simulacao de AC e a evolucao no numero de individuos de cada especie ao longo do tempo. Esta analise pode fornecer informacoes importantes sobre o dominio de certas especies em um sistema dinamico, ou identificar aspectos que possam favorecer uma ou mais especies em detrimento de outras. As simulacoes de AC podem ser tarefas computacionalmente muito custosas. Dependendo do tamanho do dominio de simulacao, do numero de dimensoes ou do numero de individuos, essas simulacoes podem levar varias horas para serem concluidas. A avaliacao do numero de individuos em cada ciclo de simulacao e uma tarefa igualmente custosa. Varias tecnicas de aceleracao foram desenvolvidas para melhorar o desempenho das simulacoes de AC, e algumas delas levam em consideracao a evolucao no numero de individuos ao longo da simulacao. Neste trabalho, e proposto um simulador de AC eficiente, capaz de avaliar de forma eficiente a evolucao no numero de individuos de cada especie. O alto desempenho e obtido atraves do uso do paralelismo macico de GPUs.
  • TIAGO EMILIO DE SOUSA ARAUJO
  • Avaliando o Desempenho dos Sistemas de Detecção de Intrusão Snort e Suricata em Ataques de Negação de Serviço
  • Orientador : FERNANDO MENEZES MATOS
  • Data: 31/08/2017
  • Mostrar Resumo
  • Os Sistemas de Deteccao de Intrusao sao ferramentas de software baseadas em assinaturas que provem mecanismos para a deteccao e analise de intrusoes em redes. Deteccao de Intrusao e o processo de monitoramento de eventos que ocorrem em uma rede e a analise destes para detectar sinais de intrusao, definidos como tentativas de comprometer a confidencialidade, integridade e disponibilidade da rede. Utilizando um cenario experimental e coletas de trafego em uma Instituicao de Ensino Superior no Brasil, avaliamos o desempenho dos Sistemas de Deteccao de Intrusao Snort e Suricata para a deteccao de ataques de Negacao de Servicos Distribuidos (Slowloris, LOIC-UDP e LOIC-HTTP). Nosso estudo descobriu que o Suricata nao gera um numero adequado de alertas para chamar a atencao do gerente de rede sobre o ataque Slowloris, enquanto Snort o faz. Para os ataques LOIC-UDP e LOIC-HTTP, os referidos sistemas efetuam a deteccao dos ataques de forma eficiente. Foi tambem analisado o consumo de CPU e memoria da maquina-alvo onde operaram os IDS durante os ataques, verificando-se o mostram o esgotamento dos recursos de memoria durante determinados ataques. Finalmente, a analise de trafego off-line revela que a Instituicao de Ensino Superior durante o periodo analisado, estava sob ataques DDoS.
  • VINICIUS ANTONIO CAMPOS FAGUNDES
  • Avaliação de Estratégias de Visualização em Dados Climáticos: Uma Análise através da Perspectiva do Usuário
  • Data: 29/08/2017
  • Mostrar Resumo
  • Dados climaticos assim como suas previsoes estao cada vez mais presentes em nosso cotidiano. E muito comum, por exemplo, ver previsoes meteorologicas em telejornais ou ainda alertas a determinadas localidades sobre um possivel desastre natural prestes a ocorrer, como inundacoes, furacoes, entre outros. Para a analise e disseminacao destas informacoes sao utilizadas tecnicas de visualizacao sobre estes dados climaticos para que sejam apresentados ao publico de maneira compreensivel. Porem, nem sempre tal informacao climatica esta apresentada de forma clara, dificultando o seu entendimento. Este trabalho de proposta de dissertacao apresenta um estudo sobre as formas de representacao mais utilizadas destas tecnicas de visualizacao, buscando identificar quais sao as principais tecnicas e como utiliza-las nos mais diversos tipos de dados climaticos. Assim, foi realizado um mapeamento sistematico na area a fim de identifica-las, bem como suas formas de representacao, seja em 2D, 3D ou ate interativa. Por fim, uma avaliacao de uso com usuarios voluntarios e proposta, buscando identificar o quao bem este tipo de informacao e compreendida quando disseminando a informacao sobre algum dado climatico em especifico.
  • RAUL FELIPE DE MORAIS FERNANDES
  • Imersão na Visualização Científica: utilizando um ambiente virtual imersivo para interação com dados climáticos
  • Data: 29/08/2017
  • Mostrar Resumo
  • Os metodos de representacao de dados cumprem funcao importante em qualquer area de estudo, uma vez que compreender as informacoes em um contexto de pesquisa e essencial para qualquer avanco cientifico. Neste sentido, a area de Visualizacao Cientifica ganha destaque ao propor meios eficientes de aprimorar a percepcao do observador sobre um conjunto de dados. No campo da meteorologia, por exemplo, os conjuntos de dados sao informacoes visuais complexas sobre diversos eventos climaticos distintos analisados em inumeras pesquisas. A variedade de fenomenos climaticos complexos, que necessitam de representacoes visuais intuitivas para transmitir as impressoes corretas, acabam trazendo alguns desafios para a Visualizacao Cientifica nesta area. Desta forma, e preciso investigar alternativas que possam aprimorar as formas de visualizacao dentro desse contexto. A Realidade Virtual (RV) tem sido cada vez mais utilizada como ferramenta alternativa para representacoes nao-convencionais na medida que se torna mais acessivel. O conceito de Ambientes Virtuais (AV's) imersivos tem sido aplicado para melhorar a experiencia de usuarios em contexto de ensino e aprendizagem por proporcionar maior nivel de concentracao e liberdade para exploracao das informacoes apresentadas. De acordo com esses fatos, este trabalho apresenta um estudo sobre a utilizacao da Visualizacao Cientifica de Dados Climaticos em Ambientes Virtuals imersivos, a fim de identificar como a Realidade Virtual pode trazer beneficios para o entendimento representacoes dos dados complexos. Para isso, foi desenvolvida uma aplicacao para visualizacao imersiva de informacoes climaticas, seguida por uma avaliacao com especialistas relacionada ao uso desses conceitos no contexto da meteorologia.
  • ALANDEY SEVERO LEITE DA SILVA
  • Framework para análise das tensões da base instalada no estabelecimento de uma infraestrutura de informação.
  • Data: 28/08/2017
  • Mostrar Resumo
  • O objetivo principal desse trabalho e criar um framework para analisar as tensoes da base instalada e como essas influenciam no estabelecimento de uma Infraestrutura de Informacao (II). Dentre alguns dos exemplos de II estao a Internet, o comercio eletronico, o Intercambio Eletronico de Dados, as infraestruturas de redes sem fio (wireless), os sistemas integrados de gestao empresarial (Enterprise Resource Planning – ERP), a interacao entre pessoas, o setor de saude e as redes de colaboracao cientifica. Metodologicamente, adota-se uma posicao qualitativa e uma visao mais social e humanista do tema para chegar ao entendimento da sua influencia na adocao de uma tecnologia. Para aplicacao do framework construido, dados do estudo do Registro Eletronico de Saude (RES) no Estado da Paraiba foram analisados. Alem das fontes bibliograficas consultadas, utilizou-se da analise de conteudo para a interpretacao de entrevistas colhidas. A analise por intermedio do presente framework aponta que os RES sao complexos e permeados por tensoes nao resolvidas, limitrofes para consolidacao de uma II, exigindo praticas que nao subestimem nem negligenciem sua base instalada, seus efeitos sociotecnicos, suas tensoes e seus reversos salientes. A aplicacao do framework em outras II podera contribuir com o aperfeicoamento e consolidacao desse instrumento, tornando-o mais abrangente e eficiente em sua finalidade.
  • RAPHAEL BEZERRA XAVIER
  • Abordagem C-GRASP com adaptação automática para otimização global contínua
  • Data: 24/08/2017
  • Mostrar Resumo
  • O uso das meta-heuristicas e fortemente recomendado para resolucao de problemas de otimizacao. Geralmente sao utilizadas para resolver problemas de otimizacao discreta. As meta-heuristicas buscam suas versoes originais para conseguir solucoes aproximadas, e metodos adaptativos sao implementados para obter maior desempenho, consequentemente melhorando a forma como a meta-heuristica funciona. Greedy Randomized Adaptive Search Procedure (GRASP), Variable Neighborhood Search (VNS) e Variable Neighborhood Descent (VND) tem sido usadas para resolver problemas de otimizacao global continua, com suas adaptacoes implementadas. A meta-heuristica Continuous GRASP esta incluida na classe das que mais sofreram adaptacoes para a resolucao desses problemas. Alguns trabalhos possuem relevancia por implementarem estas adaptacoes do Continuous GRASP (C-GRASP). O Directed Continuous GRASP (DC-GRASP) e um melhoramento proposto para acelerar a convergencia do metodo C-GRASP atraves da geracao de direcoes de descida, sem calculos de derivada, utilizando uma busca local baseada no metodo Adaptive Pattern Search (APS). Uma adaptacao automatica e inserida no DC-GRASP para otimizar a definicao dos parametros em funcoes de alta dimensao, com um metodo utilizando a meta-heuristica Particle Swarm Optimization (PSO). Nas funcoes com dimensoes menores, um mecanismo de ampliacao do tamanho do passo na busca local (APS) e o uso da busca linear inexata, foram propostas para melhorar o aproveitamento das iteracoes dos metodos. Para validar o metodo implementado foram usadas as ultimas implementacoes adaptativas do Continuous GRASP encontradas na literatura recente, como tambem em versoes originais publicadas em artigos que usam a meta-heuristica. Alguns experimentos computacionais foram realizados em um benchmark de funcoes de teste com minimo global conhecido, comprovando assim a eficacia do metodo para o auxilio na convergencia.
  • RODRIGO LOUREIRO PARENTE
  • Algoritmos para análise da qualidade de imagens faciais de acordo com requisitos do padrão ISO/ICAO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 24/08/2017
  • Mostrar Resumo
  • A face e uma das caracteristicas fisicas mais usadas para reconhecimento biometrico. A confirmacao de identidade, pela face, com documentos tradicionais e feita por um ser humano, tarefa que demanda tempo, recursos humanos e impede a agilidade de cenarios criticos como aeroportos etc. Nesse contexto, a International Civil Aviation Organization (ICAO), ou Organizacao Internacional de Aviacao Civil, iniciou um projeto para validacao automatica de identidade pessoal atraves de passaporte eletronico. Entretanto, a precisao do reconhecimento biografico em fotografia digital da face depende diretamente da qualidade da amostra facial coletada. Assim, a Organizacao Internacional de Padronizacao (ISO) desenvolveu um padrao internacional de qualidade para imagem facial a ser usado em passaportes eletronicos. Este trabalho visa apresentar algoritmos para avaliacao da qualidade de imagens faciais de acordo com os quatro requisitos do padrao ISO/ICAO descritos a seguir. A verificacao do nivel de embacamento e feita explorando a informacao das altas frequencias, calculando a variancia dos pixels apos filtragem passa-altas de Sobel. O algoritmo proposto obteve taxa de erro de 6,2%. O requisito de analise da presenca de cabelo em frente aos olhos e avaliado atraves de deteccao de bordas verticais na regiao ocular para detectar fios de cabelo na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 11,9%. O requisito que analisa a presenca de chapeu e averiguado atraves de segmentacao de pele na regiao da testa. Finalmente, o requisito da analise olhos encobertos por armacao de oculos e averiguado atraves da deteccao de bordas horizontais e deteccao de linhas na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 7,2%. O metodo para deteccao do encobrimento dos olhos por armacao de oculos busca detectar segmentos de reta horizontais, causados pela armacao, na regiao dos olhos. O algoritmo proposto obteve taxa de erro de 11,6%.
  • ARUAN GALVES NASCIMENTO AMARAL
  • Uma Abordagem Baseada em Riscos de Software para Seleção de Requisitos
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 22/08/2017
  • Mostrar Resumo
  • Em abordagens de desenvolvimento incremental, existe um grande interesse em entregar releases do sistema dentro do cronograma, sem estourar o orcamento, e, ao mesmo tempo, que agregue o maximo de satisfacao possivel aos interessados no projeto. Assim, o processo de selecao de requisitos e um fator-chave para identificar um subconjunto bom ou ate mesmo otimo de requisitos candidatos que atendam estas condicoes. Tecnicas tradicionais que envolvem um processo manual de selecao e priorizacao de requisitos encontram limitacoes ao lidar com um grande conjunto de requisitos. Nesta direcao, o Problema do Proximo Release, do ingles Next Release Problem (NRP), apresenta uma modelagem computacional para este processo decisorio, evoluindo desde uma abordagem simples com um unico objetivo a ser alcancado dado um orcamento-limite, partindo para abordagens com multiplos objetivos que flexibilizam a tomada de decisao, sem restringir limites pre-fixados para as metas a serem alcancadas no release. Apesar desta evolucao, a maior parte das contribuicoes para o Problema do Proximo Release nao tratam riscos de software, que e um fator-chave que pode impactar profundamente o custo do projeto e a satisfacao dos stakeholders. Deste modo, este trabalho propoe uma abordagem baseada em riscos para um problema do proximo release multi-objetivo, em que os riscos sao incorporados nas avaliacoes de custo e satisfacao do sistema a ser entregue. De modo a validar a proposta, alem de uma revisao sistematica comparando a literatura existente relacionada com o tema da abordagem proposta, o trabalho apresenta resultados de tres metaheuristicas distintas capazes de lidar com multiplos objetivos a serem otimizados. Estes algoritmos sao aplicados a duas bases de dados semi-reais que revelam a eficiencia e aplicabilidade potencial da abordagem proposta.
  • JOAO HENRIQUE GONCALVES CORREA
  • SHADE: UMA ESTRATÉGIA SELETIVA PARA MITIGAR ATAQUES DDOS NA CAMADA DE APLICAÇÃO EM REDES DEFINIDAS POR SOFTWARE
  • Data: 27/07/2017
  • Mostrar Resumo
  • O processo de evolucao dos computadores chegou a tal ponto que informacoes, antes dis- tantes, se encontram a um clique do usuario. Com o desenvolvimento da tecnologia, houve tambem a evolucao de mecanismos que atentam contra a seguranca da informacao, inclusive quanto a disponibilidade de uma determinada informacao. Os ataques de negacao de servico (DoS) ou sua forma distribuida (DDoS) estao entre os que mais impactam nos negocios, afetando a disponibilidade do servico. Ataques de negacao de servico na camada de aplicacao exploram caracteristicas existentes nos protocolos da referida camada (HTTP e SIP). Um grande desafio na mitigacao deste tipo de ataque e o fato que as requisicoes de atacantes tem igual validade a de clientes legitimos. Este trabalho propoe o uso de tecnicas de identificacao de assinaturas para a manutencao de listas brancas dinamicas, a fim de mitigar ataques de negacao de servico na camada de aplicacao. Essas assinaturas permitem a identificacao mais precisa de um usuario dentro de um fluxo de rede por meio da monitoracao de parametros, como sistema operacional, navegador, IP utilizados. A efetividade da tecnica foi demonstrada por meio de experimentos realizados na rede, em que sem o uso da tecnica, uma Aplicacao web so conseguiu atender 17% dos clientes durante um ataque Get- Flooding, enquanto que com a utilizacao da lista branca dinamica a disponibilidade subiu para mais de 99%.
  • JOSÉ DE SOUSA BARROS
  • Uma Ferramenta para Avaliar Estratégias de Voos de VANTs usando Cossimulação
  • Data: 26/04/2017
  • Mostrar Resumo
  • Sistemas que utilizam Veiculos Aereos Nao-Tripulados (VANT) sao exemplos tipicos de sistemas ciber-fisicos. Projetar tais sistemas nao e uma tarefa trivial porque traz consigo o desafio de lidar com a incerteza, que e algo inerente a este tipo de sistema. Por isso, e necessario que o projeto seja feito com ferramentas apropriadas que possam viabilizar a execucao desses sistemas com um certo nivel de confianca para seus usuarios. Deste modo, a proposta deste trabalho e unir dois simuladores, atraves do HLA, com o objetivo de simular e avaliar estrategias de voos mais proximas do ambiente de voo real. Para isso, foi construido um simulador onde e possivel realizar diversos planos de voo com a finalidade de analisar diferentes estrategias em um ambiente provido de incertezas. O simulador foi desenvolvido na ferramenta Ptolemy e integrado, atraves do HLA, com o simulador SITL/ArduPilot. Com a utilizacao da abordagem defendida neste trabalho e possivel obter resultados mais proximos da realidade, assim estrategias mais eficientes de voo podem ser desenvolvidas e avaliadas.
  • EDUARDO DE SANTANA MEDEIROS ALEXANDRE
  • Utilização de Markdown para elaboração de TCCs: experimento da ferramenta limarka
  • Data: 24/03/2017
  • Mostrar Resumo
  • O tema deste trabalho é a utilização de uma linguagem de marcação leve (Markdown) para elaboração de trabalhos de conclusão de curso em conformidade com as Normas da ABNT. Nele relata-se o desenvolvimento da ferramenta Limarka, que possibilitar escrita de TCC através de uma linguagem de marcação leve, e um experimento com dez alunos elaborando propostas de TCCs nela. A metodologia empregada foi experimento com entre- vistas semiestruturadas e análise qualitativa. Os objetivos da pesquisa são: implementar uma ferramenta que possibilite a escrita de TCCs em conformidade com as Normas da ABNT e avaliar sua utilização. Os principais resultados da pesquisa tiveram duas fontes: 1) Conhecimentos resultante do desenvolvimento da aplicação. São eles: Um TCC não deve ser produzido por ferramentas que utilizem o formato DocBook como intermediário; A comunidade abnTeX oferta uma ótima alternativa em Latex para produzir TCCs nacio- nais em conformidade com as Normas da ABNT; A utilização de um template baseado no modelo de TCC do abnTeX e a geração de códigos Latex a partir de Markdown possibilita a geração de trabalhos em conformidade com as Normas da ABNT. 2) Conhecimentos pro- venientes da análise do experimento. São eles: Para configuração do template, a utilização de um formulário PDF, em vez de código YAML, torna o processo de configuração mais fácil; A solução com escrita em Markdown apresentam equivalência de expressividade ao Latex, pois permite a inserção de seus códigos; Existe indícios de que os usuários acharão mais fácil aprender e utilizar Markdown do que Latex. A principal conclusão do trabalho indica que é possível utilizar uma linguagem de marcação leve (Markdown) para escrita de TCCs nacionais em conformidade com as Normas da ABNT. E sua utilização deve ser incentiva pois é expressivamente equivalente a Latex, porém é mais simples e fácil de ser utilizado.
  • DANIEL MIRANDA DE BRITO
  • Uma nova abordagem para a identificação de ilhas genômicas em bactérias com base no método de agrupamento mean shift
  • Data: 24/02/2017
  • Mostrar Resumo
  • Ilhas genomicas (IGs) sao regioes do genoma de bacterias adquiridas atraves do fenomeno da transferencia horizontal. Frequentemente, essas regioes proporcionam importantes adaptacoes as bacterias, como resistencia a antibioticos e patogenicidade, cujos efeitos podem ser danosos aos humanos. Por essa razao, diversas metodologias foram propostas para a sua predicao, porem nenhuma capaz de identificar o repertorio completo de ilhas presentes em uma determinada sequencia bacteriana. Portanto, torna-se oportuno o desenvolvimento de novos metodos que explorem diferentes aspectos dessas regioes, permitindo a identificacao das regioes ainda nao conhecidas. Nesse trabalho, propoe-se um novo metodo para a identificacao de IGs, construido com base no metodo de agrupamento mean shift, como calculo automatico da bandwidth, indispensavel para o seu funcionamento. Resultados dos testes com ilhas genomicas sinteticas mostram que o metodo e capaz de identificar essas regioes com taxas de acerto maiores que 99%. Testes realizados com genomas de bacterias com IGs conhecidas revelaram o potencial do metodo para a sua identificacao e tambem de ilhas ainda nao descobertas. O estudo detalhado do conteudo das novas ilhas e apontou a presenca de elementos tipicos de IGs, confirmando a eficacia do metodo na predicao dessas regioes.
  • EDUARDO DE SOUZA GAMA
  • Problema de atribuição de rota, comprimento de onda e bandas em redes ópticas metropolitanas MB-OFDM
  • Data: 23/02/2017
  • Mostrar Resumo
  • As redes opticas metropolitanas, que compoem o backbone de grande parte das redes de transporte ao redor do mundo, precisao estar em constante evolucao para suportar o forte crescimento do volume de dados da Era da comunicacao digital. O sinal WDM MBOFDM introduzido pela rede MORFEUS surge como candidata para fluir a demanda do trafego em uma proxima era. Contudo, existe uma serie de desafios na distribuicao do operacional dos recursos para que esse tipo de rede consiga operar de forma satisfatoria. Com este objetivo, e de fundamental importancia que a rede optica MORFEUS adote um algoritmo RWBA eficiente, responsaveis pela escolha adequada de recursos na rede para provisionar novas conexoes de forma a maximizar a probabilidade de atendimento das futuras conexoes. Dada uma requisicao de conexao, o algoritmo RWBA deve atribuir uma rota, um comprimento de onda e um conjunto de bandas capazes de atende-la. Cada no da rede e composto por componentes de extracao e insercao de banda MB-OFDM, chamados, respectivamente, de MEB (MORFEUS Extraction Block) e MIB (MORFEUS Insertion Block). Com isso um sinal WDM MB-OFDM pode ter banda(s) extraida e/ou inserida num no MORFEUS, ou ser direcionado para a fibra de saida sem alteracao. Com o intuito de otimizar o uso dos componentes MIB/MEB’s, bem como o numero total de comprimentos de onda na rede, este dissertacao propoe o uso de aspectos do projeto de topologia virtual em redes opticas no problema RWBA.
  • MARCILIO OLINTO DE OLIVEIRA LEMOS
  • Defesas Seletivas para Mitigar Ataques de Negação de Serviço às Aplicações de VoIP
  • Data: 20/02/2017
  • Mostrar Resumo
  • Assim como outros servicos baseados em redes IP, aplicacoes VoIP estao vulneraveis aos perigosos ataques distribuidos de negacao de servico (DDoS). Comumente, esses ataques eram efetuados enviando inumeras requisicoes a um servidor SIP (SIP flooding), de modo a sobrecarrega-lo. Embora bastante prejudiciais, tais ataques podem ser facilmente identificados por defesas que detectam mudancas abruptas no volume de trafego da rede. Ataques mais recentes, classificados como Low-Rate, conseguem sobrepujar essas defesas, atacando aplicacoes e gerando trafego bastante similar ao de clientes normais, tornando tais defesas ineficazes. Em uma nova forma de DDoS denominada Negacao de Servico de Telefonia (TDoS - Telephony Denial of Service), atacantes vem fazendo uso de chamadas maliciosas para impedir que clientes legitimos consigam receber ou realizar chamadas. Um exemplo de TDoS Low-Rate e o Coordinated Call Attack, onde atacantes simplesmente realizam chamadas entre si para esgotar os recursos do servidor VoIP alvo. Uma defesa seletiva eficiente contra ataques Low Rate que exploram o protocolo HTTP e a ferramenta SeVen. O presente trabalho demonstra que estrategias seletivas tambem podem ser usadas com sucesso para mitigar ataques TDoS, em particular, o Coordinated Call Attack. As contribuicoes deste trabalho sao de tres tipos: (1) Uma defesa seletiva adequada para aplicacoes VoIP; (2) A Formalizacao da defesa na ferramenta Maude e conducao de simulacoes usando um verificador estatistico de modelos (PVeStA); (4) Resultados experimentais mostram que sem defesa, menos de 41% dos usuarios conseguem acessar o servico VoIP alvo, enquanto que com a defesa seletiva, a disponibilidade fica em torno de 98%.
  • EDUARDO VIEIRA QUEIROGA
  • Abordagens meta-heurísticas para clusterização de dados e segmentação de imagens
  • Data: 17/02/2017
  • Mostrar Resumo
  • Muitos problemas computacionais sao considerados dificeis devido a sua natureza combinatoria. Para esses problemas, o uso de tecnicas de busca exaustiva para resolver instancias de medio e grande porte torna-se impraticavel. Quando modelados como problemas de otimizacao, alguns problemas de clusterizacao de dados e segmentacao de imagens pertencem a classe NP-Dificil e requerem um tratamento adequado por metodos heuristicos. Clusterizacao de dados e um vasto conjunto de problemas em reconhecimento de padroes e aprendizado de maquina nao-supervisionado, cujo objetivo e encontrar grupos (ou clusters) de objetos similares em uma base de dados, utilizando uma medida de similaridade preestabelecida. O problema de clusterizacao particional consiste em separar completamente os dados em conjuntos disjuntos e nao vazios. Para metodos de clusterizacao baseados em centros de cluster, minimizar a soma das distancias intracluster e um dos criterios mais utilizados. Para tratar este problema, e proposta uma abordagem baseada na meta-heuristica Continuous Greedy Randomized Adaptive Search Procedure (C-GRASP). Resultados de alta qualidade foram obtidos atraves de experimentos envolvendo o algoritmo proposto e outras meta-heuristicas da literatura. Em visao computacional, segmentacao de imagens e o processo de particionar uma imagem em regioes de interesse (conjuntos de pixels) sem que haja sobreposicao. Um dos tipos mais simples de segmentacao e a limiarizacao do histograma para imagens em nivel de cinza. O metodo de Otsu e um dos mais populares e propoe a busca pelos limiares que maximizam a variancia entre os segmentos. Para imagens com grande profundidade de cinza, tecnicas de busca exaustiva possuem alto custo computacional, uma vez que o numero de solucoes possiveis cresce exponencialmente com o aumento no numero de limiares. Dessa forma, as meta-heuristicas tem desempenhado um papel importante em encontrar limiares de boa qualidade. Neste trabalho, uma abordagem baseada em Quantum-behaved Particle Swarm Optimization (QPSO) foi investigada para limiarizacao multinivel de imagens disponiveis na literatura. Uma busca local baseada em Variable Neighborhood Descent (VND) foi proposta para acelerar a convergencia da busca pelos limiares. Alem disso, uma aplicacao especifica de segmentacao de imagens de microscopia eletronica para analise microestrutural de materiais cimenticios foi investigada, bem como a utilizacao de algoritmos em grafos para deteccao de trincas e extracao de caracteristicas de interesse.
  • ANDRÉ LUIZ FIGUEIRÊDO DE CASTRO
  • Uma Nova Abordagem para Identificação e Reconhecimento de Marcos Naturais utilizando Sensores RGB-D.
  • Data: 17/02/2017
  • Mostrar Resumo
  • Com o avanco na pesquisa de algoritmos de localizacao de robos moveis, a necessidade de identificacao e reconhecimento de pontos de referencia naturais aumentou. A deteccao de marcos naturais e uma tarefa desafiadora, porque a sua aparencia pode ser diferente em forma e design e, tambem, eles sofrem influencia da iluminacao do ambiente. Como um exemplo, um algoritmo de reconhecimento de objeto 2D tipico pode nao ser capaz de lidar com a grande variedade optica de portas e escadas em corredores grandes. Em outra direcao, as melhorias recentes em sensores 3D de baixo custo (do tipo RGB-D) permitem aos robos perceber o ambiente como uma estrutura espacial 3D. Assim, usando esta nova tecnologia, um algoritmo para identificacao e reconhecimento de marco natural baseado em imagens adquiridas a partir de uma camera RGB-D e proposto. Basicamente, durante a fase de identificacao que e um primeiro passo para trabalhar com marcos, o algoritmo explora o conhecimento estrutural basico sobre os pontos de referencia, extraindo suas bordas e criando uma nuvem de pontos de borda. No proxima, a fase de reconhecimento, as arestas sao usadas com um algoritmo de reconhecimento nao supervisionado proposto on-the-fly para demonstrar a eficacia da abordagem.
  • CARLOS EDUARDO SILVA MORAIS
  • Um Sistema Anti-colisão 3D baseado no método de Campo Potencial Artificial para um robô móvel
  • Data: 16/02/2017
  • Mostrar Resumo
  • Sistemas anti-colisao sao baseados na percepcao e estimacao da pose do robo movel (coordenadas e orientacao), em referencia ao ambiente em que ele se encontra. A deteccao de obstaculos, planejamento de caminhos e estimacao da pose sao fundamentais para assegurar a autonomia e a seguranca do robo, no intuito de reduzir o risco de colisao com objetos ou pessoas que dividem o mesmo espaco. Para isso, o uso de sensores RGB-Ds, tal como o Microsoft Kinect, vem se tornando popular nos ultimos anos, por ser sensores relativamente precisos e de baixo custo. Nesse trabalho nos propomos um novo algoritmo anti-colisao 3D baseado no metodo de Campo Potencial Artificial, que e capaz de fazer um robo movel passar em espacos estreitos, entre obstaculos, minimizando as oscilacoes, que e uma caracteristica comum desse tipo de metodo, durante seu deslocamento. Foi desenvolvido um sistema para plataforma robotica 'Turtlebot 2', o qual foi utilizado para realizar todos os experimentos.
  • EDISON LUIZ BONOTTO
  • Otimização por Nuvem de Partículas e Busca Tabu para o Problema da Diversidade Máxima
  • Data: 31/01/2017
  • Mostrar Resumo
  • O Problema da Diversidade Maxima (MDP) e um problema da area de Otimizacao Combinatoria que tem por objetivo selecionar um numero pre-estabelecido de elementos de um dado conjunto de maneira tal que a soma das diversidades entre os elementos selecionados seja a maior possivel. O MDP pertence a classe de problemas NP-dificil, isto e, nao existe algoritmo conhecido que o resolva de forma exata em tempo polinomial. Por apresentarem uma complexidade de ordem exponencial, exigem heuristicas eficientes que fornecam resultados satisfatorios em tempos aceitaveis.Entretanto, as heuristicas nao garantem a melhor solucao. A abordagem Otimizacao por Nuvem de Particulas (PSO) simula o comportamento de um bando de passaros em voo com seu movimento localmente aleatorio, mas globalmente determinado, para encontrar maximos locais. No PSO, cada particula inicia um voo aleatorio e a cada iteracao o voo e ajustado de acordo com a sua propria experiencia e da experiencia de todas as outras particulas. Ja, a meta-heuristica Busca Tabu (TS) e um procedimento adaptativo auxiliar que utiliza uma estrutura de memoria para armazenar as solucoes geradas, ou caracteristicas destas, e guiar um algoritmo de busca local na exploracao continua dentro de um espaco de busca. A partir de uma solucao inicial, move-sede uma solucao para outra vizinha, ate que se satisfaca um determinado criterio deparada. Este trabalho propoe uma nova abordagem para a resolucao do Problema da Diversidade Maxima e esta baseada nas meta-heuristicas de Otimizacao por Nuvem de Particulas e Busca Tabu. Para a geracao das particulas iniciais utilizadas pelo PSO implementaremos uma heuristica de construcao gulosa e outra aleatoria. O algoritmo foi denominado PSO_TS. Para a validacao do metodo, os resultados encontrados sao comparados com os melhores existentes na literatura.
  • VIVIANO DE SOUSA MEDEIROS
  • Sistema Embarcado para Teste de Veículos Aéreos não Tripulados em Ambientes Controlados
  • Orientador : ALISSON VASCONCELOS DE BRITO
  • Data: 27/01/2017
  • Mostrar Resumo
  • Este trabalho propoe o desenvolvimento de um sistema embarcado compativel com a qualquer Veiculo Aereo Nao Tripulado (VANT) controlado remotamente por radio, que e capaz de realizar o controle de um VANT, possibilitando a realizacao de um voo autonomo em ambiente controlado, e monitorar e armazenar todos os dados de voo para posterior recuperacao e analise. Isto permite identificar padroes de comportamento estavel de um veiculo, identificar e quantificar ocorrencias de instabilidade e mensurar a estabilidade de voo de um VANT por meio do monitoramento e analise das suas informacoes do estado, pois permitem verificar se um veiculo apresenta comportamento compativel ou nao com esse padrao de comportamento estavel. A solucao proposta permite a replicacao de experimentos para realizar a caracterizacao de VANTs. Nas experiencias realizadas, o veiculo foi controlado utilizando os canais de radio e todos os dados de voo foram armazenados. Os disturbios foram adicionados ao veiculo durante os testes e o sistema foi capaz de detecta-los. Os resultados obtidos na presente pesquisa confirmam que e possivel identificar esse padrao de comportamento, bem como avaliar a ocorrencia de disturbios em voos que resultaram fugas a esse padrao, e diante de acidentes envolvendo VANTs, os dados armazenados do estado do veiculo podem serem usados para ajudar a elucidar as causas.
2016
Descrição
  • IRON ARAÚJO DE ALMEIDA JÚNIOR
  • Uma Nova Abordagem de Casamento de Impressões Digitais
  • Data: 12/12/2016
  • Mostrar Resumo
  • O reconhecimento de individuos por meio de informacoes biometricas tem sido cada vez mais adotado nas mais diversas aplicacoes. Uma das razoes para essa escolha fundamenta-se nas informacoes biometricas serem mais dificeis de adulterar, compartilhar ou extraviar do que outros metodos de identificacao. Varias caracteristicas de individuos, fisicas e comportamentais, podem ser utilizadas em um sistema biometrico, como a impressao digital, face, voz e iris. Diversos trabalhos tem explorado esses tracos produzindo mecanismos de reconhecimento cada vez mais seguros e precisos, mas nenhum e imune a falhas e ainda ha muito o que evoluir. A impressao digital tem se mostrado um traco biometrico bastante eficaz, uma vez que sua alta precisao e seu baixo custo tornam os sistemas mais acessiveis e com resultados satisfatorios. No entanto, o reconhecimento por impressao digital ainda e um problema em aberto, visto que esses algoritmos ainda apresentam erros em sua execucao de falsa aceitacao e falsa rejeicao. Este trabalho apresenta uma nova abordagem de casamento de impressoes digitais que e uma etapa importante do processo de identificacao atraves desse traco biometrico. Diversas abordagens de comparacao entre as impressoes digitais sao aplicadas com o objetivo de aumentar a confiabilidade do metodo proposto. Para ajuste de parametros foram utilizados os Algoritmos Bioinspirados: Algoritmos Geneticos e Enxame de Particulas. A validacao deste metodo se fez atraves da avaliacao da Taxa de Erro Igual nos bancos de dados do projeto Fingerprint Verification Competition e do projeto BioPass-UFPB, totalizando seis bancos de dados. Resultados iniciais apresentaram taxas de acerto media acima de 95%, obtendo ganhos consideraveis com a juncao das diversas abordagens empregadas e otimizacoes chegando a taxas de acerto de ate 99,8%.
  • EDVIGES DE FATIMA CHAVES DE LIMA
  • Proposta de Estratégias de Colaboração em Pequenos Grupos para Plataformas de Aprendizagem a Distância
  • Orientador : CLAUIRTON DE ALBUQUERQUE SIEBRA
  • Data: 31/08/2016
  • Mostrar Resumo
  • A Educacao a Distancia (EaD) vem como uma alternativa para suprir a necessidade de estudantes que almejam uma formacao superior, mas vivem nas regioes mais distantes e nao tem condicoes de se deslocar para as capitais ou grandes centros, sejam por condicoes de tempo e/ou dinheiro. De fato, varios governos estao usando a EaD como uma forma de socializar a educacao atraves do desenvolvimento de centros comunitarios de educacao em partes remotas de seus paises. Por outro lado, numa faixa de quatro/cinco anos, a taxa relativa de estudantes egressos na modalidade de ensino a distancia (saida / entrada) esta em torno de 30%. Infelizmente, essas altas taxas de evasao e retencao mostram que o uso da EaD em paises, como o Brasil, esta longe dos resultados esperados. Esta realidade esta motivando varios esforcos para a analise e solucoes para este problema. O presente trabalho baseia-se na premissa de que as atividades de aprendizagem colaborativa, principalmente quando realizados em pequenos grupos e apoiados por elementos que promovam a colaboracao, tem efeitos positivos, aumentando a capacidade de aquisicao de conhecimento dos estudantes, reduzindo custos e promovendo alternativas para solucionar o problema de retencao em disciplinas. Assim, apos buscar o entendimento sobre teorias/metodos colaborativos, foram definidas tres estrategias que possam ajudar a solucionar essa realidade. A partir de alguns testes de validacao com participantes, foi mensurado se as estrategias aplicadas se mostraram efetivas. Os resultados apontaram que as estrategias de colaboracao poderao ser aplicadas em um recurso computacional de modo a incentivar a colaboracao entre os participantes.
  • ALANNA CAMYLLA COÊLHO MONTEIRO
  • CONJUNTO DE DIRETRIZES DE GAMIFICAÇÃO PARA O ENSINO EM AMBIENTES VIRTUAIS DE APRENDIZAGEM
  • Data: 31/08/2016
  • Mostrar Resumo
  • Gamificacao e a utilizacao de elementos de jogos em cenarios que nao sao jogos. Por ser uma tecnica recente e que tem crescido nos ultimos cinco anos, surge a necessidade de se definir um conjunto de diretrizes que apoiem o processo de ensino com o auxilio da gamificacao. Em virtude disso, esse trabalho apresenta uma pesquisa onde se propoe identificar praticas gamificadas no ensino, formando assim um guia de desenvolvimento das melhores praticas da gamificacao tendo como base seu uso em ambientes virtuais de aprendizagem. Esta pesquisa esta dividida em quatro etapas. Sendo a primeira um mapeamento sistematico para aprofundamento em Gamificacao. A segunda etapa uma pesquisa de campo para conhecer conhecer as reais necessidades dos professores que utilizam a gamificacao no ensino. A terceira etapa um mapeamento sistematico para conhecer trabalhos que tenham a proposta de guiar aplicacoes educacionais e identificar boas praticas para uso da gamificacao. Por fim, a quarta etapa avalia o guia elaborado. O resultado desta pesquisa foi a criacao de uma guia voltado para gamificacao em ambiente virtual de aprendizagem, intitulado de GamiGuiando. Contribuindo para professores/instrutores que queiram aplicar a gamificacao no seu processo de ensino.
  • DIEGO LOPES MARQUES DA SILVA
  • Um Modelo de Jogador Baseado em Estilos de Aprendizagem para Promover Feedback Adaptativo aos Jogadores
  • Data: 31/08/2016
  • Mostrar Resumo
  • Cada individuo possui um perfil diferente que influencia na forma de como ele organiza e processa informacao. Esse perfil pode ser descrito como estilo de aprendizagem onde cada pessoa aprende um determinado assunto ou conteudo de acordo com suas diferencas individuais, contribuindo assim para a construcao do processo de ensino/aprendizagem. Alem disso, tem sido utilizados e reconhecidos como sendo um fator humano importante, e que afeta diretamente o desempenho de aprendizagem de cada aluno. Esse e um dos motivos pelo qual os jogos educativos podem ser tao poderosos no que diz respeito ao processo de ensino/aprendizagem, uma vez que os alunos podem aprender brincando e consequentemente unindo a isso a adaptacao do jogo de acordo com o seu perfil potencializando a aprendizagem. Pesquisas na area da educacao sugerem o uso de jogos no processo de ensino/aprendizagem, pois podem engajar o estudante reforcando conceitos atraves da pratica, favorecendo o desenvolvimento da logica, da analise, da estrategia, e ate da memoria do jogador. Contudo, o potencial desses jogos nem sempre e aproveitado da melhor maneira, como, por exemplo, a partir da disponibilizacao de feedbacks que fornecem suporte no processo de educacao e de motivacao, alem de ser uma caracteristica importante de jogos educativos. Ademais, tem como objetivo aumentar o esforco, o desempenho e a motivacao do aluno, fornecendo a eles informacao util e imediata sobre seu desempenho. De maneira geral, este trabalho apresenta resultados de uma pesquisa que tem como finalidade descrever um modelo baseado em estilos de aprendizagem, a fim de ser utilizado em jogos educativos e, a partir dele, promover feedback adaptativo ao estilo de cada usuario. Este modelo foi implementado em um jogo educativo no estilo perguntas e respostas, denominado MyQuimica, que visa apoiar no processo de ensino/aprendizagem de quimica. Mais precisamente, o jogo procura auxiliar no aprendizado das nomenclaturas quimicas e ajudar na familiarizacao dos alunos com a tabela periodica. Os testes foram realizados com um total de 65 alunos de escolas publicas de Joao Pessoa, do 1º e 2º anos do Ensino Medio.
  • JOSÉ GOMES QUARESMA FILHO
  • Uma Abordagem SDWN para o Gereciamento do Processo de Handoff nas Redes WiFi
  • Data: 31/08/2016
  • Mostrar Resumo
  • O desempenho do handoff nas redes WiFi e fator preponderante para o uso de aplicacoes multimidias quando os usuarios estao em movimento. Normalmente o processo de handoff e iniciado pelas estacoes, que ao se desconectarem de um Access Point (AP) iniciam uma varredura nos canais existentes buscando outros APs disponiveis. Este processo acontece de forma suave, porem na ordem de segundos, o que inviabiliza o uso de aplicacoes em tempo real. Assim sendo, e necessario a criacao de mecanismos mais eficientes para gerenciar este processo provendo a Qualidade de Servico (QoS) necessaria para as aplicacoes. Este trabalho apresenta uma proposta para melhorar o desempenho do processo de handoff utilizando uma abordagem baseada em Software Defined Wireless Network (SDWN) em redes WLAN.
  • FRANCISCO DE ASSIS SIQUEIRA JÚNIOR
  • Seleção de Sensores em Redes de Sensores Sem Fio Heterogêneas para Cidades Inteligentes
  • Data: 30/08/2016
  • Mostrar Resumo
  • Apesar de ser uma tecnologia ja consolidada, pesquisas em Redes de Sensores Sem Fio (RSSFs) vem passando por desafios devido a sua intrinseca relacao com os paradigmas de Cidades Inteligentes e Internet das Coisas (Internet of Things - IoT). Tradicionalmente, as RSSFs sao implantadas e utilizadas para atender a uma unica aplicacao e sao compostas por sensores com as mesmas caracteristicas fisicas. Contudo, ao se considerar ambientes inteligentes, onde varios objetos podem coletar dados, desencadear acoes e interagir entre si de forma a prover servicos sofisticados, e facil perceber a heterogeneidade dos tipos de aplicacoes que podem realizar requisicoes em tais ambientes. Alem disso, e real a possibilidade de interacao entre diferentes tipos de equipamentos, como por exemplo, sensores com diferentes caracteristicas fisicas, criando assim uma RSSF Heterogenea (RSSFH). Por este motivo, este trabalho objetiva contribuir para a gerencia de RSSFHs em ambientes de Cidades Inteligentes ao propor uma abordagem para selecao dinamica e sob-demanda de sensores, levando em consideracao as caracteristicas fisicas dos sensores e as demandas das aplicacoes requisitantes. Esta abordagem foi utilizada no framework POlicy-based Sensor SElection in Heterogeneous Wireless Sensor Network (POSSE-HWSN), o qual foi implementado para validar a proposta. Testes realizados demonstram que atraves da utilizacao de POSSE-HWSN foi possivel escolher os sensores com os recursos de hardware mais adequados para atender a cada aplicacao, melhorando assim a eficacia da selecao.
  • OZONIAS DE OLIVEIRA BRITO JÚNIOR
  • Abordagens para avaliação de software educativo e sua coerência com os modelos de qualidade de software
  • Data: 26/08/2016
  • Mostrar Resumo
  • Abordagens para avaliacao de software educativo e sua coerencia com os modelos de qualidade de software
  • FELIPE OLIVEIRA MIRANDA CUNHA
  • Uma Estratégia Baseada em Perfis para Suporte à Formação de Grupos de Aprendizagem em EAD
  • Data: 25/08/2016
  • Mostrar Resumo
  • A procura por estrategias de ensino e de aprendizagem que promovam e fortalecam a colaboracao na Educacao a Distancia tem sido tema de crescente destaque na literatura. Pesquisas tem investigado abordagens de formacao de grupos para a aprendizagem colaborativa a distancia, o que tem permitido a comunidade cientifico-academica experimentar diferentes maneiras de atribuir estudantes em grupos. Entretanto, a literatura pouco tem se dedicado a investigar as contribuicoes de tutores da Educacao a Distancia para formacao de grupos. Alem disso, definir uma abordagem de formacao de grupos de forma a garantir que a maioria das preferencias seja atendida nao e uma tarefa pedagogicamente facil, pois as caracteristicas e as necessidades de cada turma podem variar. Diante desse contexto, este trabalho objetiva definir uma abordagem baseada em perfis de grupos, especificados a partir de preferencias de tutores a distancia, para apoiar o processo de formacao de grupos de aprendizagem. Realizou-se estudo de revisao sistematica na literatura para identificar as melhores praticas em abordagens para formacao de grupos. Investigou-se o perfil e as preferencias dos tutores do curso de Licenciatura em Computacao da Universidade Federal da Paraiba. Especificou-se perfis de grupos para posterior experimento em agrupamento homogeneo por Polo, agrupamento heterogeneo e complementar por habilidades em programacao a partir da modelagem matematica e implementacao de algoritmo de agrupamento. Realizou-se, por fim, estudo de caso com grupos de estudantes para avaliar a abordagem proposta e analisar o desempenho deles em atividade colaborativa a distancia. Os resultados evidenciam que as preferencias de tutores a distancia permitiram a definicao de uma abordagem de formacao de grupos coerente ao contexto do dominio do presente estudo. O agrupamento permitiu criar grupos homogeneos, heterogeneos e complementares a partir de dados educacionais da plataforma Moodle. Foi aplicada a estrategia de restricao de tamanho sobre uma particao resultante do algoritmo K-medias, possibilitando formar grupos homogeneos de tamanhos uniformes. Verificou-se um aumento no desempenho em 65,6% dos estudantes em atividade em grupo, quando comparado ao desempenho em atividade individual.
  • ITALO RAPHAEL AMADOR RESENDE
  • Uma Proposta para Alavancagem do Sensoriamento Urbano Preliminar Usando Coletores de Dados
  • Data: 23/08/2016
  • Mostrar Resumo
  • Este estudo sugere o uso de uma abordagem mais pragmatica para a aplicacao do sensoriamento urbano, contribuindo com uma oferta inicial de bases de dados abertos no que diz respeito ao contexto de cidades inteligentes. As abordagens atualmente utilizadas para a instrumentacao das cidades normalmente se baseiam em sensores fixos e apresentam desafios referentes a energizacao, seguranca, manutencao, comunicacao dos sensores com altos custos envolvidos nos projetos, Para tanto, visando a diminuicao da complexidade e dos custos observados nos modelos atuais, propomos a utilizacao de agentes de mobilidade ja existentes (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Para tanto, visando a diminuicao da complexidade e de custos observados nos modelos atuais, propomos a utilizacao de um agente de mobilidade ja existente (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Acreditamos que esta estrategia possa ajudar a superar alguns dos obstaculos existentes e permitir um sensoriamento preliminar das cidades de forma mais acessivel. Para avaliar a viabilidade da abordagem proposta, uma serie de experimentos foi conduzida utilizando-se microestacoes meteorologicas posicionadas de forma estatica e tambem em movimento. Uma das frentes de avaliacao foi comparar a variacao das medias de grandezas fisicas obtidas atraves de leituras frequentes versus leituras mais esporadicas, coletadas por sensores estacionarios. Em seguida, os resultados obtidos foram comparadas com amostras coletadas de forma movel com a utilizacao de agentes de mobilidade equipados com sensores e atuando como coletores de dados urbanos. Os resultados apontam que a abordagem e bastante promissora e pode ser usada de forma combinada com estrategias tradicionais, como por exemplo na deteccao inicial de ilhas de calor, poluicao ou congestionamentos que podem ser, posteriormente, monitoradas com equipamentos de maior precisao.
  • ITALO RAPHAEL AMADOR RESENDE
  • Uma Proposta para Alavancagem do Sensoriamento Urbano Preliminar Usando Coletores de Dados
  • Data: 23/08/2016
  • Mostrar Resumo
  • Este estudo sugere o uso de uma abordagem mais pragmatica para a aplicacao do sensoriamento urbano, contribuindo com uma oferta inicial de bases de dados abertos no que diz respeito ao contexto de cidades inteligentes. As abordagens atualmente utilizadas para a instrumentacao das cidades normalmente se baseiam em sensores fixos e apresentam desafios referentes a energizacao, seguranca, manutencao, comunicacao dos sensores com altos custos envolvidos nos projetos, Para tanto, visando a diminuicao da complexidade e dos custos observados nos modelos atuais, propomos a utilizacao de agentes de mobilidade ja existentes (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Para tanto, visando a diminuicao da complexidade e de custos observados nos modelos atuais, propomos a utilizacao de um agente de mobilidade ja existente (como onibus metropolitanos, por exemplo) para proporcionar mobilidade a sensores tradicionais. Acreditamos que esta estrategia possa ajudar a superar alguns dos obstaculos existentes e permitir um sensoriamento preliminar das cidades de forma mais acessivel. Para avaliar a viabilidade da abordagem proposta, uma serie de experimentos foi conduzida utilizando-se microestacoes meteorologicas posicionadas de forma estatica e tambem em movimento. Uma das frentes de avaliacao foi comparar a variacao das medias de grandezas fisicas obtidas atraves de leituras frequentes versus leituras mais esporadicas, coletadas por sensores estacionarios. Em seguida, os resultados obtidos foram comparadas com amostras coletadas de forma movel com a utilizacao de agentes de mobilidade equipados com sensores e atuando como coletores de dados urbanos. Os resultados apontam que a abordagem e bastante promissora e pode ser usada de forma combinada com estrategias tradicionais, como por exemplo na deteccao inicial de ilhas de calor, poluicao ou congestionamentos que podem ser, posteriormente, monitoradas com equipamentos de maior precisao.
  • ALYSSON ALVES DE LIMA
  • SELEÇÃO AUTOMATIZADA DE SERVIÇOS WEB BASEADA EM MÉTRICAS FUNCIONAIS E ESTRUTURAIS
  • Data: 23/08/2016
  • Mostrar Resumo
  • Engenharia de Software e uma disciplina que engloba todos os aspectos da producao de um sistema de software, incluindo desde os estagios iniciais da especificacao do sistema ate sua manutencao, quando o sistema ja esta sendo utilizado. Uma area de estudo bastante interessante da Engenharia de Software e o reuso de software, que impacta positivamente na reducao do tempo, dos custos e dos riscos provenientes de um processo de desenvolvimento de software. Portanto, e possivel afirmar que o reuso de software melhora, nao apenas o processo de desenvolvimento de software, mas tambem o proprio produto. Uma das principais abordagens de reuso de software e o desenvolvimento orientado a servicos, que adota o paradigma de Arquitetura Orientada a Servicos (SOA – Service Oriented Architecture). No paradigma SOA, servicos representam uma evolucao natural do desenvolvimento baseado em componentes, e, portanto, podem ser definidos como componentes de software de baixo acoplamento, reusaveis, que encapsulam funcionalidades discretas, que podem ser distribuidos e acessados remotamente de forma programatica. E importante destacar que, enquanto SOA e um paradigma arquitetural para desenvolvimento de sistemas de software, Servicos Web (Web Services) representam a tecnologia existente mais amplamente adotada para implementar SOA explorando protocolos baseados em padroes internet e em XML. Com o crescimento do mercado e utilizacao dos servicos web, a tendencia e sempre aumentar o numero de servicos disponiveis para montagem de aplicacoes em diferentes contextos, tornando impraticavel a tarefa de selecionar de forma manual os servicos requeridos para compor um sistema de software. Consequentemente, e possivel afirmar que o esforco necessario para selecionar os servicos requeridos tende a aumentar cada vez mais, gerando um problema com um grande e complexo espaco de busca, tornando necessaria a automatizacao do processo de selecao baseada em tecnicas de busca metaheuristica. Neste contexto, o trabalho proposto visa automatizar o processo de selecao de servicos web utilizando tecnicas da Engenharia de Software Baseada em Buscas, cuja estrategia de selecao e orientada por metricas funcionais e estruturais, que tem o proposito de avaliar a similaridade entre as especificacoes e as respectivas implementacoes dos servicos candidatos, bem como as suas dependencias, reduzindo assim o esforco de adaptacao e integracao de servicos web desenvolvidos por fornecedores distintos.
  • MARIA JANE DE QUEIROZ
  • UMA ONTOLOGIA PARA PRESERVAÇÃO DE PRIVACIDADE NA PUBLICAÇÃO DE DADOS DO SETOR PÚBLICO
  • Data: 28/07/2016
  • Mostrar Resumo
  • Com o objetivo de combater a corrupcao e ampliar a participacao popular nas decisoes governamentais, paises – dentre eles, o Brasil – tem aderido ao movimento Governo Aberto, disponibilizando informacoes relativas a administracao publica, em formato aberto, em sitios na Internet. Essa forma de abertura de dados motiva questionamentos com relacao ao tratamento dispensado aos dados pessoais dos cidadaos. Modelos e tecnicas de preservacao de privacidade existentes podem ser aplicados para dificultar a violacao da privacidade individual por descobertas feitas em bases de dados. No entanto, atualmente as bases de dados sao anonimizadas de forma ineficaz, como e o caso dos microdados do Censo da Educacao Superior brasileira (referente ao ano de 2013), analisados em um estudo de caso apresentado neste trabalho. Tal analise possibilitou a identificacao unica de uma docente, indicando a vulnerabilidade a qual essa base de dados esta exposta. Com os objetivos de representar metodos de anonimizacao sistematica; padronizar opcoes de publicacao; unificar semanticamente os conceitos referenciados por diferentes termos; auxiliar a aplicacao de metodos sistematicos de anonimizacao por pessoas sem expertise na area e possibilitar a interoperabilidade de configuracoes entre ferramentas diferentes, optou-se pela criacao de uma ontologia denominada Ontologia para Publicacao de Dados com Preservacao de Privacidade. Apos seu desenvolvimento, esta ontologia foi utilizada para prover sugestoes de metodos para a anonimizacao dos microdados do Censo da Educacao Superior. Tais sugestoes foram utilizadas em uma ferramenta de anonimizacao existente (chamada ARX) e os microdados foram anonimizados, comprovando a eficacia da aplicacao dos metodos sistematicos de anonimizacao sugeridos para dificultar novas descobertas a partir dos dados anonimizados.
  • KATYANNE FARIAS DE ARAUJO
  • Formulações matemáticas para o problema de sequenciamento de lotes com penalidades por atraso
  • Data: 04/07/2016
  • Mostrar Resumo
  • Esta dissertacao trata do problema de sequenciamento de lotes da producao em uma maquina com penalidades por atraso. Trata-se de um problema NP-dificil, em que cada tarefa esta associada a um tempo de processamento, uma data de liberacao, uma data de entrega, um tamanho e um nivel de prioridade. O objetivo e determinar o agrupamento de tarefas em lotes e a sequencia que minimize o total de atrasos ponderados, onde o atraso de uma tarefa e dado pelo seu tempo de termino menos o seu prazo de entrega, caso o processamento da tarefa seja finalizado apos sua data de entrega, e e igual a zero, caso contrario. Este problema pode ser referenciado como $1|batch, r_j, s_j, compt|\sum w_jT_j$. Quando todas as tarefas estao disponiveis para serem processadas no instante de tempo zero, o problema e usualmente representado por $1|batch, r_j, compt|\sum w_jT_j$. Estes sao problemas ainda pouco investigados na literatura, alem de abordar uma grande quantidade de variantes. Existem poucos trabalhos envolvendo a aplicacao de metodos exatos para a resolucao de ambos. Apenas uma formulacao matematica foi identificada na literatura para estes problemas. Dessa forma, quatro formulacoes matematicas com variaveis indexadas no tempo foram desenvolvidas para resolver os problemas mencionados anteriormente, onde uma delas e capaz de tratar de ambos os problemas. Os resultados alcancados por meio dos modelos desenvolvidos foram comparados com os resultados do modelo disponivel na literatura. Tais resultados computacionais demonstram que dois dos modelos propostos obtiveram desempenho superior tanto em termos de qualidade da solucao, em especial em relacao aos limites inferiores alcancados, quanto em numeros de nos abertos e quantidade de solucoes otimas comprovadas.
  • ANIELTON JOSE DO NASCIMENTO
  • Uso do Processo de Avaliação Mútua aliado a Conceitos de Gamificação como suporte ao Estudo Colaborativo em Ambientes de EaD
  • Data: 27/06/2016
  • Mostrar Resumo
  • Um dos problemas da educacao a distancia e a falta de comunicacao e colaboracao entre os alunos, o que e causado pricipalmente pela distancia fisica entre eles. Pesquisas em educacao mostram que a colaboracao entre alunos, onde eles se ajudam no entendimento do conteudo educacional, e uma das partes fundamentais do processo de aprendizagem. Ambientes virtuais de aprendizagem, como o Moodle, disponibilizam algums recursos como Foruns e Chats para suporte a colaboracao. Porem, tais recursos sao insuficientes para motivar tal colaboracao. Este e outros fatores tem causado um grande indice de retencao e evasao nos cursos a distancia, uma vez que os estudantes nao conseguem se adaptar as caracteristicas desta modalidade de ensino. Este trabalho utiliza conceitos de avaliacao mutua, integrados a elementos de gamificacao, como forma de motivar a colaboracao de estudantes em pequenos grupos de estudo. De fato, a literatura indica que processos colaborativos sao mais eficientes em grupos compostos por 4 ou 5 estudantes. Uma das principais contribuicoes do trabalho e o desenvolvimento de um processo de avaliacao mutua automatico, o qual pode ser integrado ao processo de avaliacao mutua feita pelos alunos, de modo que os resultados das avaliacoes sejam mais confiaveis. A validacao da proposta foi feita com turmas do curso de Graduacao em Computacao da UFPB virtual. Os resultados mostram que, alem de garantir uma maior seguranca no processo de avaliacao, tambem e possivel verificar grandes dispcrepancias neste processo, assim como gerar diferentes formas de comparacao entre o desempenho de alunos e grupos de alunos, considerando diferentes atributos propostos neste trabalho.
  • LUCAS MARQUES DA CUNHA
  • RECONHECIMENTO DE ADULTERAÇÕES EM IMAGENS DIGITAIS: UMA ABORDAGEM PASSIVA
  • Data: 22/06/2016
  • Mostrar Resumo
  • A criacao e comercializacao de softwares de edicao de imagens permitiu que pessoas leigas pudessem realizar qualquer tipo de manipulacao em imagens digitais. Em um cenario judicial em que autenticidade e integridade dos dados sao cruciais, ha necessidade de tecnicas que permitam promover tais atributos. A analise forense em imagens digitais busca atraves de metodos cientificos computacionais, como a analise do sensor do dispositivo e artefatos JPEG, reconhecer a presenca ou ausencia desses atributos. O presente trabalho apresenta uma Abordagem Passiva para o Reconhecimento de adulteracoes em imagens digitais com e sem compressao JPEG utilizando duas abordagens. A primeira abordagem baseia-se na tecnica de analise da vizinhanca-4 de um pixel que pode ser classificado como interpolado ou nao interpolado. A partir dessa analise obtem-se as informacoes sobre o padrao CFA (Color Filter Array) de modo a investigar a autenticidade e integridade de imagens com baixa ou nenhuma compressao de acordo com a classificacao incorreta dos pixels. A segunda abordagem baseiase na Analise da Inconsistencia do BAG (Block Artifact Grid) de imagens com alta compressao gerado a partir de tecnicas de adulteracao, tais como composicao e clonagem. O BAG da imagem trata-se da demarcacao dos blocos JPEG. Alem disso, foram definidas tecnicas de segmentacao para localizacao precisa da regiao adulterada. O metodo seleciona uma das abordagens a partir do valor da taxa de compressao da imagem. A analise dos resultados e feita a partir dos valores de acuracia, sensibilidade, especificidade e precisao. As taxas de acuracia variaram de 85,1% a 95,4% e com taxas de precisao entre 41,7% a 74,3%. Para as taxas de sensibilidade obteve-se valores entre 32,3% a 82,2% e para especificidade valores entre 85,9% a 99,2% para uma base de dados composta por 960 imagens interpoladas por algoritmos distintos e adulteradas por tecnicas de composicao e clonagem. Os metodos descritos na literatura apresentam um escopo limitado referente aos formatos das imagens que foram testadas e ao modo como aferem a eficiencia de suas tecnicas. A abordagem proposta neste trabalho distingue-se dessas tecnicas apresentando um escopo com maior abragencia nos quesitos mencionados, englobando imagens com e sem compressao, alem de aferir a eficiencia a partir de metricas capazes de comprovar as hipoteses levantadas ao longo da pesquisa.
  • FÁBIO CRUZ BARBOSA DE ALBUQUERQUE
  • Uma abordagem heurística para um problema de rebalanceamento estático em sistemas de compartilhamento de bicicletas.
  • Data: 20/05/2016
  • Mostrar Resumo
  • O problema do rebalanceamento estatico de bicicletas (static bike rebalancing problem, SBRP) e um recente problema motivado pela tarefa de reposicionar bicicletas entre estacoes em um sistema self-service de compartilhamento de bicicletas. Este problema pode ser visto como uma variante do problema do roteamento de veiculos com coleta e entrega de um unico tipo de produto, onde realizar multiplas visitas a cada estacao e permitido, i.e., a demanda da estacao pode ser fracionada. Alem disso, um veiculo pode descarregar sua carga temporariamente em uma estacao, deixando-a em excesso, ou, de maneira analoga, coletar mais bicicletas de uma estacao (ate mesmo todas elas), deixando-a em falta. Em ambos os casos sao necessarias visitas adicionais para satisfazer as demandas reais de cada estacao. Este trabalho lida com um caso particular do SBRP, em que apenas um veiculo esta disponivel e o objetivo e encontrar uma rota de custo minimo que satisfaca as demandas de todas as estacoes e nao viole os limites de carga minimo (zero) e maximo (capacidade do veiculo) durante a rota. Portanto, o numero de bicicletas a serem coletadas ou entregues em cada estacao deve ser determinado apropriadamente a respeitar tais restricoes. Trata-se de um problema NP-Dificil uma vez que contem outros problemas da mesma classe como casos particulares, logo, o uso de metodos exatos para resolve-lo e intratavel para instancias maiores. Diversos metodos foram propostos por outros autores, fornecendo valores otimos para instancias pequenas e medias, no entanto, nenhum trabalho resolveu de maneira consistente instancias com mais de 60 estacoes. O algoritmo proposto para resolver o problema e baseado na meta-heuristica iterated local search (ILS) combinada com o procedimento de busca local de descida em vizinhanca variavel com ordenacao aleatoria (variable neighborhood descent with random neighborhood ordering, RVND). O algoritmo foi testado em 980 instancias de referencia na literatura e os resultados obtidos sao bastante competitivos quando comparados com outros metodos existentes. Alem disso, o metodo foi capaz de encontrar a maioria das solucoes otimas conhecidas e tambem melhorar os resultados em um numero de instancias abertas.
  • SIDNEY PATRÉZIO REINALDO CAMPOS
  • EducaDRC: Referatório Semântico de Objetos de Aprendizagem sobre a Doença Renal Crônica Direcionado para Profissionais de Atenção Primária à Saúde
  • Data: 29/02/2016
  • Mostrar Resumo
  • A problematização resultante da falta de monitoramento dos indicadores da Doença Renal Crônica (DRC) por parte de profissionais de Atenção Primária à Saúde (APS) lançou um alerta para a necessidade de criação de ações educativas capazes de inseri-los no tratamento da DRC, motivando esta pesquisa para o desenvolvimento de um referatório semântico de objetos de aprendizagem relacionados à doença renal crônica, o EducaDRC. Um referatório é responsável por fornecer acesso a informações (metadados) que descrevem recursos disponíveis na Web e, consequentemente, aponta para os repositórios que detêm estes recursos. Direcionado para profissionais de APS, o principal objetivo do EducaDRC é facilitar e promover o acesso à informação relacionada à DRC. Considerando este aspecto, fez-se necessária a modelagem semântica deste tipo de informação a partir da representação de um subdomínio da Doença Renal Crônica em uma ontologia com a finalidade de facilitar o processo automático por máquina. Além disso, com o objetivo de facilitar e promover o acesso a recursos digitais orientados para aprendizagem, também conhecidos como objetos de aprendizagem, que têm conteúdo intelectual relacionado com a DRC e estão dispostos em diferentes repositórios da Web, esta pesquisa cria uma abordagem para gestão semântica destes recursos. A finalidade é compor, juntamente com a ontologia, uma base de conhecimento sobre DRC para ser utilizada como fonte de informação para o EducaDRC. Dessa forma, o EducaDRC se firmou como um software educacional capaz de fornecer e evidenciar conceitos, relacionados à DRC, que são indispensáveis para que o profissional de APS consiga observar os indicadores da doença em pacientes que eles assistem. Além de permitir que o profissional amplie seus conhecimentos a partir de um acervo de objetos de aprendizagem, categorizados de acordo com diferentes conceitos do domínio e descritos por metadados que expõem suas características.
  • YUGO MANGUEIRA DE ALENCAR
  • UM FRAMEWORK PARA DESENVOLVIMENTO DE OBJETOS DE APRENDIZAGEM PARA A EDUCAÇÃO A DISTÂNCIA: OAEDITOR
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 29/02/2016
  • Mostrar Resumo
  • A educação a distância vem crescendo em um ritmo acelerado nesses últimos anos, com isso as tecnologias voltadas para essa modalidade de ensino estão sempre em constate evolução, buscando melhorar a qualidade do ensino. No entanto, essa modalidade de ensino, necessita de um suporte pedagógico adequado em relação ao processo de aprendizagem. Nesse contexto, este trabalho apresenta um conjunto de novas funcionalidades para o OAEditor, um framework integrado ao AVA Moodle, que fornece suporte a professores no processo de construção de OAs adaptativos, sendo desnecessário conhecimentos elevados na área tecnológica por parte dos docentes. Os OAs produzidos pelo OAEditor são feitos em forma de hiperdocumentos educacionais estruturados como grafos conceituais, onde os nós do grafo denotam os conceitos, que serão representados por links no hiperdocumento, e as arestas denotam relacionamento entre esses conceitos. O conjunto de novas funcionalidades para OAEditor visa dar um maior suporte para o docente e discente com relação a questão feedback, critério este que não é muito explorado em ferramentas de sistemas adaptativos e que também é um ponto crítico na Educação a Distância, pois ocorre sem o uso de recursos não verbais (como por exemplo, as expressões e a entonação). Devemos saber que o professor é peça indispensável no processo de educação, diante disto, é de suma importância disponibilizar ferramentas de feedback que possibilitem o acompanhamento contínuo do desempenho do aluno, fornecendo assim conhecimentos suficientes para aprimorar seus materiais instrucionais.
  • DIEGO VÉRAS DE QUEIROZ
  • Simulação Realista de Redes de Sensores sem Fio Industriais
  • Data: 29/02/2016
  • Mostrar Resumo
  • Uma Rede de Sensores sem Fio (RSSF) pode ser caracterizada pela utilização de nós sensores em variados ambientes para as mais diversas aplicações, por exemplo, para monitoramento e controle em ambiente industrial. O uso de RSSF para implementar aplicações industriais precisa lidar com problemas típicos das redes sem fio, como alta atenuação e obstruções. Nesses ambientes, diferenças nas características dos canais podem ser observadas dado o seu perfil de multipercurso. Mudanças na topologia também podem provocar mudanças nas características dos canais ao longo do tempo, podendo causar diferença no valor médio da potência recebida. Uma alternativa para lidar com isso e com a variação da qualidade dos canais é o desenvolvimento de protocolos que utilizam múltiplos canais. Seu uso permite, por exemplo, alcançar uma melhor utilização do canal, aumentando a capacidade de transmissão da rede. No entanto, existe uma dificuldade em avaliar e comparar as diferentes abordagens devido à carência de simuladores que apresentem modelos mais precisos. Para avaliar os reais benefícios desses protocolos deve-se levar em consideração um modelo realista de propagação. Esse trabalho apresenta um modelo realista de simulação que captura os efeitos de desvanecimento em larga escala, atenuação em pequena escala, sombreamento log-normal, as características não-estacionárias do canal em longos períodos de tempo, e as características distintas dos diferentes canais do padrão IEEE 802.15.4. O modelo foi então integrado ao simulador de eventos discretos de código aberto Castalia e testado, comparando-o com o modelo estacionário padrão do próprio simulador. A partir da integração, o protocolo Tree-based Multi-Channel Protocol (TMCP) foi implementado e avaliado utilizando o modelo proposto.
  • YURIKA SATO NOBREGA
  • Proposta de um Modelo de Objeto Digital de Aprendizagem para Aprendizagem da LIBRAS Apoiado em Ferramentas Automáticas
  • Data: 29/02/2016
  • Mostrar Resumo
  • O presente trabalho propõe um ODA (Objeto Digital de Aprendizagem) para a Língua Brasileira de Sinais (Libras) apoiados em ferramentas automáticas que utilizam um avatar 3D para sinalizar. O objetivo é facilitar e dinamizar a aprendizagem da Libras, tendo como respaldo os dispositivos legais no 10.436/02 e no 5.626/05, da necessidade visual, gestual e dinâmica próprias da língua. O trabalho se desenvolve em aspectos teóricos e conceituais da Libras e de Objeto Digitais de Aprendizagem, bem como destaca os trabalhos relacionados à proposta, e por fim, apresenta os testes, os resultados, as consdiderações e trabalhos futuros.
  • RIVALDO DO RAMOS SIMAO
  • Estudo de Resiliência em Comunicação Entre Sistemas Multi-Rôbos Utilizando HLA.
  • Data: 29/02/2016
  • Mostrar Resumo
  • A cooperacao em um um sistema mutirrobos tem se tornado um desafio a ser superado e se transformado em um dos maiores incentivos para os pesquisadores desta area, pois a comunicacao se apresenta como um dos mais importantes requisitos. O objetivo deste trabalho foi de investigar a viabilidade do uso do ambiente de simulacao distribuida chamado de HLA, no processo de comunicacao entre membros de um sistema com tres e cinco computadores, simulando um sistema multirrobos, de modo a verificar seu comportamento, quando um deles e substituido por outro com poder de processamento reduzido. Assim, uma nova abordagem de comunicacao com base no middleware HLA foi desenvolvida. Nessa nova abordagem, os robos adaptam sua taxa de transmissao com base no desempenho de outros robos. Experimentos demonstraram que os requisitos de tempo real de uma aplicacao de futebol de robos foram alcancados usando-se essa abordagem, o que aponta para uma nova possibilidade de comunicacao em tempo real entre robos. Diante do exposto, em um dos experimentos, foi feita uma comparacao direta entre o middleware RTDB e a abordagem apresentada. Constatou-se que o HLA adaptativo, em alguns cenarios, e mais eficiente entre 5% e 12% do que o RTDB.
  • ESAU ALENCAR TAVARES
  • UMA ABORDAGEM PARA SUPORTE À DECISÃO CLÍNICA BASEADA EM SEMÂNTICA NO DOMÍNIO DA NEFROLOGIA
  • Data: 29/02/2016
  • Mostrar Resumo
  • Na área da saúde, as orientações e diretrizes para a prática clínica estão sendo projetadas para melhorar a qualidade dos cuidados em saúde e diminuir o uso de intervenções desnecessárias, ineficazes ou prejudiciais. Neste ambiente, abordagens de Suporte à Decisão Clínica, utilizando como base de conhecimento a representação da informação contida nessas diretrizes, podem usufruir de um guia para fazer inferências com base nas decisões, ações e recomendações clínicas validadas, auxiliando com qualidade a prestação de cuidados em saúde. A identificação e o manejo nefrológico adequado de pacientes com Doença Renal Crônica (DRC) têm sido reconhecidos como importantes oportunidades de impedir a sua progressão e desfechos desfavoráveis, como a mortalidade. Como estas situações são geralmente de evolução progressiva, insidiosa e assintomática, existem dificuldades relacionadas ao seu diagnóstico, estadiamento e encaminhamentos, sobrecarregando o trabalho dos médicos especialistas. Diante desses fatos, este trabalho teve como objetivo propor o desenvolvimento de uma abordagem de Suporte à Decisão Clínica, baseada em semântica e raciocínio, para auxiliar os médicos especialistas da área e os que trabalham na Atenção Primária da Saúde, na tomada de decisões relacionada ao diagnóstico e estadiamento da DRC, buscando assim dar suporte ao encaminhamento apropriado para os especialistas em nefrologia. A abordagem propôs a criação e o uso de uma base de conhecimento baseada na OntoDecideDRC, uma ontologia de domínio que representou os conhecimentos relacionados aos propósitos da abordagem. Essa abordagem foi então implementada na forma de um protótipo de web service onde foram aplicados métodos de avaliação com a ajuda de uma médica especialista na área, através da utilização de questões de competência e casos clínicos. Este estudo contribui para a compreensão dos métodos relacionados ao desenvolvimento de abordagens de suporte à decisão utilizando como base de conhecimento uma ontologia na área da saúde. Ao final, essa abordagem fornece informações sobre recomendações válidas, a fim de promover a qualidade nos cuidados médicos relacionados a doença em estudo. Essas informação estão em um formato capaz de ser compartilhado, atualizado e reutilizado por outros sistema ou abordagens na área.
  • ESTEVÃO DOMINGOS SOARES DE OLIVEIRA
  • MODELO DE DIAGNÓSTICO DE DIFICULDADES DE APRENDIZAGEM ORIENTADO A CONCEITOS
  • Data: 26/02/2016
  • Mostrar Resumo
  • O uso de Ambientes Virtuais de Aprendizagem (AVA) na educação tem crescido bastante nos últimos anos, muito em virtude da expansão dos cursos na modalidade à distância. Tais espaços de suporte a aprendizagem exigem que se pense em novos métodos educativos, sobretudo no que se refere à avaliação da aprendizagem. Em virtude da grande quantidade de alunos nessa modalidade de educação atuando no AVA, um grande volume de dados é gerado. Assim, para obter-se um bom modelo de avaliação de aprendizagem faz-se necessário uma análise desses dados. O Moodle – AVA mais popular atualmente –, oferece ao professor relatórios, tabelas e gráficos que permitem visualizar os dados referentes às ações dos alunos. Tais ações representam desde o acesso a recursos e materiais didáticos, até a participação em atividades, como fóruns de discussão e resultados de participação questionários, por exemplo. Contudo, essas visualizações nativas do Moodle não levam em consideração as reais necessidades dos docentes, sobretudo em relação a um acompanhamento efetivo da aprendizagem. Diante do exposto, fica evidente a necessidade de se ter ferramentas que auxiliem neste processo. Para isso, há de ter-se um Modelo que permita, de modo ágil e flexível, o armazenamento e a utilização dos dados educacionais dos alunos para a aplicação de técnicas de Learning Analytics com foco no diagnóstico de situações de dificuldade de aprendizagem no contexto da Educação a Distância. Para avaliar esta proposta, a ferramenta ConcetpVis foi implementada a partir do modelo proposto. Em seguida, realizou-se um estudo de caso na disciplina Matemática Elementar do curso de Licenciatura em Computação da Unidade de Educação a Distância da UFPB e, por fim, apresentou-se um questionário para que um grupo de professores respondesse a partir de suas impressões.
  • THIAGO JOSÉ SILVA OLIVEIRA
  • Um Ambiente para Simulação e Testes de Comunicação entre Multi-Robôs através de Cossimulação
  • Data: 26/02/2016
  • Mostrar Resumo
  • Sistemas Multi-Robos (SMR) consistem em multiplos robos interagindo, cada um executando uma estrategia de controle especifica, que nao e conduzida de forma centralizada. Alguns desafios surgiram da necessidade de desenvolver produtos que levem o mundo real em consideracao. Fazer com que ferramentas, metodologias e equipes de diferentes areas possam trabalhar juntas nao e uma tarefa simples de ser realizada. Cossimulacao representa uma tecnica para validacao de sistemas heterogeneos. Seu principio fundamental e prover suporte a execucao de diferentes simuladores de forma cooperativa. Um dos padroes para tal e conhecido como High Level Architecture (HLA), que e um padrao descrito no IEEE 1516 e tem sido desenvolvido para dispor uma arquitetura para modelagem e simulacao distribuidos. Utilizando HLA, varios simuladores e aplicacoes reais podem ser simulados juntos. Sendo assim, este trabalho apresenta um projeto para simulacao de Sistemas Multi-Robos (SMR) utilizando ROS cossimulado com um simulador de redes de computadores, o OMNeT++ atraves do HLA. Seu principal objetivo e tornar as simulacoes mais proximas da realidade, onde os dados irao ser trocados atraves de uma rede simulada, como se tivessemos robos reais interagindo atraves de uma rede convencional. Para tal, foi desenvolvida a interface entre o ambiente ROS e o OMNeT++ com o HLA. Experimentos demonstraram que a perda de pacotes foi simulada corretamente, adicionando ao ambiente mais realismo.
  • THIAGO JOSÉ SILVA OLIVEIRA
  • Um Ambiente para Simulação e Testes de Comunicação entre Multi-Robôs através de Cossimulação
  • Data: 26/02/2016
  • Mostrar Resumo
  • Sistemas Multi-Robôs (SMR) consistem em múltiplos robôs interagindo, cada um executando uma estratégia de controle específica, que não é conduzida de forma centralizada. Alguns desafios surgiram da necessidade de desenvolver produtos que levem o mundo real em consideração. Fazer com que ferramentas, metodologias e equipes de diferentes áreas possam trabalhar juntas não é uma tarefa simples de ser realizada. Cossimulação representa uma técnica para validação de sistemas heterogêneos. Seu princípio fundamental é prover suporte à execução de diferentes simuladores de forma cooperativa. Um dos padrões para tal é conhecido como High Level Architecture (HLA), que é um padrão descrito no IEEE 1516 e tem sido desenvolvido para dispor uma arquitetura para modelagem e simulação distribuídos. Utilizando HLA, vários simuladores e aplicações reais podem ser simulados juntos. Sendo assim, este trabalho apresenta um projeto para simulação de Sistemas Multi-Robôs (SMR) utilizando ROS cossimulado com um simulador de redes de computadores, o OMNeT++ através do HLA. Seu principal objetivo é tornar as simulações mais próximas da realidade, onde os dados irão ser trocados através de uma rede simulada, como se tivéssemos robôs reais interagindo através de uma rede convencional. Para tal, foi desenvolvida a interface entre o ambiente ROS e o OMNeT++ com o HLA. Experimentos demonstraram que a perda de pacotes foi simulada corretamente, adicionando ao ambiente mais realismo.
  • NAILSON DOS SANTOS CUNHA
  • Um Framework para a Geração Semiautomática de Solos de Guitarra
  • Data: 24/02/2016
  • Mostrar Resumo
  • Este trabalho trata do desenvolvimento de um framework baseado em métodos computacionais e de otimização para a composição algorítmica, mais especificamente, para a geração de solos de guitarra. A abordagem proposta foi considerada semiautomática pois faz uso de pequenos fragmentos melódicos licks previamente criados a partir de modelos humanos. Os solos gerados possuem características do estilo musical Blues e são aplicados sobre um modelo de harmonia bastante conhecido denominado 12-Bar Blues. Um banco de dados de licks foi criado, do qual são realizados sorteios de instâncias menores do conjunto, diversificando os possíveis candidatos a estarem no solo a ser gerado. De posse da instância, um problema de otimização, que consiste em sequenciar de forma otimizada um subconjunto de licks, é resolvido utilizando um modelo de programação linear inteira. Implementou-se um conjunto de regras para a criação de uma matriz que define o custo de transição entre os licks. As saídas geradas são armazenadas no formato MusicXML e podem ser lidas pela maioria dos aplicativos que possuam suporte a esse tipo de arquivo e disponibilizem visualização no formato de tablaturas. Os solos criados foram avaliados por uma amostra de 173 indivíduos, classificados como músicos iniciantes, intermediários e profissionais. Uma aplicação web foi desenvolvida para agizilizar o processo de avaliação. Os resultados obtidos demonstram que os solos cujos licks foram sequenciados de forma otimizada foram estatisticamente mais bem avaliados que aqueles sequenciados aleatoriamente, indicando que a metodologia proposta foi capaz de produzir, em média, solos com percentual de aceitação favorável.
  • LUIZ CARLOS RODRIGUES CHAVES
  • Analisando a mobilidade de pesquisadores através de registros curriculares na Plataforma Lattes.
  • Data: 22/02/2016
  • Mostrar Resumo
  • A pesquisa científica possui importante papel na evolução do conhecimento humano e por isso tem sido cada vez mais incentivada como objeto de estudo. Na literatura inúmeros são os focos de análise que exploram e apontam as correlações e motivações desta evolução, mas se sabe que a pesquisa científica tem sido demonstrada como um elo bastante forte para tal desenvolvimento, pois os pesquisadores quando usados de forma estratégica podem transferir principalmente seu conhecimento para fundamentar a resolução de problemas. Além disso, trabalhos recentes vêm mostrando que a mobilidade de um pesquisador pode garantir aspectos positivos na produtividade, colaboração e internacionalização da pesquisa científica. Portanto, neste estudo resolveu-se analisar os padrões de mobilidade entre os pesquisadores atuantes ou capacitados no Brasil em instituições de ensino e pesquisa através da extração e tratamento de métricas dependentes da localidade presente em seus registros curriculares. E devido a abrangência no cenário nacional a plataforma Lattes foi adotada como principal fonte de dados sobre o histórico de deslocamento dos pesquisadores. Contudo, a análise da mobilidade só foi possível graças a metodologia de extração e tratamento dos dados deste trabalho que criou o fluxo de deslocamento de todos os doutores do Lattes usando seus registros de nascimento, formação e atuação para assim criar as métricas e visualizações utilizadas nos resultados obtidos. Com essa metodologia foi possível identificar os centros de formação de recursos humanos mais influentes para a comunidade científica nacional e a rede formada por instituições de formação e de atuação dos pesquisadores cadastrados na plataforma Lattes. Inclusive descrevendo como os deslocamentos variam ao longo do tempo. Além de identificar alguns padrões de mobilidade interessantes, como a tendência de deslocamento mínimo realizado pelos pesquisadores nos mais diversos contextos geográficos de visualização.
  • HUGO NEVES DE OLIVEIRA
  • Compressão de Sinais Biomédicos
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 22/02/2016
  • Mostrar Resumo
  • Compressores de eletrocardiogramas e eletroencefalogramas vêm sendo descritos na literatura ao longo das últimas décadas, mas há uma falta de trabalhos que apresentem soluções gerais para todos os sinais biomédicos. Visando preencher essa lacuna, este trabalho discute métodos de compressão que funcionem satisfatoriamente para todos os sinais biomédicos. Os métodos de compressão sem perdas de informação estudados se baseiam em transformadas wavelet e preditores lineares associados a diversos codificadores de entropia. As estratégias de compactação com perdas de informação apresentadas usam transformadas trigonométricas e wavelets seguidas por quantizadores vetoriais baseados em quantização com zona-morta gerados por Minimização Lagrangiana e em Quantizações por Aproximações Sucessivas. Os codificadores de entropia usados se baseiam em Predição por Casamento Parcial, Codificação por Comprimento de Sequência e Particionamento de Conjuntos em Árvores Hierárquicas. Os métodos foram testados usando os sinais do MIT/BIH Polysomnographic Database. Os compressores sem perdas de informação obtiveram razões de compressão até 4,818:1, dependendo do tipo de registro biomédico, enquanto os métodos com perdas obtiveram razões de compressão até 818,055:1. Os sinais mais suaves, como os de respiração e saturação de oxigênio, apresentaram melhores reconstruções com wavelets e Quantização por Aproximações Sucessivas, apesar dos menores desempenhos de compressão. Contrastivamente, para a mesma qualidade de reconstrução visual, transformadas trigonométricas e Minimização Lagrangiana obtiveram melhores eficácias de compressão para sinais mais variáveis -- como eletroencefalogramas e eletromiogramas.
  • JONAS FERNANDES DA SILVA
  • Uma solução de baixo custo para o processamento de imagens aéreas obtidas por Veículos Aéreos Não Tripulados
  • Data: 19/02/2016
  • Mostrar Resumo
  • Currently, unmanned aerial vehicles (UAVs) are increasingly used to aid the various tasks around the world. The popularization of this equipment associated with the advancement of technology, particularly the miniaturization of processors, extend their functionalitys. In agricultural applications, these devices allow monitoring of production by capturing aerial images, for which they are processed and identified areas of interest through specific software. This work proposes a low-cost solution capable of processing aerial images obtained by non-metric digital cameras coupled to UAVs to identify gaps in plantations and/or estimate levels of environmental degradation, it is possible its implementation in small computers and low power consumption. Embedded systems coupled in UAVs allow perform processing in real time, which contributes to a preventive diagnosis, reduces the response time and can avoid damages in the crop. The algorithm used is based on watershed, while the second algorithm uses classification techniques based on the 1-Nearest Neighbor (1-NN). The system is developed in C ++ with use of computer vision software library OpenCV. Are used the embedded systems DE2i-150 and Intel Edison, both x86 architecture, and Raspberry Pi 2 of ARM architecture. Moreover, the technique 1-NN showed higher tolerance to lighting problems, however, require more processing power compared to the algorithm based on watershed. The results show that the proposed system is an efficient and relatively low-cost solution compared to traditional means of monitoring and can be coupled in a UAV to perform the processing during the flight.
  • LEONARDO ANGELO VIRGINIO DE SOUTO
  • Uma Nova Abordagem de Mapeamento e Localização Simultâneo Planar utilizando sensores RGB-D Baseada em Subtração de Objetos
  • Data: 19/02/2016
  • Mostrar Resumo
  • Ao usar algoritmos de Mapeamento e Localização Simultâneos (do inglês Simultaneous Localization and Maping - SLAM) baseados em sensores RGBD, um robô muitas vezes leva em conta dinâmica e objetos estáticos durante a etapa de mapeamento 3D. Para resolver este problema, este trabalho tem como objetivo apresentar uma nova abordagem em RGB-D Planar SLAM, aqui chamada SLAM Baseado em Subtração de Objetos (OS-SLAM), utilizando apenas sensores RGB-D de baixo custo, como o Microsoft Kinect. Essa abordagem subtrai objetos do ambiente 3D e cria um mapa 3D limpo, projetando planos estimados sem os objetos identificados e encontrados ao longo do procedimento de mapeamento. Para validar esta abordagem, foram realizados quatro experimentos. Três deles em um ambiente real e um com um conjunto de dados abertos comparando-os com outros algoritmos do estado-da-arte. Os algoritmos foram aplicados a uma plataforma Turtlebot 2, que tem um sensor RGB-D como seu sensor principal. Os resultados demonstraram a eficiência na geração de mapas limpos e precisos utilizando o algoritmo OS-SLAM.
  • THIAGO WERLLEY BANDEIRA DA SILVA
  • Aplicação do Problema do Caixeiro Viajante (PCV) em um Planejamento de Trajetória no Setor Agrícola (PTSA) Utilizando um Veículo Aéreo Não Tripulado (VANT)
  • Data: 05/02/2016
  • Mostrar Resumo
  • Os sistemas embarcados acoplados em Veículos Aéreos Não Tripulados (VANTs) têm possibilitado um grande avanço no desenvolvimento de diversas aplicações, por exemplo, na agricultura. Através destes sistemas podemos ter um maior controle sobre as condições da região agrícola e aumentar a produtividade da plantação. Este trabalho tem por objetivoanalisar alguns métodos para localizar e otimizar a melhor trajetória de VANTs numa área agrícola. Em cada cenário que o drone processar deve-se tirar fotos das regiões com falha, para isso o drone deve reduzir sua altura proporcional a região, possibilitando fotos com boa qualidade das falhas. Um gerador de manchas possibilita analisar o desempenho da escolha da solução de diferentes cenários quanto a qualidade das imagens. Posteriormente, testes realizados com altitudes fixas e mistas possibilitam um comparativo da melhor escolha na tomada de decisão do drone usando abordagem PCV. Fez-se ainda, um comparativo dos métodos para determinar a trajetória do drone, baseados nas formulações para o Problema do Caixeiro Viajante (PCV) e Problema do Caixeiro Viajante Suficientemente Próximo (PCVSP), a partir das imagens geradas. Por fim, são realizados experimentos de desempenho entre os computadores mensurando tempo, qualidade e distância, assim é analisado uma possível escolha de embarcar no drone.
  • LETTIERY D'LAMARE PORTELA PROCOPIO
  • Matheurísticas para o Problema de Custo de Disponibilidade de Recursos com Múltiplos Modos.
  • Data: 02/02/2016
  • Mostrar Resumo
  • Este trabalho busca a utilizacao de Matheuristicas para solucionar o Problema de Custo de Disponibilidade de Recursos com Multiplos Modos, e tenta organizar as atividades de forma a minimizar o tempo total do projeto (makespan). Busca ainda a reducao do custo de utilizacao dos recursos nessas atividades, as quais podem ser executadas de varias maneiras distintas, com variacao de tempos e recursos. Para melhor comparacao dos resultados foram propostas duas abordagens: uma solucao baseada em Particle Swarm Optimization (PSO) e outra baseada em Algoritmo Genetico. Em ambas, a formulacao matematica do problema e usada para desenvolver estrategias de busca local exata.
  • LUIS FELIPHE SILVA COSTA
  • Um ambiente de monitoramento para sistemas multi-robôs com cossimulação federada e hardware-in-the-loop
  • Data: 15/01/2016
  • Mostrar Resumo
  • Este trabalho visa o desenvolvimento de um ambiente de simulação que permita a co-simulação de sistemas robóticos com a utilização da Arquitetura de Alto Nível. A Arquitetura de Alto Nível (HLA) é um padrão IEEE que permite que diversos simuladores possam compartilhar informações entre si. Dessa forma pretende-se unir os simuladores Stage e Ptolemy por meio desse padrão. Também poderá ser possível adicionar diferentes plataformas de desenvolvimento nas simulações como a Beaglebone black, Arduíno e RaspBerry pi. Com o desenvolvimento deste ambiente integrado será possível que robôs reais, simulados e diferentes dispositivos de hardware participem de uma mesma simulação. Com isso, o desenvolvedor poderá ter uma visão mais diversificada dos dispositivos, pela utilização de simuladores que tem focos distintos e ainda aumentar a realidade das simulações com a utilização de robot-in-the-loop, uma técnica de teste de sistemas que consiste na utilização de robôs reais nas simulações.
2015
Descrição
  • ELINE RAQUEL DE MACEDO
  • Um Simulador Baseado em RV para o Treinamento de Estudantes na Administração de Medicamentos Injetáveis
  • Data: 11/12/2015
  • Mostrar Resumo
  • Simuladores baseados em realidade virtual podem auxiliar nos processos educacionais em saúde, acrescentando a prática simulada em um ambiente seguro e realista. Um procedimento médico que é alvo de críticas, devido aos relatos de erros, é a administração de medicamentos injetáveis. Várias são as pesquisas que apontam as deficiências dos profissionais nessa técnica. Considerando que essa deficiência venha desde a formação do profissional da saúde, o objetivo principal deste trabalho é propor uma ferramenta de capacitação baseada em realidade virtual para a administração de medicamentos injetáveis. Além disso, este trabalho também apresenta a modelagem das métricas de avaliação utilizadas no módulo para avaliação do usuário pelo simulador, discutindo a importância do estabelecimento dessas métricas para serem utilizadas em simuladores de realidade virtual.
  • CLOVIS FERREIRA DOS REIS
  • Detecção de Sons Impulsivos em um Sistema de Reconhecimento de Disparos de Armas de Fogo.
  • Data: 04/12/2015
  • Mostrar Resumo
  • O crescimento da violência urbana e fato inegavel e para fazer face a crescente ameaca, as autoridades policiais necessitam de ferramentas modernas que auxiliem a tomada de decisões sobre quando empregar os parcos recursos disponiveis a repressão do crime. Dentro deste contexto este trabalho vem apresentar uma ferramenta que se dispõe a realizar a detecção e reconhecimento automático de disparos de armas de fogo. Para tanto, são apresentados os fundamentos sobre sons impulsivos, armas de fogo e caractersticas de seus disparos e são propostas as bases de um sistema modular de detecção e reconhecimento de disparos. Para desenvolvê-lo, foram analisados diferentes algoritmos de detecção de sons impulsivos com base em sua e cificiência, além de diversas técnicas de análise de sinais no domnio do tempo e no domínio das frequências, com o intuito de, num segundo momento, diferenciar sons impulsivos de qualquer natureza daqueles provocados por disparos de armas de fogo. Finalmente, são apresentadas implementações das partes mais importantes do sistema de reconhecimento de disparos de armas de fogo.
  • CLOVIS FERREIRA DOS REIS
  • Detecção de Sons Impulsivos em um Sistema de Reconhecimento de Disparos de Armas de Fogo.
  • Data: 04/12/2015
  • Mostrar Resumo
  • O crescimento da violência urbana e fato inegavel e para fazer face a crescente ameaca, as autoridades policiais necessitam de ferramentas modernas que auxiliem a tomada de decisões sobre quando empregar os parcos recursos disponiveis a repressão do crime. Dentro deste contexto este trabalho vem apresentar uma ferramenta que se dispõe a realizar a detecção e reconhecimento automático de disparos de armas de fogo. Para tanto, são apresentados os fundamentos sobre sons impulsivos, armas de fogo e caractersticas de seus disparos e são propostas as bases de um sistema modular de detecção e reconhecimento de disparos. Para desenvolvê-lo, foram analisados diferentes algoritmos de detecção de sons impulsivos com base em sua e cificiência, além de diversas técnicas de análise de sinais no domnio do tempo e no domínio das frequências, com o intuito de, num segundo momento, diferenciar sons impulsivos de qualquer natureza daqueles provocados por disparos de armas de fogo. Finalmente, são apresentadas implementações das partes mais importantes do sistema de reconhecimento de disparos de armas de fogo.
  • ARNALDO GUALBERTO DE ANDRADE E SILVA
  • Identificação e Verificação Multibiométrica por Geometria da Mão e Impressão Palmar com Otimização por Algoritmos Genéticos
  • Data: 23/10/2015
  • Mostrar Resumo
  • A Biometria oferece um mecanismo de autenticação confiável utilizando traços (físicos ou comportamentais) que permitam identificar usuários baseados em suas características naturais. Serviços biométricos de classificação e verificação de usuários, são considerados, a princípio, mais seguros que sistemas baseados em políticas de senha, por exigirem a apresentação de uma característica física única e, portanto, a presença do usuário ao menos no momento da autenticação. No entanto, tais métodos apresentam vulnerabilidades que resultam em alta taxa de verificação falsa, mesmo em sistemas mais modernos. Algoritmos genéticos (GA), por sua vez, são uma abordagem de otimização baseada no princípio da seleção natural de Charles Darwin e que vêm provando, ao longo dos anos, ser uma ferramenta útil na busca de soluções em problemas complexos. Além disso, seu uso em sistemas biométricos também vem crescendo por se mostrar uma alternativa para seleção de características. Este trabalho utiliza os algoritmos genéticos como ferramenta na otimização de parâmetros da classificação e verificação do banco palmar. A Base Multibiométrica BioPass-UFPB é apresentada e empregada para teste e validação do método proposto. Ao todo, 85 atributos geométricos extraídos de cada imagem são utilizados e análises sobre a importância desses atributos são realizadas. Os resultados mostraram que, nas duas abordagens de verificação empregadas, os algoritmos genéticos conseguiram melhoras superiores a 30% e 90% da EER em relação ao caso em que o GA não era aplicado. Na classificação, o uso de algoritmos genéticos conseguiu melhorar os resultados do classificador k-NN. Por fim, espera que os resultados deste trabalho, bem como a base BioPass-UFPB, sirvam de referência na implementação de novos sistemas de reconhecimento biométrico baseados na geometria da mão.
  • LEONARDO DE ARAUJO DOMINGUES
  • Acessibilidade em Cinemas Digitais: Uma Proposta de Geração e Distribuição de Libras e Audiodescrição
  • Data: 13/10/2015
  • Mostrar Resumo
  • Pessoas com deciência sensorial (auditiva ou visual) enfrentam diversos entraves para participar da vida em sociedade, para se comunicar com outras pessoas e ter acesso à informações. A participação dessas pessoas em alguns ambientes, como, por exemplo, nos cinemas, nos teatros, nas escolas, enquanto navegam na Internet, dentre outros, é muitas vezes limitada devido a ausência de soluções acessíveis que viabilizem sua participação e interação nesses ambientes. Geralmente, quando estão disponíveis, os recursos de acessibilidade se limitam a utilização de legendas em formato texto, ou não estão presentes no caso de usuários cegos. Porém, essas abordagens são consideradas ineficientes, uma vez que os surdos, por exemplo, têm bastante dificuldade de ler e escrever na língua oral do seu país. Portanto, para minimizar esses problemas, neste trabalho, é apresentada uma solução computacional capaz de gerar automaticamente a partir das legendas, trilhas de vídeo com janelas de Libras para usuários surdos, e a partir do roteiro do filme, gerar Audiodescrição para usuários cegos e distribuir esses conteúdos para usuários usando dispositivos de segunda tela. Experimentos com um protótipo da solução mostraram que a solução tem potencial para gerar de forma eciente conteúdos inteligíveis para esses usuários, melhorando o seu acesso a esse tipo de tecnologia.
  • DIEGO SOUSA DE AZEVEDO
  • ADAPTAÇÃO DE UM CONTROLADOR PREDITIVO DE FORMAÇÃO BASEADO EM MODELO NÃO-LINEAR PARA EMBARCAR EM ARQUITETURAS DE BAIXO CUSTO
  • Data: 09/10/2015
  • Mostrar Resumo
  • Um sistema Multi-Robôs é formado quando um grupo de robôs interage com o ambiente como um único sistema. Este sistema pode também ser formado para realizar tarefas outrora difíceis ou até impossíveis de serem realizadas por um único robô. O papel destes robôs deve ser desempenhado pelo próprio sistema de controle, que o deve suprir com a capacidade necessária para fazê-los mover corretamente. O intuito do projeto macro é obter dados comparativos entre o uso desse tipo de controlador em um Laptop e o uso desse controlador embarcado em uma placa de baixo custo. Dessa forma, o principal objetivo desse trabalho é embarcar um controlador preditivo de formação, em uma placa de baixo custo que disponibilize recursos computacionais suficientes para que o Robô seja capaz de convergir, sem perda de desempenho e utilizando horizontes próximos aos aplicados em um PC.
  • MÁRCIO ADAMEC LOPES OLIVEIRA
  • Formação de uma infraestrutura de informação para telerradiologia: uma série de estudos de caso baseados na teoria de projeto para complexidade dinâmica
  • Data: 01/10/2015
  • Mostrar Resumo
  • A evolução tecnológica tem fornecido uma variedade de ferramentas que quando integradas favorecem o surgimento de soluções de tecnologia da informação e, consequentemente, o aparecimento de novas infraestruturas, embora haja um crescimento na complexidade dessas soluções. A telerradiologia e as soluções locais para distribuição de imagens médicas são evidências dessa evolução tecnológica. Apesar disso, ainda não se observou uma infraestrutura para teleradiologia com características das denominadas infraestruturas de informação (II), a saber: capacidade de organização dinâmica, constituída por uma quantidade crescente e heterogênea de elementos técnicos e sociais, com elevados níveis de adaptação e variação de componentes, possuindo ainda controle descentralizado e episódico e que evolui de forma não limitada e sob condições diversas. Tais infraestruturas, se aplicadas a soluções locais e globais para telerradiologia, favoreceriam o aparecimento de um espaço social público para práticas radiológicas, derrubando as fronteiras entre o local e o global. O objetivo desse trabalho é buscar compreender quais obstáculos dificultam a formação de tal II. Para isso, utilizou-se a teoria de projeto para complexidade dinâmica (TPCD) em infraestrutura de informação, baseada na teoria dos sistemas adaptativos complexos (CAS), como referência principal na investigação de uma série de estudos de caso em telerradiologia. Para alcançar tal objetivo foi realizada uma pesquisa baseada em descrições empíricas de soluções para telerradiologia, buscando evidências em cada caso, resultando em um conjunto compilado de conhecimento acerca de qualidades, deficiências e obstáculos mapeados para um conjunto de regras de projeto da TPCD. O resultado dessa investigação evidencia a deficiência técnica e social em torno da capacidade de adaptação como um importante fator para dificultar a expansão da telerradiologia e, consequentemente, a formação de uma infraestrutura de informação. Finalmente, concluiu-se que, apesar da crescente quantidade de soluções para telerradiologia, não foi possível observar tal II; e que a chave para a formação desta II está em projetar visando a máxima flexibilidade sociotécnica, isto é, a capacidade de adaptação, de modo contínuo, com alto nível de independência entre os elementos constituintes e capaz de lidar com contextos sociais e técnicos diversificados.
  • MÁRCIO ADAMEC LOPES OLIVEIRA
  • Formação de uma infraestrutura de informação para telerradiologia: uma série de estudos de caso baseados na teoria de projeto para complexidade dinâmica
  • Data: 01/10/2015
  • Mostrar Resumo
  • A evolução tecnológica tem fornecido uma variedade de ferramentas que quando integradas favorecem o surgimento de soluções de tecnologia da informação e, consequentemente, o aparecimento de novas infraestruturas, embora haja um crescimento na complexidade dessas soluções. A telerradiologia e as soluções locais para distribuição de imagens médicas são evidências dessa evolução tecnológica. Apesar disso, ainda não se observou uma infraestrutura para teleradiologia com características das denominadas infraestruturas de informação (II), a saber: capacidade de organização dinâmica, constituída por uma quantidade crescente e heterogênea de elementos técnicos e sociais, com elevados níveis de adaptação e variação de componentes, possuindo ainda controle descentralizado e episódico e que evolui de forma não limitada e sob condições diversas. Tais infraestruturas, se aplicadas a soluções locais e globais para telerradiologia, favoreceriam o aparecimento de um espaço social público para práticas radiológicas, derrubando as fronteiras entre o local e o global. O objetivo desse trabalho é buscar compreender quais obstáculos dificultam a formação de tal II. Para isso, utilizou-se a teoria de projeto para complexidade dinâmica (TPCD) em infraestrutura de informação, baseada na teoria dos sistemas adaptativos complexos (CAS), como referência principal na investigação de uma série de estudos de caso em telerradiologia. Para alcançar tal objetivo foi realizada uma pesquisa baseada em descrições empíricas de soluções para telerradiologia, buscando evidências em cada caso, resultando em um conjunto compilado de conhecimento acerca de qualidades, deficiências e obstáculos mapeados para um conjunto de regras de projeto da TPCD. O resultado dessa investigação evidencia a deficiência técnica e social em torno da capacidade de adaptação como um importante fator para dificultar a expansão da telerradiologia e, consequentemente, a formação de uma infraestrutura de informação. Finalmente, concluiu-se que, apesar da crescente quantidade de soluções para telerradiologia, não foi possível observar tal II; e que a chave para a formação desta II está em projetar visando a máxima flexibilidade sociotécnica, isto é, a capacidade de adaptação, de modo contínuo, com alto nível de independência entre os elementos constituintes e capaz de lidar com contextos sociais e técnicos diversificados.
  • FRANCISCO PORFIRIO RIBEIRO NETO
  • MELHORIA NA CLASSIFICAÇÃO DE TÓPICOS EM TEXTOS CURTOS USANDO BACKGROUND KNOWLEDGE
  • Data: 31/08/2015
  • Mostrar Resumo
  • O poder da iteração entre usuários na internet aumentou consideravelmente através do surgimentos de ferramentas alinhadas com os conceitos da WEB 2.0, a exemplo dos blogs, fóruns de discussão, e redes sociais como o Facebook e Twitter. Estas aplicações são constituídas por uma troca contínua de mensagens entre os usuários, gerando com isso uma expressiva massa de dados formada por várias pequenas mensagens. Estudos mostram que informações podem ser extraídas com base em tais dados, através da classificação de textos, porém isto tem sido um desafio tremendo para pesquisadores da área, uma vez, que as mensagens dos usuários nestas aplicações são bem curtas, fazendo com que ocorra o problema de escassez de dados e ausência de similaridade entre palavras relevantes. Com base na problemática destacada, busca-se com esta dissertação, ilustrar dois métodos de classificação de textos curtos, que se demostraram eficientes usando um corpus específico, para isso, será aplicado tais estratégias em um corpus construído com base no tópico “Violência no Brasil”.
  • LEANDRO JOSÉ CAETANO
  • Expandindo a Área de Cobertura de um Sistema Multi-Robôs Através de uma Rede Multicamadas e um Middleware de Base de Dados em Tempo Real
  • Data: 31/08/2015
  • Mostrar Resumo
  • A comunicação entre robôs é tarefa fundamental e de grande importância na robótica. É a partir dela que eles conseguem descobrir e repassar informações sobre obstáculos encontrados no caminho, transmitir para os outros robôs informações sobre um alvo que outro robô não consiga detectar, determinar juntos sobre a melhor rota a seguir, entre outros. Uma das grandes dificuldades, no contexto em que se tem a comunicação de robôs em uma rede sem fio, está em distanciá-los. Um deles, por exemplo, pode migrar para uma outra área deixando a sua formação inicial, afim de realizar uma tarefa específica e distanciar dos limites de cobertura. Ao distanciar um robô do outro, os limites conferidos pelo meio acarretarão uma perda de sinal comprometendo a comunicação entre eles. Deste modo, conhecer a área de cobertura de uma rede sem fio onde robôs estarão conectados é um processo importante para a implantação de um sistema de comunicação entre robôs. Este trabalho propõe expansão da área de cobertura de uma rede sem fio, a ser utilizada em sistemas Multi-Robôs, usando um Middleware de Base de Dados em Tempo Real - RTDB, em redes multicamadas que utilizam os padrões IEEE 802.11 e 802.15.4, aplicado à otimização da análise da Área de Cobertura e de Interferência de Redes Sem Fio. Os resultados obtidos demonstra a robustez e confiabilidade do cenário proposto e de acordo com os experimentos realizados, comprovou-se que o uso de redes multicamadas proporciona um maior alcance na área de cobertura de uma formação de robôs.
  • JANSEN CRUZ DE SOUZA
  • Utilizando Títulos de Artigos Científicos na Construção de Redes Semânticas para Caracterizar Áreas de Pesquisa
  • Data: 27/08/2015
  • Mostrar Resumo
  • The scientific knowledge is not just the discovery of new facts and laws, but also in its publication. Aiming to understand the complex scientific production system analysis techniques have been applied in many digital repositories. The social network analysis (SNA) has been a topic of interest of several studies in recent years. Social networks can be established from the relationship between people or the relationship of information that can be analyzed to assist decision making. The purpose of this thesis is to present a technique that makes it possible to characterize areas of scientific research by building semantic networks vary in time. These networks are built building on the co-occurrence of keywords in the titles of scientific papers, used to represent the evolution of research themes addressed by means of publication over time.
  • VITOR MARCIO PAIVA DE SOUSA BAPTISTA
  • Um modelo para a previsão da entrada ou saída da coalizão pelos deputados federais
  • Orientador : ALEXANDRE NOBREGA DUARTE
  • Data: 27/08/2015
  • Mostrar Resumo
  • No Brasil, existem ferramentas para o acompanhamento do comportamento dos parlamentares em votações nominais, tais como o Basômetro do jornal O Estado de São Paulo e o Radar Parlamentar. Essas ferramentas foram usadas para análises tanto por jornalistas quanto por cientistas políticos. Apesar de serem ótimas ferramentas de análise, sua utilidade para monitoramento é limitada por exigir um acompanhamento manual, o que se torna muito trabalhoso quando consideramos o volume de dados. Somente na Câmara dos Deputados, 513 parlamentares participam em média de mais de 400 votações nominais por legislatura. É possível analisar os partidos como um todo, o que diminuiria bastante a quantidade de dados, mas em contrapartida perdemos a capacidade de detectar movimentações de indivíduos ou grupos intra-partidários como as bancadas. Para diminuir esse problema, desenvolvi neste trabalho um modelo estatístico que prevê quando um parlamentar vai entrar ou sair da coalizão governamental através de estimativas de pontos ideais usando o W-NOMINATE. Ele pode ser usado individualmente ou integrado a ferramentas como o Basômetro, oferecendo um filtro para os pesquisadores encontrarem os parlamentares que mudaram mais significativamente de comportamento. O universo de estudo é composto pelos parlamentares da Câmara dos Deputados no período da 50ª até a 54ª legislaturas, iniciando no primeiro mandato de Fernando Henrique Cardoso em 1995 até o final do primeiro mandato de Dilma Rousseff em 2015.
  • MANUELLA ASCHOFF CAVALCANTI BRANDAO LIMA
  • Uma Estratégia de Tradução Automática com Adequação Sintático-Semântica para LIBRAS
  • Data: 26/08/2015
  • Mostrar Resumo
  • Pessoas surdas se comunicam naturalmente usando linguagens viso-espaciais, denominadas línguas de sinais. No entanto, apesar das línguas de sinais (LS), em muitos países, serem reconhecidas como língua, os problemas enfrentados pelos surdos no tocante ao acesso a informação permanecem. Em consequência disso, observa-se uma grande dificuldade dos surdos exercerem a sua cidadania e terem acesso à informação através das LS, o que acaba geralmente implicando em atraso linguístico e de aquisição do conhecimento. Visando propor soluções alternativas para minimizar a marginalização dos surdos, alguns trabalhos vêm sendo desenvolvidos relacionados à tradução automática de línguas orais para línguas de sinais. No entanto, as soluções existentes apresentam muitas limitações, pois precisam garantir que o conteúdo disponibilizado aos surdos chegue com a mesma qualidade que aos ouvintes. Neste sentido, o presente trabalho tem como objetivo desenvolver uma solução para tradução automática para LIBRAS com adequação sintático-semântica. Essa solução envolve um componente de tradução automática para LIBRAS; uma linguagem formal de descrição de regras, modelada para criar regras de tradução sintático-semânticas; a definição de uma gramática explorando esses aspectos; e a integração desses elementos no serviço VLibras, um serviço de tradução automática de conteúdos digitais em Português para LIBRAS. Para avaliar a solução, alguns testes computacionais utilizando as métricas WER e BLEU e com usuários surdos e ouvintes da LIBRAS foram realizados para aferir a qualidade da saída gerada pela solução. Os resultados mostram que a abordagem proposta conseguiu melhorar os resultados da versão atual do VLibras.
  • GLAUCO DE SOUSA E SILVA
  • Sinestesia em Interfaces de Usuário: Modelando o Design da Interação através dos Sentidos Humanos
  • Data: 25/08/2015
  • Mostrar Resumo
  • Hoje em dia, um dos pontos chave para a desenvolvimento de sistemas computacionais é a solução para a interação com o usuário. Interfaces gráficas de usuário, manipulação direta, realidade virtual e interfaces de usuário tangíveis são exemplos dessa evolução. Então, a busca por novas formas de interação que permitam modelos de interação que consigam despertar a atração do usuário é uma área de constante estudo. Neste sentido, propõe-se o uso da sinestesia como uma abordagem para a interface de usuário. Sinestesia é um sentimento único resultante de respostas mútuas de diferentes tipos de sentidos humanos que podem aumentar a habilidade humana de reconhecer informações. Esta habilidade rara permite que pessoas possam ouvir cores, sentir o sabor de sons, entre outras misturas de sentidos. A partir de uma análise de trabalhos correlatos sobre a sinestesia em sistemas computacionais, foi possível estabelecer que existe uma falta de um processo para o desing de interfaces com caracterísitcas sinestésicas mais generalista e testes com usuários reais. Desta forma foi desenvolvido um processo que se adapta as características sinestésicas da interface e validado através do desenvolvimento de uma aplicação, o Genius Vibe. Os resultados mostraram que o modelo de processo se adaptou bem ao desing da interface e através de testes com usuários reais percebeu-se que a sinestesia fez com que a interface fosse mais atrativa.
  • JEFFERSON BARBOSA BELO DA SILVA
  • Uma Heurística Simplificada para Funções Custo de Planejadores da Família A*
  • Data: 21/08/2015
  • Mostrar Resumo
  • Uma das principais questões relacionados ao tema da robótica móvel é descobrir a maneira mais eficiente para realizar a navegação, de um ponto a outro no ambiente, com máxima segurança e despendendo a menor quantidade de tempo e de recursos computacionais possível. À vista disso, o presente trabalho se motiva a desenvolver uma melhoria heurística que possa ser aplicável às funções custo dos principais algoritmos baseados na família A* e que propõe utilizar, de forma mais eficiente, os recursos computacionais disponíveis, aperfeiçoando assim, os resultados obtidos através dos principais algoritmos de buscas aplicados à robótica móvel. A mesma tem o objetivo de minimizar a quantidade de colisões, a duração do trajeto, bem como o tempo de processamento através da minimização da importância da variável g(n) - responsável em armazenar informações subutilizadas do passado dos algoritmos. Para visualizar os efeitos dessa modificação, um levantamento das melhores estratégias de busca em ambiente estático e dinâmico foi realizado e, através deste, foram analisados os quatro melhores e mais atuais algoritmos destacados pela literatura técnica especializada. Algumas comparações foram efetuadas considerando ambientes estáticos e altamente dinâmico com diferentes direções de busca e parâmetros que visavam mensurar a qualidade das trajetórias geradas. Em seguida, esses foram novamente analisados com suas respectivas funções custo modificada. Os resultados da comparação demonstraram que o algoritmo R*, com direção de busca direta, é o mais eficiente para diferentes espaços e pesquisas. No entanto, a modificação em suas respectivas funções custo proporcionou uma melhora significativa nos já excelentes resultados conquistados pelos algoritmos originais. Em ambientes estáticos, esta modificação se mostrou mais eficaz para problemas grandes e complexos, os que são efetivamente utilizados por robôs reais. Em ambientes altamente dinâmicos, a mesma apresentou uma redução considerável no tempo de planejamento e no número de iterações para localizar o objetivo, bem como reduziu a utilização de memória o que, consequentemente, tornou os robôs mais ágeis e habilidosos.
  • JOSE CLAUDIO VEIRA E SILVA JUNIOR
  • Verificação de Projetos de Sistemas Embarcados Através de Cossimulação Hardware/Software
  • Data: 17/08/2015
  • Mostrar Resumo
  • Este trabalho propõe um ambiente para verificação de sistemas embarcados heterogêneos através da cossimulação distribuída. A verificação ocorre de maneira síncrona entre o software do sistema e plataforma de hardware usando a High Level Architecture (HLA) como um middleware entre o dispositivo de hardware e o modelo simulado. A novidade desta abordagem não é apenas fornecer suporte para simulações, mas também permitir a integração sincronizada com todos os dispositivos de hardware físico. Neste trabalho foi utilizado o Ptolemy como uma plataforma de simulação. A integração do HLA com Ptolemy e os modelos de hardware abre um vasto conjunto de aplicações, como o de teste de vários dispositivos ao mesmo tempo, executando os mesmos, ou diferentes aplicativos ou módulos, a execução de diferentes dispositivos embarcados para a melhoria do desempenho ou execução colaborativa. Além disso a abordagem de utilização do HLA, permite que sejam interligados ao ambiente, qualquer tipo de robô, assim como qualquer outro simulador diferente do Ptolemy. Estudo de casos são apresentado para provar o conceito, mostrando a integração bem sucedida entre o Ptolemy e o HLA e a verificação de sistemas utilizando Hardware-in-the-loop e Robot-in-the-loop.
  • TEOBALDO LEITE BULHOES JUNIOR
  • Algoritmos Exatos para o Problema da Edição de p-Clusters
  • Data: 21/07/2015
  • Mostrar Resumo
  • Este trabalho trata do Problema de Edição de p-Clusters (p-PEC), o qual consiste em realizar um número mínimo de edições (adições ou remoções de arestas) em um grafo G de modo a transformá-lo em uma união disjunta de p cliques (ou clusters), sendo G e p dados de entrada. O p-PEC é um problema NP-Difícil que possui aplicações em áreas como biologia computacional e aprendizagem de máquina. Para resolvê-lo, foram propostas duas novas formulações matemáticas e melhorias em uma formulação proveniente da literatura, bem como novas desigualdades válidas. As três formulações consideradas foram estudadas tanto teoricamente, através da comparação entre as relaxações lineares, quanto empiricamente, através do desenvolvimento de três algoritmos exatos: dois baseados em Branch-and-Cut (BC) e um baseado em Branch-and-Price (BP). Os algoritmos foram testados em instâncias com até 211 vértices. Os resultados mostram o impacto da razão entre p e o número de vértices, da densidade do grafo e das desigualdades nos desempenhos dos algoritmos. No geral, os algoritmos BC foram superiores ao algoritmo BP. Porém, em algumas instâncias, os melhores limites duais foram obtidos pelo algoritmo BP.
  • YURI GIL DANTAS
  • Estratégias para Tratamento de Ataques de Negação de Serviço na Camada de Aplicação em Redes IP
  • Data: 14/07/2015
  • Mostrar Resumo
  • Ataques de Negação de Serviço Distribuído (Distributed Denial of Service - DDoS) estão entre os ataques mais perigosos na Internet. A abordagem desses atacantes vem mudando nos últimos anos, ou seja, os ataques DDoS mais recentes não têm sido realizados na camada de transporte e sim na camada de aplicação. A principal diferença é que, neste último, um atacante pode direcionar todo ataque para uma aplicação específica do servidor, gerando menos tráfego na rede e tornando-se mais difícil de detectar. Tais ataques exploram algumas peculiaridades nos protocolos utilizados na camada de aplicação. Este trabalho propõe uma nova defesa (SeVen) para ataques DDoS na Camada de Aplicação, baseada em Adaptive Selective Verification (ASV) um mecanismo defesa para ataques DDoS na camada de transporte. Foram utilizadas duas abordagens para validar o SeVen: 1) Simulação: Todo o mecanismo de defesa foi formalizado em Maude e simulado usando um modelo estatístico (PVeStA). 2) Experimentos na rede: Análise da eficiência de SeVen, implementado em C++, em um experimento real na rede. Em ambas abordagens, foram investigados três ataques direcionados ao Protocolo HTTP. Nesses ataques, apesar de terem perfis diferentes, SeVen obteve um elevado índice de disponibilidade.
  • DORGIVAL PEREIRA DA SILVA NETTO
  • Promovendo Modularidade em um Processo de Engenharia Requisitos para Linhas de Produto de Software
  • Data: 13/07/2015
  • Mostrar Resumo
  • Abordagens de Engenharia de Requisitos Orientadas a Objetivos capturam tanto os objetivos dos stakeholders como os requisitos do software a ser desenvolvido, de modo que este último corresponda ao que realmente os stakeholders desejam. Modelos de objetivos são capazes de capturar as similaridades e variabilidades de uma Linha de Produto de Software (LPS), mas não conseguem descrever o comportamento detalhado de suas funcionalidades. Diante dessa limitação, o processo GS2SPL (Goals and Scenarios to Software Product Lines) foi definido para obter sistematicamente, a partir de modelos de objetivos, modelos de features e especificações de cenários de casos de uso com variabilidade. Entretanto, a variabilidade da LPS e o conhecimento de configuração ficam entrelaçados nos cenários de caso de uso, o que prejudica a manutenção e reuso dos artefatos. A fim de solucionar este problema, foram propostas técnicas de especificação de cenários de casos de uso com separação de interesses transversais (ou, simplesmente, cenários aspectuais). Uma destas técnicas é o MSVCM (Modeling Scenario Variability as Crosscutting Mechanisms), que especifica a variabilidade da LPS separadamente do conhecimento de configuração e define um processo para configurar as especificações de produto. Assim, este trabalho propõe uma extensão do GS2SPL visando obter, sistematicamente, modelos de features e especificações de cenários aspectuais em MSVCM, a partir de modelos de objetivos. Esta abordagem chama-se GAS2SPL (Goals and Aspectual Scenarios to Software Product Lines) e seu processo será avaliado com o exemplo MyCourses - A Course Scheduling System. A avaliação foi realizada através de um estudo comparativo entre os artefatos do MyCourses gerados pelas abordagens GS2SPL e GAS2SPL, levando-se em consideração a modularidade (espalhamento de features e entrelaçamento de cenários) e, quão detalhado são as composições e o conhecimento de configuração (expressividade). Depois de avaliar a nossa abordagem, percebemos que há redução no espalhamento de features e entrelaçamento de cenários, e o detalhamento do conhecimento de configuração na nossa abordagem torna-o mais simples de entender do que sua representação na abordagem GS2SPL.
  • RAFAEL HENRIQUE ASSIS DE CASTRO
  • Uso de Interação Natural em Simulador de Procedimentos para Treinamento no Setor Elétrico.
  • Data: 23/06/2015
  • Mostrar Resumo
  • Simuladores de procedimentos têm sido utilizados em diversas áreas para auxiliar a execução de diversas tarefas. O uso de interfaces que facilitem a manipulação das ações, nas diversas fases da execução da tarefa, no contexto do simulador, pode ser um importante componente para facilitar o uso por partes dos profissionais. Sendo o setor elétrico composto por diversos procedimentos de alto risco, há uma grande necessidade do bom treinamento dos seus operadores. Visando auxiliar esse treinamento, o trabalho aqui descrito tem como principal objetivo, projetar e executar a integração de interação natural em simuladores de procedimentos para o setor elétrico, realizando testes de usabilidade com pessoas do setor. Como estudo de caso, foram analisados cenários já desenvolvidos no simulador ATreVEE 3D e desenvolvida uma nova versão do simulador, chamada ATreVEE IN, dessa vez usando o controle Leap Motion, um dispositivo usado para o rastreio das mãos. O ATreVEE IN é composto por ambientes virtuais, cuja interface com o usuário é realizada via comandos gestuais, utilizando uma representação virtual das mãos do usuário dentro do ambiente. Após o desenvolvimento da nova versão, os dois simuladores foram testados por usuários da área de engenharia elétrica, utilizando a aplicação de questionários de usabilidade para a coleta de resultados. Com esses resultados foi possível observar que ambas as versões tiveram desempenho satisfatório, mostrando um potencial para auxiliar o treinamento. E apesar da primeira versão do simulador ter obtido resultados melhores que a versão com interação natural, acredita-se que isso se dá, em parte, pela falta de experiência dos usuários com esse tipo de dispositivo. Usuários que já possuíam experiência com interação gestual obtiveram melhor desempenho na execução das tarefas com o ATreVEE IN.
  • OSWALDO EVARISTO DA COSTA NETO
  • Proposta de uma abordagem sistêmica para o planejamento e monitoramento de atividades em cursos de graduação à distância.
  • Data: 17/06/2015
  • Mostrar Resumo
  • Na educação à distância, professores e tutores são responsáveis pela mediação da aprendizagem do aluno, mas para que possa acontecer de maneira satisfatória, se faz necessária a utilização de tecnologias e metodologias que lhes permitam planejar e monitorar as atividades atribuídas aos alunos. O exercício da docência em cursos de graduação à distância tem sido um desafio para os professores das disciplinas curriculares principalmente com relação às atividades atribuídas aos alunos. O presente trabalho de pesquisa apresenta uma metodologia para uma abordagem sistêmica no planejamento e monitoramento de atividades em cursos de graduação à distância que associada à utilização de sistemas de apoio ao ambiente virtual de aprendizagem possibilitará aos professores atribuírem as atividades sem sobrecarregar os alunos do curso.
  • ELIZA RIBEIRO DE OLIVEIRA
  • O Uso de Dispositivos Multi-Sensoriais para Promoção do Brincar em Crianças com Paralisia Cerebral
  • Data: 15/06/2015
  • Mostrar Resumo
  • A evolução nas interfaces de usuário tem mostrado uma forte tendência na utilização de interfaces tangíveis, em especial, as interfaces tangíveis que promovem uma experiência sensorial. Nesse contexto, a utilização desse tipo de recurso pode ser interessante em diferentes contextos, onde se destacam os cenários no qual o aspecto sensorial é determinante para a interação, como a atuação das tecnologias assistivas. O objetivo deste estudo é abordar o uso de dispositivos multi-sensoriais na promoção do brincar em crianças com Paralisia Cerebral (PC). A paralisia cerebral (PC) refere-se a uma série de síndromes clínicas caracterizadas por desordens motoras e alterações posturais permanentes que podem ou não estar associadas com disfunção cognitiva e distúrbios da fala. Devido à restrita condição motora, o envolvimento em jogos e brincadeiras se torna difícil para crianças com PC. Nosso desafio é abordar o uso de tecnologias assistivas através do uso de dispositivo multi-sensorial no desenvolvimento de jogos interativos para crianças com PC. O dispositivo multi-sensorial utilizado é uma bola robótica chamada Sphero. O uso de um dispositivo robótico permite manipular a bola remotamente, o que torna este recurso útil para crianças com deficiências físicas. Este estudo será realizado na clínica-escola de terapia ocupacional da Universidade Federal da Paraíba, onde iremos oferecer uma experiência de jogos interativos em intervenções de terapia ocupacional. Serão utilizados instrumentos para a avaliação e caracterização do paciente, bem como para a reavaliação após a intervenção. Serão feitas análises dos escores obtidos em cada instrumento avaliativo, de forma a detectar possíveis ganhos após a utilização do dispositivo multi-sensorial.
  • RAMON NOBREGA DOS SANTOS
  • Uma Abordagem Temporal para Identificação Precoce de Estudantes de Graduação a Distância com Risco de Evasão Utilizando Técnicas de Mineração de Dados
  • Data: 29/05/2015
  • Mostrar Resumo
  • Com a utilização de técnicas de mineração de dados, mais comumente os algoritmos de Classificação, pode-se construir modelos preditivos capazes de identificar precocemente um estudante com risco de evasão. Diversos estudos utilizam dados obtidos de um Ambiente Virtual de Aprendizagem (AVA) para a construção de modelos preditivos de desempenho em uma disciplina de um curso. Porém, nenhum estudo foi realizado com o objetivo de desenvolver um modelo de predição de evasão, para um curso de graduação a distância de maior duração, que integre trabalhos que fazem a predição de desempenho a partir de um AVA, possibilitando uma predição da evasão antecipada durante o primeiro semestre. Assim, este trabalho propõe uma abordagem de identificação de evasão em um curso de graduação a distância a partir da utilização da técnica de classificação por regras de decisão para, primeiramente, identificar as disciplinas e os limites de notas que mais influenciam na evasão para que os modelos preditivos de desempenhos em um AVA possam ser mais úteis no tocante a evasão de um aluno ao longo de todo o curso de graduação. Foram realizados experimentos com quatro algoritmos de Regras de Decisão: o JRip, o OneR, o PART e o RIDDOR. A partir da utilização da abordagem temporal proposta foi possível comprovar sua vantagem, uma vez que foram obtidos melhores desempenhos preditivos ao longo dos semestres e foram descobertas importantes regras para a identificação precoce de um estudante com risco de evasão. Entre os algoritmos estudados, JRip e PART obtiveram os melhores desempenhos preditivos. A partir da metodologia proposta de partições, na qual os atributos dos modelos preditivos são aplicados de forma incremental, foi possível aferir ganhos nos desempenhos preditivos e nas qualidades das regras encontradas.
  • ANNA CAROLINA SOARES MEDEIROS
  • Processo de Desenvolvimento de Interfaces de Usuário Baseadas em Gestos
  • Data: 26/05/2015
  • Mostrar Resumo
  • A utilização da nossa linguagem corporal para se comunicar com sistemas computacionais é uma característica cada vez mais possível e aplicável no mundo real. Essa fato é potencializado pela evolução das soluções comerciais baseadas em reconhecimentos de gestos. Uma interface de gestos complementa ou substitui a forma de navegação de uma interface convencional, cabe ao desenvolvedor escolher a opção mais adequada para a sua aplicação. Assim quando optamos pelo uso de gestos, os gestos serão responsáveis por acionar as funções oferecidas pelos sistemas. O presente trabalho apresenta um processo de desenvolvimento de interfaces de usuário centrado na escolha de gestos. O processo proposto deve auxiliar designers de interfaces a integrarem interação natural em suas aplicações de forma mais sistemática.
  • JARBELE CASSIA DA SILVA
  • Uma análise das interações discentes em fóruns de discussão online de Ambientes Virtuais de Aprendiz
  • Data: 08/05/2015
  • Mostrar Resumo
  • O desenvolvimento de estudos referentes a cursos de educação à distância, ou E-Learning, têm se tornado frequentes no cenário acadêmico-científico atual, visto o número crescente de cursos ministrados nessa categoria de ensino e as possibilidades de colaboração entre os participantes interposto pelos Ambientes Virtuais de Aprendizagem (AVA). As discussões online estabelecidas tornam os alunos engajados na partilha da informação e do conhecimento, de modo a estabelecer perspectivas de interação com outros alunos. Neste sentido, esta dissertação visa investigar o potencial gerado pelo uso de técnicas de Análise de Redes Sociais (ARS) aplicado à análise das interações entre alunos de um curso à distância que estabelecem comunicação em fóruns de discussão online, a fim de conhecer padrões de interação que podem ter influência na aprendizagem do aluno. Os resultados obtidos evidenciam que através da aplicação das métricas de centralidade de grau, centralidade de intermediação e das métricas de comportamento no grupo (grau de coesão e grau de heterogeneidade) é possível perceber que a interação estabelecida nos fóruns de discussão reflete o desempenho dos alunos no curso. Salienta-se também que é possível correlacionar os dados de desempenho dos alunos, com seus índices referentes a aplicação das métricas de ARS mencionadas. Esta pesquisa buscou contribuir à área de E-Learning oferecendo estratégias de análise das interações detectadas em fóruns de discussão online em AVAs, de forma a propiciar aos professores informações de apoio ao desenvolvimento de estratégias para monitoramento e gerenciamento da aprendizagem de alunos em cursos a distância.
  • AYSLÂNYA JERONIMO WANDERLEY
  • Um modelo para avaliação de relevância científica baseado em métricas de Análise de Redes Sociais
  • Data: 30/03/2015
  • Mostrar Resumo
  • A tarefa de avaliar a relevância científica de um pesquisador nem sempre é trivial. Geralmente esse processo é baseado em índices que consideram a produção e o impacto do mesmo em sua área de pesquisa. Entretanto, a literatura aponta que tais indicadores tomados isoladamente são insuficientes uma vez que desconsideram os padrões de relação nos quais os pesquisadores se inserem. Além disso, muitos trabalhos já comprovaram que as relações de colaboração exercem forte impacto sobre a relevância de um pesquisador. Nesse contexto, entende-se que a modelagem e análise dessas relações pode ajudar a construir novos indicadores que complementem o processo de avaliação vigente. Sendo assim, o objetivo deste trabalho foi especificar um modelo estatístico que permite avaliar a relevância científica de um pesquisador, definida pela detenção de bolsa de produtividade do Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq), baseado em métricas aplicadas às suas redes de colaboração científica. Para tanto foram aplicadas métricas de Análise de Redes Sociais (ARS) às redes de colaboração de 1592 docentes vinculados aos Programas de Pós-Graduação na área de Ciência da Computação que posteriormente serviram como base para construção de um modelo de Regressão Logística utilizando a técnica de validação cruzada 10-fold estratificada. O modelo proposto apresentou resultados bastante animadores e demonstrou que as métricas de ARS que mais influenciam na avaliação de relevância de um pesquisador são a Centralidade de Intermediação, o Grau Ponderado, o PageRank e o Coeficiente de Agrupamento Local, tendo as duas primeiras influência positiva e as duas últimas influência negativa. Isso demonstra que pesquisadores que desempenham um papel de intermediador dentro da rede e que costumam manter relacionamentos fortes com seus colaboradores são mais propensos a serem contemplados com bolsas de produtividade, enquanto que aqueles pesquisadores que possuem uma rede mais coesa e costumam colaborar com pesquisadores que já são líderes na sua área têm menor probabilidade de serem bolsistas.
  • ANGÉLICA FELIX MEDEIROS
  • UMA PROPOSTA DE PERSONALIZAÇÃO DE CONSULTAS EM DOCUMENTOS XML BASEADA EM PREFERÊNCIAS CONDICIONAIS
  • Data: 27/03/2015
  • Mostrar Resumo
  • O trabalho apresenta uma proposta de extensão da linguagem de consulta XQuery, denominada XQuery-Pref, para suporte a preferências condicionais. Com objetivo de tornar transparente para o usuário a execução de consultas escritas na linguagem XQuery-Pref, utiliza-se um sistema denominado XQPref, que é responsável pela elicitação de preferências dinâmicas e pelo processamento destas consultas personalizadas. Restringimos o escopo deste trabalho a documentos XML, tecnologia essencial para a gestão do conhecimento e divulgação de dados pela web, que diante da sobrecarga da informação, tem despertado a preocupação em personalizar os resultados de consultas de acordo com as necessidades de cada usuário.
  • IGOR LUCENA PEIXOTO ANDREZZA
  • ANÁLISE DE TÉCNICAS DE NORMALIZAÇÃO APLICADAS AO RECONHECIMENTO FACIAL
  • Data: 27/02/2015
  • Mostrar Resumo
  • A biometria oferece um mecanismo de autenticação confiável, que identifica os usuários através de suas características físicas e comportamentais. O problema do reconhecimento facial não é trivial, pois existem muitos fatores que influenciam na detecção e no reconhecimento como, por exemplo, a iluminação, a posição da face, cabelo, barba, etc. Este trabalho se propõe a analisar os efeitos de técnicas de normalização geométrica e de iluminação sobre métodos de reconhecimento de face, visando adequar esses métodos para ambientes não controlados. Os resultados mostram que a presença do plano de fundo contribui indevidamente para aumentar as taxas de acerto no reconhecimento de face, fato que ocorre em vários trabalhos presentes na literatura. As técnicas de normalização de iluminação e normalização geométrica, quando realizada com pontos precisos dos centros dos olhos, efetivamente ajudam na tarefa de reconhecimento facial.
  • MÁRCIA VALDENICE PEREIRA DO NASCIMENTO
  • Um método de reconhecimento de indivíduos por geometria da mão
  • Data: 27/02/2015
  • Mostrar Resumo
  • Nos últimos anos, o reconhecimento de indivíduos por meio de informações biométricas tem sido cada vez mais adotado nas mais diversas aplicações, sejam elas comerciais, governamentais ou forenses. Uma das razões para essa escolha fundamenta-se nas informações biométricas serem mais difíceis de adulterar, compartilhar, ocultar ou extraviar do que outras alternativas como cartões e senhas. Várias características dos indivíduos, sejam físicas ou comportamentais, podem ser utilizadas em um sistema biométrico, como por exemplo, impressão digital, face, voz, íris, forma de andar, impressão palmar, geometria da mão, entre outras. Diversos trabalhos têm explorado esses e outros traços produzindo mecanismos de reconhecimento cada vez mais seguros e precisos, mas nenhum é imune a falhas e ainda há muito a evoluir e a aprimorar nessa área. Com base nisso, esse trabalho apresenta uma nova proposta de reconhecimento biométrico baseado em geometria da mão. Um banco de dados com 100 indivíduos e amostras de ambos os lados das mãos foi utilizado. O processo de extração de características prioriza o conforto do usuário durante a captura e produz segmentação das mãos e dedos com precisão elevada. Ao todo, 84 atributos foram extraídos de cada indivíduo e o método foi avaliado sob a perspectiva de diferentes abordagens de classificação e verificação. Nos testes de classificação, técnicas de validação cruzada e subamostragem randômica estratificada foram utilizadas. Os experimentos demonstraram resultados competitivos quando comparados a outros métodos do estado da arte em geometria da mão, apresentando 100% de acurácia em diferentes estratégias de classificação e uma taxa EER de 0,75% no processo de verificação.
  • VIRGINIA PINTO CAMPOS
  • Um Sistema de Geração Automática de Roteiros de Autodescrição
  • Data: 27/02/2015
  • Mostrar Resumo
  • Um Sistema de Geração Automática de Roteiros de Autodescrição
  • ERICK VAGNER CABRAL DE LIMA BORGES
  • SUMARIZAÇÃO AUTOMÁTICA DE CENAS FORENSES
  • Data: 27/02/2015
  • Mostrar Resumo
  • A presença crescente de dispositivos de gravação de vídeo nas mais diversas áreas vêm proporcionando um aumento no uso destas imagens principalmente para fins investigativos. Isto faz com que a utilização de métodos e ferramentas que realizem a análise e o monitoramento automático de ambientes seja cada vez mais necessária para dar suporte técnico e de conhecimento aos investigadores, possibilitando que os resultados alcançados sejam os mais eficientes e eficazes possíveis. Este trabalho descreve o desenvolvimento de métodos de visão computacional que têm como objetivo extrair aspectos relevantes de cenas – imagens individuais, ou quadros ou sequências de quadros de vídeo - e utilizar a informação obtida com o propósito de sumarização. Os métodos propostos visam detectar e analisar movimentação, detectar faces classificando-as por gênero, efetuar reconhecimento de faces, realizar o rastreamento de faces humanas e reconhecer a cor predominante no vestuário de indivíduos. O sistema desenvolvido efetua a extração de informações relevantes, o que auxilia na redução do tempo necessário à inspeção por seres humanos, na interpretação e argumentação de casos e na documentação dos casos. Ao fim do trabalho, os métodos desenvolvidos apresentaram resultados compatíveis com os da literatura.
  • EWERTON LOPES SILVA DE OLIVEIRA
  • Classificação de tópicos para textos curtos em redes sociais
  • Data: 23/02/2015
  • Mostrar Resumo
  • Nos últimos anos um grande número de pesquisas científicas fomentou o uso de informações da web como insumos para a vigilância epidemiológica e descoberta/mineração de conhecimentos relacionados a saúde pública em geral. Ao fazerem uso de conteúdo das mídias sociais, principalmente tweets, as abordagens propostas transformam o problema de identificação de conteúdo em um problema de classificação de texto, seguindo o cenário de aprendizagem supervisionada. Neste processo, algumas limitações atribuídas à representação das mensagens, atualização de modelo assim como a extração de atributos discriminativos, surgem. Partido disso, a presente pesquisa propõe investigar o impacto no desempenho de classificação de mensagens sociais curtas através da expansão contínua do conjunto de treinamento tendo como referência a medida de confiança nas predições realizadas. Paralelamente, a pesquisa também teve como objetivo avaliar alternativas para ponderação e extração de termos utilizados para a classificação, de modo a reduzir a dependência em métricas baseadas em frequência de termos. Restringindo-se à classificação binária de tweets relacionados a eventos de saúde e escritos em língua inglesa, os resultados obtidos revelaram uma melhoria de F1 de 9%, em relação a linha de base utilizada, evidenciando que a ação de expandir o classificador eleva o desempenho de classificação, também para o caso da classificação de mensagens curtas em domínio de saúde. Sobre a ponderação de termos, tem-se que a principal contribuição obtida, está na capacidade de levantar termos característicos do conjunto de dados e suas classes de interesse automaticamente, sem sofrer com limitações de frequência de termos, o que pode, por exemplo, ser capaz de ajudar a construir processos de classificação mais robustos e dinâmicos ao qual façam uso de listas de termos específicos para indexação em consultas à bancos de dados externos (background knowledge). No geral, os resultados apresentados podem beneficiar, pelo aprimoramento das hipóteses levantadas, o surgimento de aplicações mais robustas no campo da vigilância, controle e contrapartida à eventos reais de saúde (epidemiologia, campanhas de saúde, etc.), por meio da tarefa de classificação de mensagens sociais curtas.
  • MOACIR LOPES DE MENDONÇA JÚNIOR
  • Metodologia para Análise de Relevância de Publicações através de Rede de Citações
  • Data: 13/02/2015
  • Mostrar Resumo
  • A pesquisa científica é definida como um conjunto de atividades que têm por objetivo a descoberta de novos conhecimentos de interesse para a solução de problemas existentes. O conhecimento científico não se resume na descoberta de fatos e leis novas, mas também em sua publicação. Trata-se de obter e comunicar resultados através de formas de produção científica. Visando compreender o complexo sistema de produção científica inúmeras técnicas de análise vêm sendo aplicadas em repositórios digitais. Essas técnicas objetivam a identificação de produções cientificas relevantes baseadas em indicadores. Neste sentido o presente trabalho de pesquisa tem como objetivo criar uma metodologia que possibilite da melhor maneira possível identificar publicações que são relevantes a determinadas áreas de conhecimento. Para isto utilizamos três contextos, o primeiro sobre a área de análise de redes sociais, o segundo sobre os anais dos 20 anos do webmedia e por último sobre área de sistemas embarcados. Como fonte de estudo nossa ferramenta de software conseguiu diversos resultados referentes as áreas de conhecimento entre ele a evolução de publicações para os veículos de publicação mais relevantes, a classificação das comunidades pertencentes a rede, e entre outros resultados.
  • DANILO DANTAS DA NÓBREGA TAVARES
  • Um modelo de features para jogos sérios voltados à saúde: uma abordagem baseada em linha de produtos de software
  • Data: 02/02/2015
  • Mostrar Resumo
  • A indústria de jogos sérios tornou-se uma das mais expressivas no ramo do entretenimento. Porém a produção de jogos sérios em geral tem enfrentado o desafio de atender a alta demanda do mercado. Para isso, uma das soluções é transformar a produção quase artesanal dos jogos sérios para à saúde numa espécie de manufatura, onde componentes são reusados, aumentado a produtividade. Tais jogos representam situações reais em ambientes virtuais, podendo ser utilizados para treinar, monitorar, capacitar e até mesmo para manter hábitos saudáveis. Esses jogos possuem várias características (features) em comum, onde podemos fazer o reuso dessas características para gerar novos jogos. Assim, foi realizada uma revisão sistemática da literatura para criar o modelo de features para jogos sérios voltados à saúde. Posteriormente, foi realizada a análise de vários jogos disponíveis na Internet, a fim de aprimorar o modelo de features. O modelo de features resultante foi avaliado quanto a sua utilidade e usabilidade através de um experimento envolvendo alunos de um curso de graduação.
2014
Descrição
  • ANA PAULA NUNES GUIMARAES
  • Recomendações para Avaliação da Experiência de Usuário em Aplicativos Móveis para Surdos
  • Data: 09/12/2014
  • Mostrar Resumo
  • O uso de dispositivos móveis traz grandes benefícios de conectividade para seus usuários. Contudo, o acesso à informação através desses dispositivos representa um novo desafio de interação para os usuários que possuem algum tipo de deficiência. Atualmente, a maioria das aplicações móveis possui barreiras de acessibilidade que dificultam ou impossibilitam a utilização por diversos indivíduos com necessidades especiais. Visando garantir o acesso ao conteúdo a todos os usuários independentemente de limitações físicas e mentais, este trabalho propõe um modelo de avaliação de interfaces de usuário voltado à acessibilidade em dispositivos móveis. O modelo proposto leva em consideração a experiência de usuários sem deixar de lado as especificidades do contexto móvel e do cenário de acessibilidade. Como resultados parciais, tem-se um conjunto de percepções observadas a partir de testes realizados ao avaliar uma aplicação móvel desenvolvida para deficientes auditivos. Resultados mostram os desafios e novas perspectivas ao avaliar a acessibilidade móvel, dado que poucos métodos consideram de forma acoplada esses dois contextos.
  • SARAH SOARES DE OLIVEIRA
  • ESTRATÉGIAS PARA GRAVAÇÃO E REPRODUÇÃO DE EXPERIÊNCIA TRIDIMENSIONAL EM TELEMEDICINA
  • Data: 03/10/2014
  • Mostrar Resumo
  • A Telemedicina é um campo que vem crescendo ao longo dos últimos anos e tem como principais benefícios a colaboração, o ensino à distância, a prevenção e o tratamento de doenças. A Computação Gráfica visa estudar, entre outros aspectos, a geração, a manipulação e a análise de imagens e modelos tridimensionais através do computador. A utilização de técnicas de Computação Gráfica em conjunto com sistemas de Telemedicina pode enriquecer as transmissões de vídeos de cirurgias, facilitar o entendimento dos problemas dos pacientes, melhorar a comunicação entre os cirurgiões e toda a equipe médica e prover melhorias em relação ao ensino e à aprendizagem. A proposta deste trabalho é elaborar e desenvolver uma estratégia para gravação e posterior reprodução de conteúdo tridimensional que simula as estruturas anatômicas do corpo humano, utilizados durante uma transmissão cirúrgica em tempo real. A experiência multimídia gerada pelos múltiplos fluxos de áudio, vídeo e modelos 3D é de grande relevância para os estudantes de Medicina que acompanham a transmissão, tanto ao vivo quanto de forma não simultânea e subsequente ao procedimento cirúrgico. Diante desse cenário, surge a necessidade de uma estratégia para viabilizar a gravação da experiência 3D no contexto da ferramenta Arthron, que já possui módulos para gravação de áudio e vídeo de cirurgias transmitidas em tempo real, mas não abrangem a gravação da experiência tridimensional.Assim, um sistema multimídia poderá utilizar a estratégia proposta para gravar algum conteúdo extra transmitido ao vivo e que posteriormente necessite ser reproduzido. Com a estratégia proposta, pretende-se fazer com que uma maior quantidade de membros de equipes médicas possa ter acesso a materiais gerados através de fluxos multimídia em tempo real, promovendo uma ampla capacitação independente de distâncias geográficas.
  • PEDRO HENRIQUE TOLENTINO DE MELO NOGUEIRA
  • Algoritmos para Alocação de Rota e Comprimento de Onda com Restrições de Energia e da Camada Física em Redes Ópticas
  • Data: 31/07/2014
  • Mostrar Resumo
  • Esta dissertação propõe dois novos algoritmos de roteamento e alocação de comprimento de onda, a saber, o EA-RWA (Energy Aware Routing and Wavelength Assigment) e o IEA-RWA (Impairment Aware Routing and Wavelength Assigment). Os algoritmos terão como característica, melhorar a eficiência energética em redes ópticas transparentes dinâmicas, sendo o primeiro mais simples, pois não se preocupa com as imperfeições da camada física. O EA-RWA é comparado com um algoritmo RWA tradicional/clássico que não leva em conta, no momento de admissão de conexões, restrições da camada física e nem consumo de energia. Já o IEA-RWA é comparado com um algoritmo RWA que leva em conta restrições da camada física (IA-RWA). As simulações numéricas mostram que o IEA-RWA apresenta melhor desempenho em vários aspectos.
  • IVANILDO ALVES DE MEDEIROS
  • DL-TUTOR: UMA FERRAMENTA DE APOIO À GESTÃO DA ATIVIDADE DA TUTORIA EM SISTEMAS DE EDUCAÇÃO A DISTÂNCIA
  • Data: 31/07/2014
  • Mostrar Resumo
  • É possível observar que o atual cenário da educação a distância nas IES Brasileiras tem mostrado um aumento na procura por Cursos a Distância. O MEC divulgou que este aumento foi de cerca de quinze por cento das matriculas realizadas nos cursos de nível superior (MEC 2013). Esta situação aponta claramente para uma expansão nas redes de ensino em ofertar cursos na modalidade a distância. Para poder atender e se adequar a este novo nível de complexidade é necessário adaptar os sistemas de acadêmicos e contar com ambientes virtuais de aprendizagem – AVAs - de forma a permitir que professores e alunos possam se beneficiar das novas facilidades oferecidas por estes ambientes. Verifica-se, entretanto, que os sistemas de gestão acadêmica e gestão da aprendizagem disponíveis não atendem as reais necessidades administrativas e pedagógicas dos coordenadores e professores no âmbito da EAD. Além disso, novos papéis foram criados para atender, de forma adequada, aos alunos de EAD, como por exemplo, o papel do Tutor. O foco central deste trabalho foi pesquisar as reais dificuldades encontradas por professores e coordenadores de cursos a distância na gestão das atividades dos Tutores, estabelecer as funcionalidades em um sistema desenvolvido para consulta aos dados das atividades dos tutores em um ambiente de ensino-aprendizagem, bem como oferecer elementos para auxiliar e agilizar a prática de coordenadores e professores na gestão das atividades dos tutores nas salas virtuais de aprendizagem. Para tanto, foram levantados os requisitos funcionais, realizada avaliação da plataforma Moodle, e implementada uma aplicação WEB para atender à gestão de atividades dos tutores no Moodle. O resultado final foi uma ferramenta denominada DL-TUTOR
  • RENE PEREIRA DE GUSMAO
  • O Uso de Metaheurísticas para o Problema de Roteamento e Atribuição de Espectro em Redes Ópticas Elásticas
  • Data: 31/07/2014
  • Mostrar Resumo
  • Neste trabalho foi estudado o problema de roteamento e alocação de rota (RSA) em redes ópticas elásticas. Este é um problema similar ao problema de roteamento e alocação de comprimentos de onda, este último sendo característico em redes ópticas roteadas em comprimentos de onda. O problema RSA tem como objetivo atribuir a menor quantidade de recursos de uma rede óptica elástica de tal forma que consiga atender ao máximo número de demandas definidas na matriz de tráfego cliente. Além do estudo sobre o problema, neste trabalho foram implementadas duas metaheurísticas, sendo elas o Iterated Local Search (ILS) e o Greedy Randomized Adaptative Search Procedure (GRASP), as quais utilizam os modelos matemáticos SSA e LP-CA na fase de busca local. Para implementar os modelos matemáticos e metaheurísticas, foi utilizada a IDE IBM iLOG CPLEX. Os resultados obtidos são apresentados através de gráficos, os quais demonstraram que as metaheurísticas conseguiram ser eficientes e competitivas, apresentando soluções de boa qualidade em um tempo computacional aceitável e até menor que os resultados apresentados pelos modelos exatos. Por fim, este texto apresenta uma discussão sobre os diferenciais e limitações deste trabalho, e apresenta direcionamentos para trabalhos futuros neste campo de estudo.
  • WESLEY WILLAME DIAS MENEZES
  • METAHEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DA VARIABILIDADE DO TEMPO DE RESPOSTA
  • Data: 31/07/2014
  • Mostrar Resumo
  • Com o advento dos avanços tecnológicos, cada vez mais se procura soluções que utilizem menos recursos, sejam mais rápidos e de baixo custo. Em virtude disso, este trabalho propôs uma abordagem metaheurística híbrida utilizando Greedy Randomized Adaptive Search Procedure (GRASP) e Iterated Local Search (ILS) aplicados ao Problema da Variabilidade do Tempo de Resposta. Este problema pode envolver desde alocação de recursos escassos, como por exemplo, máquinas industriais ou salas de reunião, passando pelo agendamento de clientes de um banco que requerem certas condições, o planejamento das propagandas de TV ou o percurso feito por caminhões de empresas transportadoras, dentre outros. Para a aplicação do procedimento, foram utilizados os movimentos de inserção de símbolos, deslocamento do mesmo, permuta de posição entre símbolos e de um movimento chamado double brigde, que é uma mistura dos movimentos de deslocamento e permutação envolvendo símbolos opostos. As estruturas de vizinhança compostas basearam-se nos movimentos descritos anteriormente, variando a quantidade de símbolos envolvidos. Desta forma, os resultados obtidos demonstram que tais procedimentos trouxeram resultados satisfatórios ao problema e condizentes quando comparados com a literatura.
  • ANDRE CALISTO SOUZA M GUEDES
  • Um Estudo sobre os Impactos dos Relacionamentos Sociais na Avaliação do Mérito Científico
  • Data: 31/07/2014
  • Mostrar Resumo
  • Técnicas de análise de redes sociais podem ser utilizadas para extrair conhecimento da rede por meio da análise das interações entre seus membros. Neste trabalho pretendemos aplicar técnicas de análise de redes sociais a redes formadas pela colaborações científicas entres pesquisadores. Pretendemos com isso avaliar se as relações de colaboração entre pesquisadores possuem alguma influência na avaliação do mérito científico. Utilizaremos como estudos de caso o processo de concessão das chamadas bolsas de produtividade em pesquisa do CNPQ na área de Ciência da Computação.
  • ANDRE CALISTO SOUZA M GUEDES
  • Um Estudo sobre os Impactos dos Relacionamentos Sociais na Avaliação do Mérito Científico
  • Data: 31/07/2014
  • Mostrar Resumo
  • Técnicas de análise de redes sociais podem ser utilizadas para extrair conhecimento da rede por meio da análise das interações entre seus membros. Neste trabalho pretendemos aplicar técnicas de análise de redes sociais a redes formadas pela colaborações científicas entres pesquisadores. Pretendemos com isso avaliar se as relações de colaboração entre pesquisadores possuem alguma influência na avaliação do mérito científico. Utilizaremos como estudos de caso o processo de concessão das chamadas bolsas de produtividade em pesquisa do CNPQ na área de Ciência da Computação.
  • HIDELBERG OLIVEIRA ALBUQUERQUE
  • GenNormas: Um Processo Genérico para Conformidade Legal na Engenharia de Requisitos
  • Data: 24/07/2014
  • Mostrar Resumo
  • O Framework Nòmos estende o Framework i* para alcançar a conformidade legal dos requisitos de sistemas de informação. A conformidade legal é uma exigência imposta por departamentos governamentais, a partir do conteúdo encontrado nas normas jurídicas. O não-cumprimento destas exigências por parte de um software pode acarretar transtornos legais e financeiros às empresas e suas soluções. Por outro lado, o fato do Nòmos ser dependente do i* pode ser uma barreira para a sua ampla adoção na indústria. Portanto, este trabalho propõe tornar o Nòmos independente de notação de modelagem de processos de negócio ou de requisitos de software, ao invés de ser aplicado exclusivamente no i*, como proposto originalmente.
  • LEANDRO FIGUEIREDO ALVES
  • Arquitetura Paralela em CUDA para Implementação do Algoritmo Non Local Means (NLM)
  • Data: 18/07/2014
  • Mostrar Resumo
  • A área de processamento de imagens digitais está evoluindo continuamente e, embora as áreas de aplicações sejam diversas, os problemas encontrados comumente convergem para os métodos capazes de melhorar a informação visual para a análise e interpretação. Uma das principais limitações correlatas com precisão de imagens é o ruído, ou perturbações na imagem. O método Non-Local Means (NLM) apresentado por Buades, Coll e Morel (2004) destaca-se como o método mais eficiente para filtragem de ruído. Apesar de possuir resultados de filtragem que se sobressaem em relação aos demais disponíveis na literatura, sua complexidade computacional é um empecilho para torná-lo prático em aplicações computacionais de uso geral, especialmente as de tempo real. Atualmente há na literatura científica diversos trabalhos visando a otimização do NLM, porém muitos sem ganhos consideráveis para facilitar o uso, o estudo e o aperfeiçoamento do método. Este trabalho apresenta novas propostas para reduzir a complexidade computacional do algoritmo alinhado com uma implementação otimizada em hardware densamente paralelo, onde se destacam as placas gráficas - ou GPU's - que possuem desempenho superior aos processadores de uso geral para dados vetoriais. Os resultados obtidos das propostas alcançaram um tempo de execução de 16.000 a 360.000 vezes mais rápido e com filtragem mais eficaz que o NLM original.
  • ANDREA FERNANDA FONTES BEZERRA
  • Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde
  • Data: 23/05/2014
  • Mostrar Resumo
  • -
  • ANDREA FERNANDA FONTES BEZERRA
  • Geração de layout de interfaces gráficas baseado em ontologias para documentos do Registro Eletrônico em Saúde
  • Data: 23/05/2014
  • Mostrar Resumo
  • -
  • DOUGLAS DOS SANTOS FERREIRA
  • Interação Natural por Meio de Gestos para Apoio a Docentes no Processo de Ensino em Saúde
  • Data: 29/04/2014
  • Mostrar Resumo
  • No campo de interação humano-computador, métodos de Interação Natural vem ganhando destaque por proporcionarem a comunicação entre usuário e máquina de maneira fácil e intuitiva, por meio da interpretação de ações naturais das pessoas. Os dispositivos de rastreamento óptico são importantes nesse contexto, pois proporcionam o rastreamento do corpo humano, obtendo informações que podem ser usadas para prover a interação de forma natural. No âmbito de desenvolvimento de sistemas de Realidade Virtual para saúde, há a necessidade de se produzirem formas de interação que se assemelhem àquelas comumente realizadas pelas pessoas em atividades do dia-a-dia. Devido às suas características intuitivas, a Interação Natural pode exercer um papel importante nesse cenário, beneficiando o processo de comunicação humano-computador. É importante destacar que alguns comportamentos naturais podem ser de origem cultural, gerando a necessidade de se identificar as especificidades do público-alvo no que diz respeito à interação com aplicações que proveem interfaces naturais. O objetivo geral deste trabalho é propor um conjunto de técnicas de Interação Natural por meio de gestos rastreados por dispositivos ópticos em sistemas de Realidade Virtual para apoio a docentes de saúde em atividades letivas. Este trabalho inclui o desenvolvimento e validação de um módulo de Interação Natural para um framework de desenvolvimento de sistemas de Realidade Virtual para saúde.
  • EDUARDO DE LUCENA FALCAO
  • Deaf Accessibility as a Service: uma Arquitetura Escalável e Tolerante a Falhas para o Sistema de Tradução VLIBRAS
  • Data: 10/03/2014
  • Mostrar Resumo
  • xx
  • THALLES ROBSON BARBALHO
  • Um Jogo Social para TV Digital Interativa
  • Data: 20/02/2014
  • Mostrar Resumo
  • Os jogos sociais são um fenômeno amplamente difundido na Web. Eles atraem milhões de jogadores e ampliam suas fronteiras a um público cada vez mais heterogêneo. Isto se deve muito pela popularidade das redes sociais onde muitos desses jogos são acomodados. Ao mesmo tempo, existe uma convergência cada vez mais granular entre TV e Web que traz para a TV muitas das aplicações que também fazem sucesso na Web. Assim, pode-se aproveitar da audiência da Web, para alavancar o interesse pelo conteúdo televisivo. Porém, ambas as plataformas diferem-se substancialmente: cada uma delas tem padrões de interação e características próprias. Esse trabalho analisa essas diferenças e sutilezas para propor uma adaptação mais adequada entre conteúdo da Web para TV. Busca-se um entendimento do que são os jogos sociais e suas mecânicas comuns, baseadas em interações que aumentam a empatia e a reciprocidade, tornando os jogos sociais atrativos e envolventes. Pretende-se ir ao encontro das aplicações sociais para TV Interativa atualmente disponíveis, na tentativa de determinar quais padrões de interação encontrados nos jogos sociais para Web também fazem sentido para TV. O objetivo principal é estabelecer uma série de requisitos para jogos sociais adequada à realidade televisiva, especialmente ao middleware Ginga. Um protótipo foi implementado em NCL/Lua, um conjunto de linguagens que possibilita a construção de aplicativos interativos para Ginga, como prova de conceito. Entrevistas foram realizadas junto a uma amostra de usuários para avaliar o protótipo.
  • THIAGO RODRIGUES MEDEIROS
  • Análise e Implementação de Algoritmos para a Aprendizagem por Reforço
  • Data: 14/02/2014
  • Mostrar Resumo
  • O Aprendizado por Reforço é um subcampo do Aprendizado de Máquina e pode ser definido como um problema de aprendizado. Um sistema inteligente que enfrenta esse problema, entende a partir de recompensas, se as ações que está realizando no ambiente são boas ou ruins. Existem vários métodos e técnicas encontradas na literatura para resolver os problemas de aprendizado por reforço, no entanto, cada uma delas possuem suas vantagens e desvantagens. A partir disso, esse trabalho apresenta uma biblioteca de aprendizado por reforço, chamada AI-RLLibrary. A AI-RLLibrary é uma biblioteca que possui o objetivo de facilitar, organizar e promover a reusabilidade de código, para a implementação de sistemas que possuem esse problema de aprendizado. Para a sua construção, foi realizado um levantamento bibliográfico dos principais métodos que solucionam o problema de aprendizado por reforço, visando a análise estatística dos mesmos, com o objetivo de encontrar vantagens e desvantagens e a partir dos resultados obtidos, modelar e implementar a biblioteca com base no método que obteve melhor exito na análise. Nesta dissertação está descrito todo o processo deste trabalho, desde o levantamento bibliográfico a análise dos métodos e construção da biblioteca.
  • MANOEL DE ALBUQUERQUE LIRA AMARO
  • Consultas Semânticas Baseadas em Linked Data para Ambientes de Convergência Digital (TVDi e Web)
  • Data: 12/02/2014
  • Mostrar Resumo
  • O surgimento da TV Digital trouxe, além da alta definição, o potencial da interatividade e metadados relativos à programação da TV. Porém, algumas informações disponibilizadas pelas emissoras podem não ser suficientes para o usuário tomar uma decisão sobre o que vai assistir. Esse trabalho tem como objetivo propor uma abordagem de Consultas Semânticas no ambiente da TV Digital Interativa baseada nos conceitos e padrões da Web Semântica, especificando uma arquitetura de Serviço Web com o objetivo de prôver um meio de enriquecimento dos metadados vindos da emissora, expandindo as informações e adicionando relacionamentos semânticos em um grafo de dados provenientes da nuvem Linked Data. Um Serviço Web de Consulta Semântica integrado à plataforma Knowledge-TV foi desenvolvido para validar essa abordagem.
  • VINICIUS SOUZA DOS SANTOS
  • Uma Abordagem para Seleção de Equipes Tecnicamente Qualificadas para Implementação de Projetos de Software
  • Data: 11/02/2014
  • Mostrar Resumo
  • Devido às necessidades atuais e grande demanda de produtos de software com cada vez mais qualidade, várias abordagens para desenvolvimento de software foram propostas. Entre estas, Linha de Produtos de Software (LPS) surgiu como uma abordagem promissora para a melhoria da qualidade de software e redução de custos e prazos devido sua alta capacidade de reúso. Outra abordagem promissora que tem sido adotada pelas organizações, como consequência da globalização, é o Desenvolvimento Distribuído de Software (DDS), que possibilita encontrar mão de obra qualificada e custos mais atrativos em empresas espalhadas pelo mundo. Ao adotar conjuntamente as abordagens de LPS e DDS, especialistas de domínio podem ser encontrados em várias equipes terceirizadas ou mesmo equipes de subsidiárias ou filiais localizadas em qualquer parte do mundo. Todavia, mesmo utilizando-se dessas abordagens que visam melhorar a qualidade dos produtos de software criados, não se pode garantir a qualidade dos mesmos se as equipes não possuírem os conhecimentos necessários e específicos para implementação dos diversos módulos de software. Assim, surge uma questão primordial: quais equipes são tecnicamente mais qualificadas para desenvolver cada módulo identificado num projeto de software? Considerando apenas dez equipes e dez módulos de software, é possível identificar 10.000.000.000 combinações possíveis entre módulos e equipes. Claramente, esse é um processo complexo para ser realizado pelo gerente de projetos utilizando apenas sua experiência, uma vez que um grande número de combinações pode ser identificado com um número relativamente pequeno de equipes e módulos de software. Assim, qualquer decisão tomada de maneira ad-hoc pode ser complexa, ineficiente e sujeita a erros. A fim de fornecer suporte para escolha de equipes distribuídas de desenvolvimento de software, podendo inclusive o projeto estar integrado em um cenário de Linhas de Produtos de Software, este trabalho apresenta uma abordagem de apoio à decisão que identifica um conjunto de equipes qualificadas tecnicamente para o desenvolvimento de cada módulo de software, baseado em requisitos técnicos dos módulos e capacidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira tem a intenção de produzir um artefato que representa os requisitos técnicos esperados para desenvolver cada módulo de software. Com base em tais requisitos, a segunda etapa tem por objetivo representar as habilidades técnicas de todas as equipes candidatas. Em seguida, a terceira etapa visa à definição de uma política que rege a seleção de equipes. Por fim, a quarta etapa processa as informações coletadas nas fases anteriores em um algoritmo de lógica fuzzy e realiza a seleção das equipes. Como saída, para cada módulo de software é gerado uma recomendação que indica o conjunto de equipes candidatas que possuem as qualificações técnicas mais adequadas para implementar os módulos de softwares segundo a política de seleção adotada.
  • DANILO CARLOS GOUVEIA DE LUCENA
  • Classificação Supervisionada com Programação Probabilística
  • Data: 10/02/2014
  • Mostrar Resumo
  • Mecanismos de inferência probabilísticos estão na intersecção de três áreas: estatística, linguagens de programação e sistemas de probabilidade. Esses mecanismos são utilizados para criar modelos probabilísticos e auxiliam no tratamento incertezas. As linguagens de programação probabilísticas auxiliam na descrição de alto nível desses tipos de modelos. Essas linguagens facilitam o desenvolvimento abstraindo os mecanismos de inferência de mais baixo nível, favorecem o reuso de código e auxiliam na análise dos resultados. Este estudo propõe a análise dos mecanismos de inferência implementados pelas linguagens de programação probabilísticas e apresenta estudos de caso dessas linguagens aplicados em sistemas de processamento de linguagem natural.
  • LARISSA LEONCIO PINHEIRO
  • Uma Abordagem Ontológica para Recomendação de Equipes Qualificadas em Projetos de Desenvolvimento Distribuído de Linhas de Produtos de Software
  • Data: 10/02/2014
  • Mostrar Resumo
  • As iniciativas de componentização de software e de desenvolvimento de software orientado a objetos, na década de 80, despertaram o interesse de desenvolvedores para as oportunidades e vantagens da reutilização de código, gerando assim o reuso em diversas etapas do desenvolvimento, como, por exemplo, documentação, especificação e modelagem, aumentando assim a busca por melhores oportunidades de negócio, sejam para reduzir custos de desenvolvimento ou obter ganhos de produtividade. A evolução destas ideias levou a formulação do modelo de Linhas de Produtos de Software, que representa um deslocamento no foco do paradigma tradicional de desenvolvimento de software. Dentro desse novo paradigma, as organizações que antes abordavam o desenvolvimento de software projeto a projeto, devem agora concentrar os seus esforços na criação e manutenção de uma linha de produtos de software, que serve de base para a produção de uma coleção de produtos pertencentes a uma “família”. Segundo [Clemente, 2002], um projeto de implantação de uma linha de produtos de software pode ser considerado um projeto de adaptação a uma tecnologia, ou a uma nova maneira de fazer negócio. Especificamente, no caso de linhas de produtos, ambas as definições se aplicam, tornando o projeto ainda mais delicado. Como toda mudança tecnológica, esse tipo de projeto deve envolver uma avaliação da situação atual da empresa, uma articulação do estado desejado e a elaboração de um plano para atingir este estado. No caso específico de linhas de produtos de software, por se tratar de um modelo que interfere diretamente na maneira de trabalhar da empresa, fatores extratecnológicos devem ser considerados, tais como: a adaptabilidade das pessoas, o tipo de treinamento necessário e a preparação do cliente para a nova maneira de trabalhar. Com o intuito de auxiliar na recomendação de equipes qualificadas em projetos de desenvolvimento distribuído de linhas de produtos de software, esta dissertação apresenta uma abordagem ontológica de apoio à decisão de gerentes de projetos, cujo objetivo é identificar um conjunto de equipes qualificadas para implementar cada módulo de software, levando em consideração os requisitos técnicos dos módulos e as habilidades técnicas das equipes. A abordagem proposta está estruturada em quatro etapas. A primeira etapa tem o objetivo de produzir um modelo de descrição que representa os requisitos técnicos esperados para implementar cada módulo de software. A segunda etapa tem o propósito de gerar um modelo de descrição que representa as habilidades técnicas das equipes candidatas a implementar os módulos de software. A terceira etapa tem o intuito de definir políticas para selecionar as equipes habilitadas a implementar os módulos de software. E, por fim, explorando uma base de dados ontológica, a quarta etapa processa as informações obtidas nas etapas anteriores e realiza a seleção das equipes habilitadas para a implementação dos módulos de software. Sendo assim, como resultado, para cada módulo de software, são geradas recomendações que indicam as equipes candidatas que possuam as habilidades técnicas mais adequadas para implementar os módulos de software.
  • SASKYA THEREZA ALVES GURGEL
  • Análise de Técnicas de Implementação Paralela para Treinamento de Redes Neurais em GPU
  • Data: 31/01/2014
  • Mostrar Resumo
  • Com a crescente expansão do volume de dados disponíveis e a latente necessidade de transformá-los em conhecimento e informação, se faz necessário o desenvolvimento de técnicas capazes de realizar a análise destes dados em tempo hábil e de uma maneira eficiente. Redes Neurais promovem uma análise de dados capaz de classifica-los, como também, predizem informações sobre estes. Entretanto, Redes Neurais propõem um modelo natural de computação paralela que requer técnicas de implementação com alto poder de processamento. O crescente desenvolvimento do hardware paralelo oferece ambientes com poder computacional cada vez mais robusto. A GPU classifica-se como hardware capaz de processar implementações paralelas de uma maneira eficiente e a um custo em constante redução. Sendo assim, apresenta-se uma técnica de implementação paralela de Redes Neurais com processamento em GPU. Este trabalho visa realizar uma análise comparativa entre diferentes técnicas de implementação encontradas na literatura e a técnica proposta neste trabalho. Resultados experimentais indicam a sobressaliência do modelo paralelo quando comparado a uma implementação sequencial com processamento em CPU.
  • WANDERSON GOMES DE SOUZA
  • Um Estudo de Casos para Auxílio à Definição de um Modelo de Portabilidade na Implementação de Algoritmos Simulados em Robôs Reais
  • Data: 31/01/2014
  • Mostrar Resumo
  • O desenvolvimento de algoritmos voltados para sistemas robóticos, em ambientes de simulação, auxilia na identificação e antecipação de muitos problemas antes mesmo de serem testados em ambientes reais. Porém, nada garante que um algoritmo avaliado em uma plataforma de simulação funcione quando migrado para robôs reais. A interferência de diversos fatores, como propriedades dos motores e sensores, bem como a falta de uma metodologia necessária para interação simulação/realidade, se caracteriza como um dos principais problemas desta transição, de modo que, existe um grande "gap" conceitual entre o desenvolvimento para ambientes reais e simulados. Este trabalho tem o objetivo de contribuir com a formalização de um modelo conceitual que evidencie o processo de transição, no qual é possível destacar as peculiaridades que carecem de uma maior atenção por parte dos desenvolvedores. Para isso, como estudo de casos, foi desenvolvido um algoritmo de anticolisão, que engloba diversas características de um sistema robótico, sendo realizada sua implementação tanto no simulador Unity3D, quanto em robôs reais desenvolvidos na plataforma Arduino. Os resultados foram obtidos e comparados através de uma análise quantitativa de gráficos originados pelo MATLAB. Todas as alterações necessárias foram classificadas e avaliadas, de forma que possamos ter uma ideia do modelo de transição inicial, o qual formalize as principais particularidades do projeto.
  • PEDRO BATISTA DE CARVALHO FILHO
  • Gerenciamento de Faltas em Grades Computacionais: Um Mapeamento Sistemático de Literatura
  • Data: 31/01/2014
  • Mostrar Resumo
  • Fundamentação: Uma grade computacional normalmente é formada por uma infra-estrutura de hardware e software heterogêneos ultrapassando limites administrativos. Essa característica aumenta a dificuldade na identificação de possíveis falhas que podem provocar uma parada inesperada da atividade submetida. Assim, um trabalho que mapeie as soluções já criadas por pesquisadores pode ajudar na identificação de lacunas e/ou saturação na área de gerenciamento de faltas. Objetivos: Este trabalho visa identificar, de forma sistemática, lacunas e áreas pouco exploradas nos trabalhos científicos focados no gerenciamento de faltas em grades computacionais com o intuito de auxiliar no melhor direcionamento de futuros esforços em pesquisas na área. Metodologia: Para este trabalho, é utilizado a metodologia de mapeamento sistemático, sendo a pesquisa composta por três fases para seleção dos estudos primários. Inicialmente foram obtidos dos engenhos de busca 8644 estudos primários, porém, após realizado o processo de triagem, restaram 257 estudos com auto grau de relevância para a área de pesquisa abordado neste mapeamento. Conclusão: Através da sumarização e classificação dos dados extraídos, identificou-se que pouco se explorou as técnicas de prevenção, previsão e remoção de falta. Dentre o grupo de estudo relacionados que abordam a tolerância a falta, identificamos uma lacuna no grupo de estudos que utilizam técnicas a nível de workflow.
  • PABLO ANDREY ARRUDA DE ARAUJO
  • Análise da mobilidade urbana através de dados da rede de telefonia móvel celular
  • Data: 31/01/2014
  • Mostrar Resumo
  • Com o crescimento econômico vivido nos últimos anos, muitas cidades brasileiras têm também se deparado com problemas como o aumento populacional, congestionamento de veículos e a violência. Ao mesmo tempo, o poder aquisitivo dos habitantes tem crescido, permitindo que muitos pudessem adquirir novos equipamentos, como os telefones celulares, tendo o Brasil ultrapassado a barreira de um telefone celular por habitante. Com esse cenário, surgiram novas áreas a serem exploradas em pesquisas. Este trabalho analisou como o uso de sistemas de simulação computacional pode ser utilizado no processo de monitoramento urbano, utilizando dados da rede de telefonia móvel celular.
  • ANGELO LEMOS VIDAL DE NEGREIROS
  • Desenvolvimento e Avaliação de Simulação Distribuída para Projeto de Sistemas Embarcados com Ptolemy
  • Data: 29/01/2014
  • Mostrar Resumo
  • Atualmente, sistemas embarcados têm apresentado grande poder computacional e consequentemente, alta complexidade. É comum encontrar diferentes aplicações sendo executadas em sistemas embarcados. O projeto de sistemas embarcados demanda métodos e ferramentas que possibilitem a simulação e a verificação de um modo eficiente e prático. Este trabalho propõe o desenvolvimento e a avaliação de uma solução para a modelagem e simulação de sistemas embarcados heterogêneos de forma distribuída, através da integração do Ptolemy II com o High Level Architecture (HLA), em que o último é um middleware para simulação de eventos discretos distribuídos. O intuito dessa solução é criar um ambiente com alto desempenho que possibilite a execução em larga escala de modelos heterogêneos. Os resultados dos experimentos demonstraram que o uso da simulação não distribuída para algumas situações pode ser inviável, como também o uso de simulação distribuída com poucas máquinas, como, uma, duas ou três máquinas. Foi demonstrado também que o speedup de fator quatro foi obtido quando o modelo com quatro mil atores foi distribuído em oito diferentes computadores.
  • CLODOALDO BRASILINO LEITE NETO
  • Gerenciamento de Faltas em Computação em Nuvem: Um Mapeamento Sistemático de Literatura
  • Data: 22/01/2014
  • Mostrar Resumo
  • Fundamentação: Com o grande crescimento da popularidade da computação em nuvem, observa-se que um desafio nessa área é; gerenciar falhas que possam ocorrer nas grandes infraestruturas implantadas para dar suporte à computação como serviço, que por serem extensas, possuem maior ocorrência de faltas, falhas e erros. Um trabalho que mapeie as soluções já criadas por pesquisadores de maneira simples e eficiente pode ajudar a visualizar oportunidades e saturações nesta área de pesquisa. Objetivos: Este trabalho visa mapear o conhecimento científico produzido sobre gerenciamento de faltas em computação em nuvem de forma a auxiliar na identificação de lacunas que possam representar novas oportunidades de pesquisa na área. Metodologia: Para este trabalho utiliza-se a metodologia de pesquisa baseada em evidências através do método de mapeamento sistemático de literatura, sendo a pesquisa construída em três etapas de seleção de estudos. Método: Conduzimos um mapeamento sistemático para coletar, filtrar e classificar trabalhos científicos na área. Foram encontrados 4535 artigos científicos nos grandes engenhos de busca que, depois de 3 etapas de filtragem, foram reduzidos a 166. Tais artigos foram classificados de acordo com a taxonomia definida neste trabalho. Resultados: Observa-se que IaaS é a área mais explorada nos estudos selecionados. As funções de gerenciamento de faltas mais exploradas são Tolerância e Remoção, e os atributos mais frequentes são Confiabilidade e Disponibilidade. A maioria dos trabalhos foram classificados, em relação ao tipo de pesquisa, como Proposta de Solução Conclusão: Este trabalho sumariza e classifica o esforço de pesquisa conduzido em Gerenciamento de Faltas em Computação em Nuvens, provendo um ponto de partida para pesquisas futuras nesta área.
2013
Descrição
  • MAINARA RODRIGUES NOBREGA
  • MERCI: UM SISTEMA INTERATIVO PARA CINEMA DIGITAL
  • Data: 16/12/2013
  • Mostrar Resumo
  • O cinema tem evoluído continuamente desde a sua criação. Passou a ter som, cores, efeitos visuais, especiais, tridimensionais, multissensoriais, e agora interatividade. Tais mudanças têm proporcionado ao público experiências cada vez mais realistas durante a exibição de um filme. Estas podem ser obtidas através de tecnologias implantadas no audiovisual e, algumas vezes, na própria sala de projeção para captação de movimento da plateia ou da voz de espectadores, com a finalidade de proporcionar uma interação direta do espectador com o filme exibido. Novas versões de ferramentas tecnológicas surgem constantemente para auxiliar a cinematografia, no entanto, as técnicas que as antecederam não deixam de existir, todas têm se encaixado, agregando-se em um processo de evolução e reposicionamento técnico tornando possível o uso da interatividade. Apresentamos aqui um sistema intitulado MERCI, que proporciona a interação entre espectadores e o audiovisual através do envio de mensagens de texto realizado por meio de dispositivo móvel. O MERCI também fornece o suporte técnico à montagem não linear da narrativa audiovisual e ao gerenciamento de usuários. O diretor ou o montador da obra será o responsável pela manipulação destes aspectos. Alguns trabalhos foram comparados ao MERCI, entretanto este vem a oferecer um modelo de interatividade que se utiliza de uma nova forma para planejar e desenvolver a narrativa.

  • MAINARA RODRIGUES NOBREGA
  • MERCI: UM SISTEMA INTERATIVO PARA CINEMA DIGITAL
  • Data: 16/12/2013
  • Mostrar Resumo
  • O cinema tem evoluído continuamente desde a sua criação. Passou a ter som, cores, efeitos visuais, especiais, tridimensionais, multissensoriais, e agora interatividade. Tais mudanças têm proporcionado ao público experiências cada vez mais realistas durante a exibição de um filme. Estas podem ser obtidas através de tecnologias implantadas no audiovisual e, algumas vezes, na própria sala de projeção para captação de movimento da plateia ou da voz de espectadores, com a finalidade de proporcionar uma interação direta do espectador com o filme exibido. Novas versões de ferramentas tecnológicas surgem constantemente para auxiliar a cinematografia, no entanto, as técnicas que as antecederam não deixam de existir, todas têm se encaixado, agregando-se em um processo de evolução e reposicionamento técnico tornando possível o uso da interatividade. Apresentamos aqui um sistema intitulado MERCI, que proporciona a interação entre espectadores e o audiovisual através do envio de mensagens de texto realizado por meio de dispositivo móvel. O MERCI também fornece o suporte técnico à montagem não linear da narrativa audiovisual e ao gerenciamento de usuários. O diretor ou o montador da obra será o responsável pela manipulação destes aspectos. Alguns trabalhos foram comparados ao MERCI, entretanto este vem a oferecer um modelo de interatividade que se utiliza de uma nova forma para planejar e desenvolver a narrativa.

  • NISSTON MORAES TAVARES DE MELO
  • ESTUDO E DESENVOLVIMENTO DE UMA PLATAFORMA ACESSÍVEL PELA WEB PARA ACOMPANHAMENTO DE CONTEÚDOS INSTRUCIONAIS
  • Data: 02/12/2013
  • Mostrar Resumo
  • O uso crescente de ambientes virtuais de ensino/aprendizagem –
    AVA fez com que as Instituições de Ensino buscassem se beneficiar cada vez mais
    das possibilidades que esses ambientes oferecem. A estruturação, controle e
    acompanhamento do conteúdo instrucional que é ministrado em sala de aula, ou à
    distância, são um excelente exemplo e constituem o foco deste trabalho. O trabalho
    aqui apresentado foi desenvolvido em três fases: apresentação de uma proposta de
    estruturação de material instrucional em plano de curso, de forma a explicitar os
    conteúdos trabalhados em cada disciplina, suas relações com os objetivos
    pedagógicos a serem atingidos (competências e habilidades) e os recursos
    instrumentais e metodológicos que serão disponibilizadas na sua execução; estudo
    e proposta de uma arquitetura de sistema informatizado disponibilizado na WEB
    para atender, de forma segura, ágil e consistente aos requisitos levantados na
    primeira fase; implementação de uma aplicação em nível de prova de conceito
    instanciando a arquitetura proposta: o Sistema de Gestão e Controle de Conteúdo
    Instrucional (SGCCI). A aplicação desenvolvida foi utilizada na ocorrência de uma
    disciplina real e os resultados estão demonstrados e discutidos ao final deste
    trabalho.

  • STTIWE WASHINGTON FERREIRA DE SOUSA
  • MARKER: uma ferramenta para construção de aplicações interativas em T-Learning baseadas em técnicas de marcação em vídeo
  • Data: 13/11/2013
  • Mostrar Resumo
  • A produção de conteúdo interativo pode ser realizada de diversas maneiras e utilizando variadas técnicas. Cada técnica procura sempre associar um problema com a melhor solução. No caso da interatividade na TV, deve-se levar em conta a satisfação do telespectador e a melhor adequação da técnica ao conteúdo interativo. Técnicas de marcação em vídeo vêm sendo amplamente estudadas buscando-se promover o conteúdo interativo seja mais facilmente acessível pelo telespectador. Este trabalho apresenta a ferramenta MARKER para construção de aplicações interativas utilizando técnicas de marcação em vídeo.

  • JOÃO JANDUY BRASILEIRO PRIMO
  • FERRAMENTA GRÁFICA PARA MAPEAMENTO E POSICIONAMENTO DOS PADS
  • Data: 30/08/2013
  • Mostrar Resumo
  • As ferramentas CAD (computer-aided design) são utilizadas para facilitar o projeto e desenho de circuitos integrados (CI). O Floorplaning é uma importante etapa na fase de design do layout no desenvolvimento de um CI. Nesta etapa, os macroblocos são posicionados no chip, além de serem decididas: a localização dos pads de entrada e saída, a localização dos pads de alimentação e as estratégias de distribuição da alimentação e do sinal de clock pelo núcleo. Comumente, é feito um wrapper em HDL que mapeia as portas de entrada e saída do projeto em instâncias de Pads, com seus diferentes tipos, definidos pelo desenvolvedor e um arquivo que indica a posição de cada Pad no circuito. Dessa maneira, tanto esse mapeamento quanto tal posicionamento, em geral, são feitos manualmente por meio de scripts, gerando uma enorme dificuldade para os desenvolvedores, pois para um CI com uma quantidade razoável de entradas e saídas torna-se extremamente susceptível de falhas humanas bem como a ocasionar grande dificuldade na localização dos erros.  Esses arquivos, em geral, são utilizados em todas as ferramentas CAD e também pelos fornecedores de Design Kits, além disso, as ferramentas possuem sintaxes diferentes para os arquivos. Este trabalho mostra uma ferramenta gráfica capaz de fornecer aos desenvolvedores uma maneira mais fácil e intuitiva de gerenciar tanto o mapeamento quanto o posicionamento dos pads, tornando o processo mais rápido e menos susceptível a falhas humanas. Para validar o trabalho, a ferramenta é testada em um projeto de um CI.

  • Jailton Maciel Alexandre Segundo
  • Seleção Automatizada de Componentes de Software Orientada por Métricas Estruturais e Informações de Reuso
  • Data: 30/08/2013
  • Mostrar Resumo
  • A grande dificuldade de selecionar componentes de software ainda é um obstáculo para alcançar o sucesso do Desenvolvimento Baseado em Componentes (DBC). Com o crescimento do mercado de componentes, a tendência é sempre aumentar o número de opções para montagem de aplicações em diferentes contextos, tornando impraticável a seleção manual. Tratando de um problema com gigantesco espaço de busca e complexo, é requerida a automatização efetuada por técnicas de otimização. O trabalho proposto visa automatizar o processo de seleção de componentes utilizando técnicas da Engenharia de Software Baseada em Busca (ESBB), cuja técnica de otimização é orientada por métricas estruturais (i.e., conexões entre componentes de uma arquitetura de software) e informações de reuso (i.e., valores agregados ao próprio componente).

  • WAGNER SILVA COSTA
  • Abordagens heurísticas aplicadas ao Problema da Alocação Dinâmica de Espaços
  • Data: 12/08/2013
  • Mostrar Resumo
  •  

    O Problema da Alocação Dinâmica de Espaços (PADE) foi recentemente formalizado
    na literatura. Foi inspirado na necessidade de otimização da distância
    percorrida por recursos requeridos para realização de atividades na ocorrência de
    desligamentos planejados em centrais de energia elétrica. Em geral, o problema
    apresenta aplicações potenciais em projetos nos quais movimentar um recurso é uma
    tarefa difícil ou cara, ou nos quais o congestionamento desses recursos é indesejável,
    como em construção de pontes e atividades de mineração.
    Este problema é considerado difícil para se resolver computacionalmente e, portanto,
    a diculdade em encontrar uma solução ótima para instâncias de elevadas
    dimensões justica o uso de métodos aproximados. Este trabalho propõe um estudo
    detalhado do PADE e das principais técnicas referenciadas na literatura para resolu-
    ção de instâncias do mesmo. Além disso, são propostos novos métodos de construção
    e busca local e algoritmos baseados nas metaheurísticas VNS, ILS, GRASP e Busca
    Tabu. Este estudo inclui uma proposta de abordagem por meio de algoritmos exatos
    a m de se conseguir soluções ótimas, viáveis ou bons limites inferiores através
    do CPLEX, e ainda, a combinação de dois ou mais métodos, em uma metodologia
    híbrida.

     

    O Problema da Alocação Dinâmica de Espaços (PADE) foi inspirado na necessidade de otimização da distância percorrida por recursos requeridos para realização de atividades na ocorrência de desligamentos planejados em centrais de energia elétrica. Em geral, o problema apresenta aplicações potenciais em projetos nos quais movimentar um recurso é uma tarefa difícil ou cara, ou nos quais o congestionamento desses recursos é indesejável,como em atividades de mineração.Este problema é  computacionalmente difícil de se resolvido, logo obter  uma solução ótima para instâncias de elevadas dimensões justica o uso de métodos aproximativos. Este trabalho propõe a utilização da metaheurística GRASP para a resolução do PADE.

  • LISIEUX MARIE MARINHO DOS SANTOS ANDRADE
  • Meta-heurística C-GGVNS Aplicada à Otimização Global Contínua
  • Data: 08/08/2013
  • Mostrar Resumo
  • Este trabalho combina as meta-heurísticas C-GRASP e GVNS aplicadas à resolução de problemas de otimização contínua. O algoritmo utiliza uma versão contínua da meta-heurística GRASP para encontrar uma aproximação do mínimo global de funções não lineares, sem recorrer ao cálculo de derivadas. Com o mesmo intuito também foi desenvolvido um algoritmo baseado no GVNS contínuo. E finalmente foi contruída híbrida combinando as duas estratégias.

  • MOISES ROBERTO DE ARAUJO MOTA
  • Mapeamento Sistemático Sobre o Uso de Ontologias em Informática Médica
  • Data: 06/08/2013
  • Mostrar Resumo
  • Representação do Conhecimento é a área da Inteligência Artificial que lida como o conhecimento pode ser representado simbolicamente e manipulado de forma automática por programas de raciocínio. Na Ciência da Computação, Ontologia é uma técnica de Representação do Conhecimento que descreve uma especificação formal sobre certo domínio, sendo um entendimento compartilhado sobre o mesmo e um modelo formal e executável por máquina. A Informática Médica surge como uma nova área de pesquisa que combina as áreas de Ciência da Computação, Tecnologias da Informação e Medicina, e vem usufruindo inúmeras oportunidades, mediante a utilização de ontologias, para avançar o estado da arte em vários aspectos. Neste contexto, esta pesquisa tem o objetivo de identificar, quantificar e analisar o conhecimento produzido na área de Ontologias e Informática Médica utilizando o método de pesquisa Mapeamento Sistemático. Deste modo, tem-se uma visão geral da evolução desta área de pesquisa, apresentando sua evolução até o momento da construção do mapeamento. Foram analisados estudos entre os anos de 1986 e 2012, dos quais foram extraídos tópicos de pesquisa como, as principais ontologias utilizadas em informática médica, seus benefícios, como estão sendo validados ou avaliados as pesquisas nesta área, entre outros.

    A principal contribuição deste trabalho é fornecer uma visão geral da área de pesquisa, e entender quais são os principais usos de Ontologias neste contexto, bem como os benefícios de sua aplicação nas diversas sub-áreas da Informática Médica. Adcionalmente, identificar as lacunas existentes nas pesquisas atuais revelando novas oportunidades de pesquisa.

  • DEMETRIUS LACET RAMALHO DA SILVA
  • PASSEIO VIRTUAL NA TV DIGITAL: Apresentação interativa de lugares remotos utilizando a metodologia de imersão 360° do Google Street View
  • Data: 31/07/2013
  • Mostrar Resumo
  • Este trabalho apresentou a relação entre a TV Digital - através de seus recursos de interatividade - e passeios virtuais, no que tange a apresentação de lugares remotos tendo como base a metodologia empregada nos passeios virtuais do Google Street View1. De forma resumida explanou a evolução de alguns temas necessários ao bom entendimento do projeto como: Passeio/Tour virtual, Google Street View, Turismo e TV Digital, traçando paralelos e pontos de encontro entre estes fenômenos sociais e culturais, além de apresentar uma reflexão sobre o uso da imagem conceitual em detrimento do seu uso como representação exclusivamente visual. Foi apresentado nesta pesquisa um formato possível de adaptação à TV Digital de visitação a lugares remotos através de Tours panorâmicos 360°. Como validação da hipótese levantada, um aplicativo foi desenvolvido para TV Digital contendo um passeio virtual a um museu à luz dos métodos utilizados para desenvolvimento de passeios virtuais para internet, a fim de demonstrar o seu uso com êxito nessa nova plataforma. Como complemento, foi desenvolvido um sistema WEB capaz de gerar essa aplicação no formato NCL, próprio para TV Digital.
  • LEANDRO CAVALCANTI DE ALMEIDA
  • Ferramenta Computacional para Identificação e Bloqueio de Ataques de Negação de Serviço em Aplicações Web
  • Data: 31/07/2013
  • Mostrar Resumo
  • Tradicionalmente, os ataques de negação de serviço acontecem nas camadas de rede e transporte do modelo TCP/IP, utilizando protocolos como ICMP, UDP e TCP. Uma característica comum destes ataques é que eles afetam diretamente a infraestrutura de hardware do sistema alvo, fazendo com que o mesmo pare de responder a solicitações legítimas. Uma versão mais sofisticada de um ataque de negação de serviço, agora na camada de aplicação tem sido utilizada em muitos ataques deste tipo. Nestes casos usa-se o protocolo HTTP, por meio de seus métodos GET e POST. É possível observar que o atacante utiliza os métodos GET e POST de uma conexão HTTP para esgotar os recursos do serviço Web disponibilizado pelo servidor, ou seja, a infraestrutura de hardware do sistema alvo permanece quase que intacta. Este trabalho dissertativo tem como proposta de pesquisa apresentar um modelo de detecção e bloqueio em tempo real de ataques DDoS GET HTTP contra servidores Web, utilizando um sistema de detecção baseado em assinaturas de ataques. Experimentos comprovaram a eficácia do modelo proposto, no qual foi possível manter um serviço Web 100% disponível e com um tempo de resposta aceitável mesmo durante a ocorrência de um ataque de negação de serviço.

  • DANILO RANGEL ARRUDA LEITE
  • GSPROJECTS - UM AMBIENTE PARA SIMULAÇÃO DA GESTÃO DE PROJETOS DE SOFTWARE
  • Data: 31/07/2013
  • Mostrar Resumo
  • A aplicação deficiente de técnicas de gerenciamento em projetos de software muitas vezes acarreta no fracasso e possível cancelamento de um projeto. Uma das possíveis causas é a falta de um melhor entendimento das suas práticas essenciais.A utilização de simuladores em treinamento pode ter um alto poder de motivação podendo apresentar benefícios se comparado a outras formas tradicionais de aprendizado. Este trabalho tem por objetivo a elaboração e desenvolvimento de um jogo educacional para o ensino de gerenciamento de projetos de software em cursos de graduação na área de computação.Como validação da proposta, o jogo foi submetido a um grupo de alunos de graduação no curso de ciência da computação, tendo cumprido com a expectativa inicial de auxiliar no ensino-aprendizado da disciplina.

  • ROMULO COSTA DE MENEZES JUNIOR
  • Avaliação das Funcionalidades de um Sistema Baseado em Jogos para Gerenciamento e Acompanhamento Remoto de Terapia para Reabilitação Motora
  • Data: 30/07/2013
  • Mostrar Resumo
  • O tratamento fisioterapêutico pode se beneficiar da utilização de sistemas de informação baseados em jogos para estimular a prática dos exercícios de reabilitação e acompanhar a terapia. A popularização de dispositivos que capturam o movimento, como o Kinect, fomentou o desenvolvimento de tais aplicações para interagir com pacientes em sistemas de reabilitação física, permitindo que possam ser utilizados remotamente. Para que tais aplicações possam contribuir com o tratamento fisioterapêutico na clínica ou no domicílio do paciente, de forma remota, estas devem apresentar características motivacionais para auxiliar o paciente na execução correta dos movimentos, ser adaptável às necessidades dos pacientes e auxiliar o diagnóstico durante a evolução do tratamento. Desta forma, a partir de investigação e análise comparativa de trabalhos publicados na literatura, este trabalho buscou especificar e desenvolver os elementos mais importantes que um sistema para tratamento fisioterapêutico deve conter, em busca de um completo sistema baseado em jogos. Tal investigação resultou no desenvolvimento de um protótipo contendo todas as características desejáveis que foram identificadas e que poderá ser utilizada por profissionais de fisioterapia para auxiliar no tratamento fisioterapêutico.  As funcionalidades desenvolvidas foram experimentadas e avaliadas por profissionais de fisioterapia, a partir de questionários, para descrever a experiência de utilização e possíveis necessidades adicionais. A experimentação e os resultados do questionário revelaram que o sistema foi bem aceito entre os terapeutas e que já poderia ser utilizado no tratamento de diversas patologias. Entretanto, ainda é necessário desenvolver mais elementos lúdicos nos jogos, para melhorar a motivação; realizar pequenas correções na mecânica de detecção de movimentos e gerar relatórios sobre a evolução para um tratamento.

  • THIAGO HENRIQUE JACOB OLIVEIRA SOUSA
  • Impactos na aprendizagem da utilização de sistemas de resposta à audiência
  • Data: 30/07/2013
  • Mostrar Resumo
  • Sistemas de resposta à audiência já vêm sendo estudados em todo o mundo como formas de motivar e avaliar o corpo discente em sala de aula através do uso da tecnologia.  Estes sistemas tem o potencial de ser, para os educadores, uma ferramenta capaz de aperfeiçoar o processo de ensino e aprendizagem presencial.  Este trabalho discute a avaliação dos impactos na aprendizagem da utilização de um sistema de resposta à audiência no contexto de uma instituição de ensino superior no estado da Paraíba. A discussão abrangerá toda a fundamentação teórica, o desenvolvimento do sistema de resposta à audiência utilizado neste estudo desde os requisitos até a codificação e o estudo de caso realizado para avaliar os impactos da utilização deste, sendo os resultados coletados, analisados e as conclusões demonstradas. 

  • TIAGO DAVI NEVES DE SOUZA
  • Um Interpretador baseado na JVM para auxílio no ensino de Algoritmos e Estruturas de Dados como parte da ferramenta IGED
  • Data: 29/07/2013
  • Mostrar Resumo
  • Em disciplinas de Programação, Estruturas de Dados e Algoritmos de cursos de Computação, ferramentas que permitam que os alunos possam visualizar as alterações nas estruturas de dados ao longo da execução de um programa são de grande utilidade, já que elas auxiliam que os aprendizes entendam como os algoritmos operam sobre as estruturas de dados. Diversas ferramentas foram propostas desde [Brown e Sedgewick 1984], mas em muitas delas, as visualizações gráficas das estruturas através de animações só podem ser feitas através de programação pelos usuários. Assim, nesse trabalho é proposto um interpretador que gere as animações de forma automática a partir da execução do código em linguagem de montagem de bytecodes Java traduzidos a partir de um código de alto nível informado pelo usuário. Esse interpretador possui uma estrutura baseada na da JVM e será componente da ferramenta IGED [Netto et al. 2011]. Com isso, a arquitetura desse interpretador e seus requisitos para a ferramenta IGED foram definidos. Além disso, uma análise sobre uma possível utilização da Java HotSpot VM da Oracle como Interpretador do IGED está sendo feita, para que se possa definir a melhor abordagem e guiar trabalhos futuros. 

  • Thales Pordeus Ferreira
  • Uma Extensão da Visão Estrutural do NCL Composer para Integração de Código Imperativo
  • Data: 24/07/2013
  • Mostrar Resumo
  • Os requisitos das aplicações NCL, como a necessidade de conteúdo
    dinâmico resultado de processamento, tornam o seu desenvolvimento um
    desafio. Essas aplicações são definidas com uma parte declarativa e,
    adicionalmente, uma parte imperativa que relaciona os objetos de mídia
    com algum processamento de operações complexas (por exemplo, uma
    lógica descrita num script programado na linguagem Lua). Dentro do
    desenvolvimento de aplicações NCL, uma opção adotada pelos autores de
    documento é utilizar a visão estrutural do NCL Composer para
    relacionar de forma visual os objetos de mídia com os objetos de mídia
    imperativos. Atualmente, apesar do NCL Composer suportar o
    relacionamento com os objetos de mídia imperativos, é possível
    identificar uma ineficiência no tocante à integração de forma rápida e
    simples do código imperativo em uma aplicação NCL. O objetivo deste
    trabalho é propor uma extensão para a visão estrutural que permita
    melhor integrar objetos de mídia e código imperativo, de forma a
    diminuir o tempo de uso do conteúdo presente nas mídias imperativas. O
    trabalho traz também uma avaliação do impacto na produtividade do
    desenvolvimento de aplicações compatíveis com a especificação
    Ginga-NCL.

  • AMANDA DRIELLY DE SOUZA PIRES
  • Uma Abordagem para Identificação Semântica de Domínios de Aplicação em Ambientes de Convergência Digital
  • Data: 23/07/2013
  • Mostrar Resumo
  • O surgimento da Televisão Digital Interativa proporciona, além de ganho de qualidade na transmissão, a adição de novos recursos e serviços disponíveis ao usuário. Com o advento da convergência digital entre as plataformas de TV e Web, novas propostas de organização semântica de conteúdo foram desenvolvidas. Além disso, foi possível introduzir conceitos da Web Semântica e de representação do conhecimento que permitem descrever semanticamente os metadados de conteúdo através de ontologias. Esse trabalho propõe uma abordagem para identificação de domínios de aplicação no ambiente de convergência digital baseada em conceitos da Web Semântica e nas análises de similaridade léxica e semântica. Um componente, integrado ao sistema Knowledge TV, foi implementado para validar a abordagem.

  • DANYLLO WAGNER ALBUQUERQUE
  • UMA ABORDAGEM PARA ANÁLISE DA DISCUSSÃO POLÍTICA UTILIZANDO DADOS DE USUÁRIOS DO TWITTER
  • Data: 19/07/2013
  • Mostrar Resumo
  • As Redes sociais online têm se tornado extremamente populares, levando ao surgimento e à crescente popularização de uma nova onda de aplicações baseadas na Web. A presença deste tipo de mídia é importante uma vez que fornecem um tipo especial de debate que as formas convencionais não conseguem trazer. A proximidade que uma ferramenta como o twitter oferece aos usuários tem o poder de humanizar a figura de um candidato a partir da comunicação direta entre as partes, o que leva uma nova forma de comunicação entre os principais atores de uma eleição. Neste sentido o presente trabalho tem como objetivo mostrar como a obtenção de dados de uma rede social e sua posterior análise pode servir de meio alternativo em relação as pesquisas de intenção de votos para prever com grau de

    confiabilidade o resultado de um pleito eleitoral.

  • SAMYR SANTOS DELFINO
  • Gestão da comunicação e informação em equipes de desenvolvimento scrum.
  • Data: 09/07/2013
  • Mostrar Resumo
  • Em processos de desenvolvimento de software, a adoção de metodologias ágeis tem tido crescimento significativo. Percebe-se a dificuldade em realizar uma gestão da informação/comunicação em um ambiente ágil. Objetiva-se com este trabalho propor um modelo de gestão da informação/comunicação para equipes ágeis de desenvolvimento que utilizam a Framework Scrum, respeitando as necessidades e particularidades existentes neste Framework.  A metodologia adotada para este trabalho será subdividida em três fases distintas que consistem no estudo teórico, pesquisa de campo e criação de uma proposta de modelo de gestão de informação/comunicação em equipes Scrum.

  • WOLGRAND CARDOSO BRAGA JUNIOR
  • Estratégia para Armazenamento e Recuperação de Experiência Multimídia em Telemedicina: Um Estudo de Caso do Projeto Ambiente de Vídeo Colaboração em Saúde (GTAVCS)
  • Data: 07/05/2013
  • Mostrar Resumo
  • Aplicações baseadas em vídeo estão cada vez mais populares. Elas estão disseminadas nos mais diversos campos: Telemedicina, espetáculos artístico-tecnológicos, eventos tecno-científicos, entretenimento, publicidade, dentre outros. Para algumas dessas aplicações a incorporação de ferramentas que permitam a gravação de fluxos de dados audiovisuais transmitidos em tempo real é de grande valia. O presente trabalho aborda o que chamamos de experiência multimídia que designa a recuperação da experiência de uso de um sistema voltado para Telemedicina que permite o controle de vários fluxos de dados simultâneos. Neste trabalho foi criada uma estratégia para gravação e recuperação dessa experiência.

  • BRUNO LUNA RIBEIRO
  • Uma Abordagem para Alocação de Equipes em Projetos de Desenvolvimento Distribuído de Software com Base em Atributos Não-Técnicos
  • Data: 05/04/2013
  • Mostrar Resumo
  • Com a crescente adoção de projetos e processos de Desenvolvimento Distribuído de Software (DDS), muitas organizações que praticavam o desenvolvimento tradicional, co-localizado, passaram a atuar no mercado global, dividindo suas unidades colaborativas em vários pontos geográficos do globo. Além da aproximação com o mercado internacional, a utilização de DDS possibilita uma redução do time-to-market, melhor qualidade dos produtos gerados, redução de custos e maior facilidade para encontrar mão-de-obra qualificada. Entretanto, a distância entre as equipes envolvidas no DDS gera uma série de problemas relacionados a comunicação, não enfrentados no desenvolvimento co-localizado. Segundo a NBR ISO 10006, o fator humano é chave para o sucesso dos projetos de software, já que é uma atividade genuinamente humana. No desenvolvimento tradicional, empresas utilizam processos de alocação de recursos humanos para encontrar os profissionais adequados para realizar uma determinada atividade. Porém, a distância geográfica, como também os fatores culturais e temporais existentes no DDS, não são enquadrados nesses processos. Neste contexto, a fim de reduzir os problemas de comunicação durante a fase de implementação, o presente trabalho apresenta uma abordagem para alocação de equipes em projetos de DDS, tendo como objetivo mitigar os efeitos problemáticos gerados pela necessidade de comunicação entre as equipes geograficamente dispersas. Considerando que o acoplamento existente entre os componentes de software interfere na comunicação requerida para desenvolvê-los, a abordagem proposta leva em consideração características não-técnicas das equipes, como atributos temporais, culturais e de afinidade, para descobrir o grau de proximidade das equipes, comparando-as com o nível de acoplamento entre os componentes, de modo a identificar quais equipes possuem melhores condições de implementar os componentes de software com grau de comunicação satisfatório com as demais equipes. Deve-se destacar que as equipes candidatas à alocação com base em atributos não-técnicos são equipes tecnicamente habilitadas para a implementação dos componentes. Pela complexidade do problema de alocação ser alta, é utilizado um algoritmo genético, com função de avaliação baseada nos atributos não-técnicos para a alocação das equipes, tornando o problema tratável computacionalmente em tempo hábil.

  • GUTENBERG PESSOA BOTELHO NETO
  • Aprendizado por Reforço Aplicado a Situações de Combate em Jogos Eletrônicos de Estratégia em Tempo Real
  • Data: 28/03/2013
  • Mostrar Resumo
  • Jogos eletrônicos e, em especial, jogos de estratégia em tempo real (RTS), são cada vez mais vistos como campos viáveis e importantes para pesquisas de inteligência artificial por possuírem características interessantes para a área, como a presença de ambientes complexos, muitas vezes dinâmicos e com múltiplos agentes. Nos jogos RTS comerciais, a IA utilizada pelo computador é geralmente desenvolvida a partir de técnicas ad hoc simples e estáticas, com a necessidade de definição manual de comportamentos e a incapacidade de adaptação às situações encontradas. Esta abordagem, além de demorada e propícia a erros, faz com que o jogo torne-se relativamente previsível após algum tempo, permitindo ao jogador eventualmente descobrir a estratégia utilizada pelo computador e desenvolver uma forma ótima de enfrentá-lo. Uma maneira de tentar combater esta previsibilidade é com a utilização de técnicas de aprendizagem de máquina, mais especificamente do aprendizado por reforço, para permitir ao computador avaliar as situações ocorridas durante as partidas, aprendendo com estas situações e aprimorando seu conhecimento ao longo do tempo, sendo capaz de escolher de maneira autônoma e dinâmica a melhor ação quando necessário. Este trabalho propõe uma modelagem para a utilização de SARSA, uma técnica do aprendizado por reforço, aplicada a situações de combate em jogos RTS. O domínio do combate é um dos pontos fundamentais na busca da vitória em um jogo RTS e o objetivo é fazer com que o computador possa se portar de maneira mais adequada nesta área, tornando-se um adversário mais desafiador para qualquer jogador.

  • JOAO FILHO MATOS FIGUEIREDO
  • SocialRAD: Um modelo distribuído para telerradiologia assíncrona de forma segura e cooperativa.
  • Data: 25/03/2013
  • Mostrar Resumo
  • Serviços de telerradiologia têm se tornado populares, principalmente por seu potencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade na prestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, este potencial traz desafios elevados: o grande volume de dados, característico dos exames de imagens, e os requisitos de segurança que visam garantir a sua confidencialidade e integridade. Além disso, questões éticas envolvem o modelo dominante no mercado, em que este serviço é prestado por empresas terceirizadas, e não diretamente pelos profissionais radiologistas. Assim, este trabalho propõe um modelo distribuído e cooperativo, através do qual os profissionais de saúde podem interagir diretamente com os hospitais que prestam os cuidados ao paciente. Focou-se, ainda, em suprir as principais deficiências presentes em soluções consagradas, mais precisamente no que diz respeito aos requisitos de segurança, de comunicação assíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordagem investigativa sobre os mecanismos utilizados nas principais soluções foi realizada, de maneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelo de Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram a base inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões, a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas (VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS, protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boas práticas de criptografia, além de outros padrões de segurança e de interoperabilidade. Um protótipo foi desenvolvido e está em fase de testes e avaliação por médicos radiologistas situados em cidades no interior dos estados do Ceará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipo tem permitido aos médicos radiologistas emitirem laudos, diariamente, de exames de tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até que um especialista pudesse deslocar-se até a cidade para produzi-lo.

  • Elenilson Vieira da Silva Filho
  • Uma Estratégia de Refletores Multimídia para Criptografia e Codificação em Tempo Real
  • Data: 22/03/2013
  • Mostrar Resumo
  • A necessidade de compartilhar os dados presentes cada vez mais nos sistemas de informação leva ao desenvolvimento de soluções mais complexas e criativas para os impedimentos encontrados devido às limitações físicas da tecnologia atual. Alguns dos principais problemas de um sistema distribuído é a grande quantidade de informação por intervalo de tempo que a tecnologia de rede consegue transmitir e a confidencialidade dos dados que estão sendo passados. Há ainda mais restrições se for considerada a sub área de transmissão de mídias, já que a experiência do usuário pode ser prejudicada drasticamente por uma transmissão de dados com erros ou atrasos. Neste contexto um esquema de refletores de vídeo que permite a distribuição de fluxos de mídia 

  • PRISCILLA KELLY MACHADO VIEIRA
  • Recomendação Semântica de Conteúdo em Ambientes de Convergência Digital
  • Data: 18/03/2013
  • Mostrar Resumo
  • Com o advento da TV Digital interativa (TVDi),  nota-se o aumento de interatividade no processo de comunicação além do incremento das produções audiovisuais, elevando o número de canais e recursos disponíveis para o usuário. Esta realidade faz da tarefa de encontrar o conteúdo desejado uma ação onerosa e possivelmente ineficaz. A incorporação de sistemas de recomendação no ambiente TVDi emerge como uma possível solução para este problema. Este trabalho tem como objetivo propor uma abordagem híbrida para recomendação de conteúdo em TVDi, baseada em técnicas de mineração de dados, integradas a conceitos da Web Semântica, permitindo a estruturação e padronização dos dados e consequente possibilidade do compartilhamento de informações, provendo semântica  e  raciocínio automático. Para o serviço proposto é considerado o Sistema Brasileiro de TV Digital e o middleware Ginga.

  • BRIAN CARLOS REZENDE V DE PAIVA
  • Riumor: uma rede social multiplataforma para a TV Digital Interativa
  • Orientador : ED PORTO BEZERRA
  • Data: 28/02/2013
  • Mostrar Resumo
  • O conceito de Social TV vem sendo modelado, nos últimos anos, para tentar alterar o modo como as pessoas interagem e se socializam no contexto de assistir TV. Diversas Social TV (ST) foram criadas com diferentes recursos visando proporcionar uma melhor experiência aos telespectadores. Porém essas ST limitaram sua abrangência de interação apenas aos indivíduos entre si e entre alguns conteúdos. No contexto da TV Digital Aberta brasileira, ainda não há uma Social TV criada especificamente para a interação entre usuários de TV. Esse trabalho vem propor a criação de uma Social TV híbrida adequada à TV Digital Aberta Brasileira (TVDAB) que expanda o conceito de interação entre indivíduos, para que estes possam interagir com todo conteúdo da TV, de forma ativa e/ou passiva, utilizando como base o middleware GINGA.

  • DIENERT DE ALENCAR VIEIRA
  • Coordenação de Infraestruturas Computacionais Distribuídas em Larga Escala Baseadas em Redes de Broadcast de Sistemas de Televisão Digital
  • Data: 28/02/2013
  • Mostrar Resumo
  • A Infraestrutura Computacional Distribuída sob Demanda (On-Demand Distributed Computing Infrastructure – OddCI) é uma arquitetura que utiliza como base uma rede  de comunicação em broadcast para compor um ambiente em larga escala de processadores visando à computação de
    alta vazão (High Throughput Computing – HTC). Um exemplo de rede de broadcast é o sistema de Televisão Digital cujo sinal é transmitido para milhares de receptores simultaneamente. Estes receptores são máquinas de  significativo poder de processamento que estão em crescente aquisição pela população brasileira e podem ser utilizados como unidades de  processamento para atingir alta vazão. Entretanto, esses potenciais  processadores não são completamente dedicados e são cedidos voluntariamente, o que os tornam recursos altamente voláteis. Em outras palavras, não há garantias sobre o tempo que permanecem dedicados à uma tarefa. Assim, se faz necessária a utilização de algoritmos compensatórios que tratem essa volatilidade e otimizando a
    disponibilidade coletiva dos dispositivos. Este trabalho  apresenta heurísticas de coordenação da arquitetura OddCI, que buscam convidar ou excluir dispositivos sob a cobertura da comunicação através de mensagens coletivas com o objetivo de coordenar a quantidade alocada de processadores, com vistas à atender acordos de nível de serviço (Service-Level Agreement – SLA) estabelecidos. As heurísticas de coordenação são validadas por meio de simulação.

  • FRANK CESAR LOPES VERAS
  • Modelagem e Simulação do Deslocamento de Pessoas para Estimativa de Formação de Grupos
  • Data: 25/02/2013
  • Mostrar Resumo
  • O uso das Redes de Sensores sem Fio (RSSF) tem sido difundido em diversas áreas de pesquisa e aplicação. A proposta deste trabalho é um estudo sobre como utilizar sensores para monitorar pessoas em movimento, tendo uma RSSF como meio no qual a pesquisa deverá ocorrer, porém com o intuito de prever a formação de grupos em determinadas regiões. Para a realização deste trabalho é que a rede foi projetada e testada no simulador Ptolemy II, usando o protocolo ZigBee de comunicação, onde os sensores foram posicionados de acordo com um sistema de coordenadas cartesianas. A RSSF deverá detectar as pessoas e identificar características comuns de movimento, como velocidade, direção e tipo de movimento, através de parâmetros configurados no simulador. As pessoas envolvidas nos grupos serão identificadas por etiquetas RFID (Radio Frequency Identification) presas ao seu corpo. O movimento de multidão teve sua formalização matemática baseada em parâmetros como posição do grupo, quantidade de pessoas por grupo e duração do movimento que definem as características necessárias para a simulação desse cenário. A partir da formalização do movimento da multidão, vários dados são coletados em intervalos de tempo previamente determinados e interpretados por um algoritmo que, através da troca de mensagens entre sensores, estima a formação de multidão na região definida como alvo. Neste trabalho, foram inseridos tabelas e gráficos que refletem o número real de pessoas que se deslocam em direção ao alvo real. Esses dados são gerados a partir da intensa troca de mensagens entre os sensores, obedecendo alguns parâmetros estabelecidos e que favorecem o algoritmo que estima a formação de multidão no alvo, em determinado tempo. A acurácia da previsão foi medida pelo desvio padrão encontrado, de acordo com o grau de antecipação aplicado. Assim, a detecção de pessoas pelos sensores é interpretada de acordo com a possibilidade de formação de grupos, tendo seus valores disseminados pela rede. A proposta é que essa ação facilite o processo de tomada de decisão e, consequentemente, ajude na caracterização da formação de multidões.
  • RHARON MAIA GUEDES
  • PLANE – UM MÓDULO DE NEGOCIAÇÃO SEMIAUTOMÁTICA PARA MÚLTIPLOS PARTICIPANTES E MÚLTIPLOS ATRIBUTOS
  • Data: 22/02/2013
  • Mostrar Resumo
  • Com o avanço tecnológico surgiram novas formas de negociação, podemos citar a eletrônica, conhecida como e-negotiation, que se caracteriza por processos conduzidos total ou parcial pelo uso da mídia eletrônica. Em meio a esse debate da construção de novas formas de negociação de bens e valores, estão as redes de televisão que necessitam firmar acordos de maneira mais prática, rápida e eficaz, para que as informações não percam seu valor. Neste contexto, foi criado o módulo PLANE (Plataforma de Assistência a Negociação), que tem como objetivo a construção de um módulo que permita a negociação de conteúdos audiovisuais através de um algoritmo semiautomatizado. As contraofertas serão geradas através da variação e análise dos atributos do conteúdo.  Para isso, serão aplicadas funções multiatributos e uma função de deslocamento. A estratégia de negociação utilizada está inserida em uma arquitetura para conectar diversas redes de televisão, que forma uma inter-rede para o compartilhamento do conteúdo. Espera-se, ao final, que os negociadores possam fechar um contrato que conterá os valores dos atributos acordados, assim como o valor a ser pago pelo conteúdo.

  • RENATA MENDONCA SARAIVA
  • Uma Abordagem para o Uso de Raciocínio Baseado em Casos no Suporte ao Diagnóstico e Tratamento Adaptativo de Pacientes com Câncer Gastrointestinal
  • Data: 19/02/2013
  • Mostrar Resumo
  • O tratamento de pacientes com câncer é um desafio para os hospitais e centros de saúde. O primeiro problema é classificar ou identificar o tipo específico de câncer. Em seguida, os médicos devem determinar um tratamento adequado para tal doença. Existem bancos de dados mundiais que registram informações sobre câncer, de modo que os médicos possam tentar achar uma classificação para a doença de acordo com os sintomas apresentados pelo paciente. Contudo eles não oferecem um bom suporte para a procura das doenças e, principalmente, para a identificação do tratamento. Este artigo propõe a utilização das tecnologias de raciocínio baseado em casos e raciocínio baseado em regras como solução para suportar estas duas atividades via representações de casos de pacientes e adaptações destes casos para a definição de diagnósticos mais especializados, de acordo com as peculiaridades de cada paciente. Nosso foco é sobre o câncer gastrointestinal, mas as idéias podem ser estendidas para outros domínios de câncer.

  • ROBERTO FELICIO DE OLIVEIRA
  • Análise Quantitativa das Relações entre Usuários no Twitter
  • Data: 19/02/2013
  • Mostrar Resumo
  • Sob o aspecto de seres sociais, os seres humanos procuram incessantemente interagir uns com os outros, nas mais variadas ocasiões. Realidade esta, expandida ao mundo virtual, ao qual permite uma comunicação sem fronteiras através da Internet entre as pessoas de qualquer parte do mundo. Por conseguinte, uma rede social virtual, nada mais é do que um reflexo da necessidade de comunicação, aplicado às redes Web. Não obstante é cediço que a concepção de redes sociais, bem como das métricas de análise de redes, tem despertado nas últimas décadas além do interesse uma curiosidade notável dos pesquisadores de diversas áreas, tal como das ciências sociais. Desta maneira, verifica-se um aumento significativo seguido de uma vasta oportunidade de pesquisas nesta área. Portanto, esse trabalho visa investigar à utilização de programas de monitoramento de Redes Sociais aliados a técnicas avançadas de Análise de Redes Sociais que possibilitem analisar comparativamente o perfil relacionamento de usuários do Twitterfrente ao seu perfil nos sistemas de análise de crédito.

  • OTACILIO DE ARAUJO RAMOS NETO
  • Estudo e Implementação de IP-Cores para Criptografia Simétrica Baseado no Advanced Encryption Standard (AES)
  • Data: 31/01/2013
  • Mostrar Resumo
  • Este trabalho consistiu em realizar o projeto de um IP-core digital para realização dos procedimentos de criptografia do AES,  partindo do nível do pseudocódigo dos algoritmos até o nível de um núcleo (core) de circuito integrado digital. Foram estudadas soluções publicadas na literatura recente e foram identificados módulos e operações passíveis de serem replicadas/reusadas. Uma microarquitetura para o AES completo foi implementada hierarquicamente até o nível de núcleo com standard cells posicionado e roteado, contemplando ainda 3 opções de implementação para o bloco reconhecidamente o mais complexo: o SBox. Resultados de desempenho e área foram comparados.

2012
Descrição
  • ANA CLAUDIA COSTA DA SILVA
  • Uma Abordagem Orientada a Features para Representação e Gerenciamento do Patrimônio Cultural Imaterial: Um Estudo de Caso Baseado no PAMIN
  • Data: 18/12/2012
  • Mostrar Resumo
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital. 

  • DANIEL GONCALVES RAMOS
  • METAHEURÍSTICAS GRASP E ILS APLICADAS AO PROBLEMA DA VARIABILIDADE DO TEMPO DE DOWNLOAD EM AMBIENTES DE TV DIGITAL
  • Data: 31/08/2012
  • Mostrar Resumo
  • A transmissão de aplicativos interativos no ambiente de TV Digital é feita através do padrão Carrossel DSM-CC. Esse padrão permite que os dados sejam enviados de forma cíclica, a fim de que o usuário possa recebê-los por completo independente do momento que iniciou seu download. A forma com que os dados estarão disponíveis no carrossel tem um impacto significativo no tempo de espera do usuário, o que dá origem a uma variante do Response Time Variability Problem, denominado neste trabalho de Problema da Variabilidade do Tempo de Download (PVTD).  Este trabalho propõe um modelo de negócio para definir quais aplicações terão prioridade no carrossel, além de propor um novo modelo matemático que visa minimizar o atraso no download dessas aplicações. Este ainda descreve a implementação das metaheurísticas GRASP e ILS aplicadas ao PVTD, bem como compara os resultados com um trabalho da literatura.

  • DANIEL SOARES E MARQUES
  • Sistema Misto Reconfigurável Aplicado à Interface PCI para Otimização do Algoritmo Non-Local Means
  • Data: 31/08/2012
  • Mostrar Resumo
  • A área de processamento de imagens digitais está evoluindo continuamente e, embora as áreas de aplicações sejam diversas, os problemas encontrados comumente convergem para os métodos capazes de melhorar a informação visual para a análise e interpretação. Uma das principais limitações em questão de precisão de imagens é o ruído, que é definido como uma perturbação na imagem.

                O método Non-Local Means (NLM) destaca-se como o estado da arte de filtragem de ruído. Apesar de possuir resultados de filtragem que sobressaem em relação a outros métodos comparados, sua complexidade computacional é um empecilho para torná-lo prático em aplicações computacionais de uso geral.

                    Atualmente há na literatura científica diversos trabalhos relacionados à otimização do NLM, porém muitos sem ganhos consideráveis para facilitar o uso, o estudo e o aperfeiçoamento do método.

                O presente trabalho apresenta a implementação de um sistema computacional, desenvolvido com partes executadas em software e em hardware aplicado à PCI, visando a otimização do algoritmo NLM através de técnicas de aceleração em hardware, permitindo uma eficiência maior do que normalmente é fornecida por processadores de uso geral.

                O uso da computação reconfigurável auxiliou no desenvolvimento do sistema em hardware, proporcionando a modificação do circuito descrito no ambiente de sua utilização, acelerando a implementação do projeto. Utilizando um kit PCI de prototipação FPGA, para efetuar o cálculo dedicado da Distância Euclidiana Quadrática Ponderada, os resultados obtidos nos testes exibem um ganho de tempo até 3.5 vezes maior que as abordagens de otimização comparadas, mantendo também a qualidade visual da filtragem estabilizada.

  • MARCELLE BATISTA MARTINS
  • MDM-KTV: Um Framework Conceitual de Multi-Modelos para a organização dos dados operacionais, analíticos, semânticos e baseados no Linked Data na TVDI
  • Data: 31/08/2012
  • Mostrar Resumo
  • Com a difusão e o crescimento da televisão digital nos lares de todo o mundo, o usuário usufrui de imagem e som de melhor qualidade, além de ter acesso a diversos tipos de conteúdos inseridos em uma nova mídia mais completa , que é a TV Digital Interativa (TVDI), onde tais conteúdos podem ser acessados através de vários dispositivos e meios distintos. Com toda essa complexidade, surgem variados cenários na TVDI, que vão desde a um simples aplicativo interativo operacional a aplicativos que avaliam o comportamento do usuário, cuja finalidade é oferecer resultados mais precisos e focados no perfil do usuário. A plataforma Knowledge TV (KTV) analisada neste trabalho tem como principal objetivo a inclusão de uma camada semântica que provê aplicações inseridas em um contexto recente que é a Web Semântica, propondo novos desafios na busca de um ambiente de convergência digital. Assim, a proposta desta dissertação é o desenvolvimento de um Framework Conceitual de multi-modelos de dados para a organização das aplicações na TVDI, considerando o mapeamento dos dados nos três níveis: operacional, analítico e semântico (estendendo a visão Linked  Data).

    Com a difusão e o crescimento da televisão digital nos lares de todo o mundo, o usuário usufrui de imagem e som de melhor qualidade, além de ter acesso a diversos tipos de conteúdos inseridos em uma nova mídia mais completa[N1] , que é a TV Digital Interativa (TVDI), onde tais conteúdos podem ser acessados através de vários dispositivos e meios distintos. Com toda essa complexidade, surgem variados cenários na TVDI, que vão desde a um simples aplicativo interativo operacional a aplicativos que avaliam o comportamento do usuário, cuja finalidade é oferecer resultados mais precisos e focados no perfil do usuário. A plataforma Knowledge TV (KTV) analisada neste trabalho tem como principal objetivo a inclusão de uma camada semântica que provê aplicações inseridas em um contexto recente que é a Web Semântica, propondo novos desafios na busca de um ambiente de convergência digital. Assim, a proposta desta dissertação é o desenvolvimento de um Framework Conceitual de multi-modelos de dados para a organização das aplicações na TVDI, considerando o mapeamento dos dados nos três níveis: operacional, analítico e semântico (estendendo a visão Linked  Data).

     [N1]Ressaltar que alem de melhor imagem e som o usuário tbm pode receber aplicações e dados.

  • EDUARDO FREIRE SANTANA
  • SEGMENTAÇÃO NÃO SUPERVISIONADA DE IMAGENS DE SENSORIAMENTO REMOTO POR MINIMIZAÇÃO DA ENTROPIA CRUZADA
  • Data: 30/08/2012
  • Mostrar Resumo
  • Sensoriamento remoto é uma das tecnologias que mais rapidamente cresceu durante o final do século XX e início do século XXI. O uso mais comum deste termo refere-se à observação da superfície terrestre por meio de satélites. Em sensoriamento remoto, segmentação de imagem é uma ferramenta frequentemente utilizada no auxílio à detecção de mudança de paisagens e classificação do uso do solo. Este trabalho se propõe à pesquisa e ao desenvolvimento de um novo método para segmentação não-supervisionada de imagens de sensoriamento remoto baseado na minimização da entropia cruzada entre a distribuição de probabilidade da imagem e um modelo estatístico. Para os testes realizados, foram utilizadas quinze imagens capturadas pelo sensor TM (Thematic Mapper) do satélite Landsat 5. A partir do banco de dados do projeto de mapeamento do uso do solo da região amazônica TerraClass, foram derivadas imagens temáticas utilizadas como gabarito para medir o desempenho do classificador desenvolvido. O algoritmo proposto parte de uma segmentação inicial e busca iterativamente melhorar o modelo estatístico que estima a densidade de probabilidade da imagem, de forma a reduzir a entropia cruzada em relação à iteração anterior. Os resultados indicam que a minimização da entropia cruzada está relacionada com uma segmentação coerente das imagens. Duas abordagens foram desenvolvidas, uma realizando classificação pixel a pixel e outra classificando regiões obtidas pela transformada Watershed. Para a abordagem por pixel, a concordância média entre o classificador e o gabarito foi de 88,75% para as quinze imagens selecionadas e de 91,81% para quatro pequenas regiões que representam detalhes de uma das imagens. Para a abordagem por região, a concordância média foi de 87,33% para as imagens e 91,81% para os detalhes. Os gabaritos dos detalhes de imagem foram preparados manualmente por um especialista.

  • FELIPE LACET SILVA FERREIRA
  • Provendo Suporte a Língua de Sinais em Middlewares Compatíveis com a ITU J.202
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 30/08/2012
  • Mostrar Resumo
  • As línguas de sinais são línguas naturais de modalidade gestual-visual utilizadas pelos surdos na comunicação. Atualmente, o uso de língua de sinais na TV é ainda limitado a dispositivos manuais, onde a janela com um intérprete é exibida sobrepondo o vídeo do programa. Alguns trabalhos, como Amorim et al. [30] e Araújo et al [14] foram propostos, mas ainda possuem algumas lacunas para serem resolvidas. Neste trabalho é proposta uma solução para prover o suporte a língua de sinais em middlewares de sistemas de televisão digital compatíveis com a especificação ITU-T J.202 [29]. Uma caracteristica importante da solução apresentada nesse trabalho é que não é necessário adaptar as APIs existentes ou criar novas APIS para prover esse suporte. Para validar a solução proposta um estudo de caso foi desenvolvido utilizando o Ginga-J, a parte procedural do middleware Ginga compatível com a especificação ITU J.202. Alguns testes aplicados com surdos confirmam a viabilidade da solução.

  • ALAN LIVIO VASCONCELOS GUEDES
  • UMA SOLUÇÃO PARA EXECUÇÃO DE APLICAÇÕES GINGA-NCL USANDO SEGUNDA TELA EM SISTEMAS BROADBANDTV
  • Data: 29/08/2012
  • Mostrar Resumo
  • No desenvolvimento de aplicações para TV Digital, o ambiente Ginga-NCL prove suporte a aplicações
    com uso de dispositivos de segunda tela. Entretanto, foi apenas com recentes esforços na
    implementação de referência do Ginga-NCL que esse recurso foi de fato viabilizado, utilizando uma
    estratégia de associação de perfis UAProf aos dispositivos necessários. Este trabalho propõe uma
    arquitetura de portal de aplicações BroadbandTV que utiliza o ambiente Ginga-NCL, sendo capaz de
    apresentar ao usuário uma lista de aplicações compatíveis ao seu contexto de execução
    multidispositivos. Como resultados, são apresentadas a descrição da arquitetura e a execução de testes
    com protótipos de software.
    No desenvolvimento de aplicações para TV Digital, o ambiente Ginga-NCL prove suporte a aplicaçõescom uso de dispositivos de segunda tela. Entretanto, foi apenas com recentes esforços naimplementação de referência do Ginga-NCL que esse recurso foi de fato viabilizado, utilizando umaestratégia de associação de perfis UAProf aos dispositivos necessários. Este trabalho propõe umaarquitetura de portal de aplicações BroadbandTV que utiliza o ambiente Ginga-NCL, sendo capaz deapresentar ao usuário uma lista de aplicações compatíveis ao seu contexto de execuçãomultidispositivos. Como resultados, são apresentadas a descrição da arquitetura e a execução de testescom protótipos de software.

  • FELIPE HERMINIO LEMOS
  • Uma Proposta de Protocolo de Codificação de Libras para Sistemas de TV Digital
  • Data: 29/08/2012
  • Mostrar Resumo
  • Os sistemas de TV Digital atuais não possuem padronização especifica para línguas de sinais (LS). A solução utilizada na TV nos dias de hoje, consiste em transmitir uma janela com um interprete de LS sobreposto ao vídeo do programa. Esta solução se mostra ineficaz em vários aspectos: possui um alto custo operacional, e dependente de um interprete em tempo integral, alem de distrair os telespectadores que não são surdos. Somado a tudo isso, a geração de uma mesma janela para todos os usuários, nao respeita as diferenças regionais das LS. Para reduzir esses problemas, o objetivo principal desse trabalho e propor um protocolo que viabilize a codificação e transmissão de janelas em Língua Brasileira de Sinais (LIBRAS) para sistemas de televisão digital. Nessa proposta, os quadros do vídeo da janela de LIBRAS não são transmitidos. Em vez disso, e transmitido um conjunto de códigos, onde cada código esta relacionado a representação visual de um sinal de LIBRAS armazenada no receptor. Dessa forma, e possível respeitar as diferenças regionais e reduzir a largura de banda utilizada na transmissão. Adicionalmente, também são investigadas estratégias para representar efeitos sonoros, entonação de voz e nuances emocionais na sinalização.

  • DANILO ASSIS N DOS SANTOS SILVA
  • Uma Linguagem Formal e Expansível para Descrição de Sinais da Língua Brasileira de Sinais
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 29/08/2012
  • Mostrar Resumo
  • Os surdos se comunicam naturalmente por línguas gestuais e visuais, denominadas línguas de sinais. Essas línguas são línguas naturais compostas por itens lexicais denominados sinais e possuem gramáticas e vocabulários próprios. Neste trabalho, propomos a definição de uma linguagem formal, expressiva e coerente para descrever sinais em língua brasileira de sinais (LIBRAS). Esta linguagem permite que todos os parâmetros constituintes de um sinal sejam especificados e, a partir deles, uma animação para aquele sinal possa ser gerada com base em avatares humanóide 3D.  Além disso, a linguagem proposta é flexível e permite que novos parâmetros (ou fonemas) sejam especificados dinamicamente. Para prover um estudo de caso para a linguagem proposta, um sistema para construção colaborativa de um vocabulário de LIBRAS com base em avatares humanóides 3D também foi desenvolvido. Um conjunto de testes com surdos brasileiros também foi realizado para avaliar este sistema.

  • GUSTAVO SAVIO DE OLIVEIRA
  • Um framework para testes de software na nuvem
  • Data: 29/08/2012
  • Mostrar Resumo
  • Infraestruturas de computação em nuvens podem ser utilizadas para tornar o processo de testes mais eficiente e eficaz, obtendo desde redução dos custos de aquisição de infraestrutura à flexibilidade em se utilizar apenas os recursos realmente necessários para efetuar os testes. Entretanto, explorar tais infraestruturas para auxiliar no processo de testes requer procedimentos de configuração e automatização nem sempre disponíveis. Neste contexto, identificamos a ausência de ferramental que efetivamente automatizasse todo o processo e tornasse uma infraestrutura de computação em nuvem parte integrante do ambiente de desenvolvimento e testes. Este trabalho objetiva apresentar uma solução que distribui e coordena a execução paralela de testes automáticos de software em ambientes distribuídos e heterogêneos. Tal solução, denominada CloudTesting fornece ao desenvolvedor o suporte necessário para executar testes de unidade de software na nuvem. Experimentos realizados com o CloudTesting e uma infraestrutura de computação na nuvem demonstraram reduções de mais de 20 horas no tempo gasto de execução de um conjunto sintético de testes de unidade.

  • DIOGO HENRIQUE DUARTE BEZERRA
  • Luar: Um Sistema de Processamento de Templates NCL
  • Data: 24/08/2012
  • Mostrar Resumo
  • O domnio alvo deste trabalho s~ao as aplicac~oes para TV digital, onde o foco esta
    na interac~ao entre o usuario e a aplicac~ao. O objetivo deste trabalho e desenvolver um
    sistema de templates que facilite a construc~ao desse tipo de aplicac~ao e diminua o tempo
    gasto com desenvolvimento por meio da tecnica de reuso. Este trabalho apresenta o Luar:
    Um Sistema de Processamento de Templates NCL. O sistema foi concebido por meio da
    analise do comportamento de aplicac~oes para TVDI, implementado usando-se a linguagem
    Lua, tendo como meta facilitar o projeto e a implementac~ao de aplicac~oes interativas para
    TV digital.
    O domínio alvo deste trabalho são as aplicações para TV digital, com foco na interação entre o usuário e a aplicação. O objetivo deste trabalho e desenvolver um sistema de templates que facilite a construção desse tipo de aplicação e diminua o tempo gasto com desenvolvimento por meio da técnica de reuso. Este trabalho apresenta o Luar,  um Sistema de Processamento de Templates NCL. O sistema foi concebido por meio daanalise do comportamento de aplicações para TVDI, usando-se a linguagem Lua, tendo como meta facilitar o projeto e a implementação de aplicações interativas paraTV digital. O sistema de processamento de templates é validado com experimentos reais com usuários desenvolvedores de aplicação e os resultados mostram que seu uso reduz o tempo de desenvolvimento das aplicações

  • DIEGO ERNESTO ROSA PESSOA
  • Um modelo híbrido de metadados baseado em meta-modelos dinâmicos para Integração entre redes heterogêneas de ativos digitais
  • Data: 24/08/2012
  • Mostrar Resumo
  • O gerenciamento de grandes repositórios de ativos digitais tem se
    tornado uma atividade importante com o crescimento do número de
    dispositivos multimídia conectados (smartphones, tablets, smartTV, TV
    digital), além dos dispositivos tradicionais (desktops, laptops). Os
    ativos digitais precisam ser identificados por metadados bem definidos
    de maneira que instâncias diferentes de um mesmo conteúdo (ex:
    conteúdos em diferentes formatos ou resolução de vídeo) possam ser
    adequadamente localizados e usados em diferentes dispositivos,
    permitindo o conceito de “mídia cruzada”. Além disso, está se tornando
    comum o intercâmbio de mídia entre diferentes repositórios e acervos
    entre instituições diferentes (domínios), o que exige padronização de
    metadados para localização eficiente. Este trabalho propõe um
    meta-modelo dinâmico que possibilite a integração em nível de
    metadados entre domínios heterogêneos de ativos digitais onde cada
    domínio contém características peculiares e pode adotar modelos de
    metadados distintos. Além disso, implementa um estudo de caso aplicado
    ao contexto de gerenciamento de ativos digitais, contendo ao menos
    dois domínios, onde cada um utiliza um padrão de metadados distinto e
    efetua operações de troca de conteúdos.

  • RAMON LEONN VICTOR MEDEIROS
  • Uma Ferramenta de Geração de Código VHDL a partir do Modelo de Atores utilizando o Framework Ptolemy
  • Data: 24/08/2012
  • Mostrar Resumo
  • Na área de Microeletrônica uma das maiores dificuldades trata-se de encontrar profissionais capacitados. Para a formação destes há uma demanda por recursos – humanos e materiais - que, muitas vezes, tem alto custo. Assim, se faz necessária uma solução tão acessível a instituições e pesquisadores, quanto adaptável às suas necessidades, propiciando escalabilidade e disseminação à formação, sem deixar de focar a qualidade. O objetivo deste trabalho é o desenvolvimento de uma ferramenta de geração de código VHDL  baseada em Atores utilizando o Framework Ptolemy. Onde, além de projetar e simular graficamente modelos, os alunos podem gerar código VHDL e transferi-los para testar em FPGAs.

  • CARLOS AUGUSTO AYRES CARVALHO
  • LASIC PROCESS: UM FRAMEWORK CONCEITUAL PARA INTEGRAÇÃO DE PADRÕES DE GESTÃO AO DESENVOLVIMENTO DE PROJETOS DE PROPRIEDADE INTELECTUAL DE SISTEMAS ELETRÔNICOS INTEGRADOS EM CHIPS (IP-SOCS)
  • Data: 23/08/2012
  • Mostrar Resumo
  • Esse trabalho é apresentado como uma contribuição para a área de projeto de sistemas integrados em circuitos (SoCs); especificamente, o trabalho aborda a inclusão de uma camada de gestão de projetos no(s) fluxo(s) de projeto de circuitos integrados.

    O foco deste trabalho consiste em desenvolver e implementar um (novo) framework de execução e gerenciamento de tarefas dedicado ao desenvolvimento de circuitos digitais integrados, com forte ênfase na gestão de projetos, denominado Lasic-Process.

    Neste trabalho, serão estudadas e apresentadas as etapas e interdependências do fluxo de projeto de circuitos VLSI (Very-large-scale integration), as principais metodologias de Verificação Funcional (contemplando cada nível hierárquico), a identificação dessas etapas na utilização de um conjunto de ferramentas de concepção acadêmica: Alliance e o aplicativo de gestão de projetos dotProject (DOT,2011) com vistas a identificar em seu banco de dados, os campos de registro que serão alterados para a atualização do gráfico de Gantt do projeto, proporcionando o acompanhamento sistemático da evolução das tarefas em tempo real.

  • MARIANA DE LUNA FREIRE DUARTE
  • MINERAÇÃO DE DADOS USANDO PROGRAMAÇÃO GENÉTICA
  • Data: 23/08/2012
  • Mostrar Resumo
  • A mineração de dados tornou-se uma importante atividade para a tomada de decisão para grandes ou pequenas corporações, pois a partir dela é possível extrair informações relevantes e não triviais de forma que correções e ajustes em estratégias econômicas e administrativas possam ser solucionados. Assim, vê-se um aumento no armazenamento de dados geográficos, de tal maneira que a mineração de dados convencionais não suporta realizar a extração de conhecimento em um banco de dados composto por estes tipos de dados. De acordo com a literatura atual, poucas ferramentas capazes de extrair conhecimento a partir de dados geográficos são encontradas, principalmente, quando a base de dados é composta por dados convencionais (numéricos e textuais) e geográficos (ponto, linha e polígono). Este trabalho tem como objetivo principal apresentar um novo algoritmo para a atividade de mineração de dados espaciais utilizando os dois tipos de dados para realizar a extração de informações de uma determinada base. O algoritmo em questão tem como base o algoritmo DMGeo que, por sua vez, também visa extrair conhecimento a partir dos dois tipos de dados. Estes algoritmos são baseados na Programação Genética e foram desenvolvidos a fim de obte regras de classificação de padrões existentes nos atributos numéricos e geográficos.

  • BRUNO MAIA DE MORAIS
  • InteliCare – Infraestrutura de Telessaúde para Apoio à Serviços de Atenção domiciliar baseada Redes de Sensores Sem fio e Sistemas Embarcados
  • Data: 20/08/2012
  • Mostrar Resumo
  • InteliCare – Infraestrutura de Telessaúde para Apoio à Serviços de Atenção domiciliar baseada Rede de Sensores Sem fio e Sistemas Embarcados

  • DUILIO ASSIS NOBRE DOS SANTOS SILVA
  • Um Método Geral para Redução de Grandes Conjuntos de Dados Baseado em Difusão Geometrica Markoviana
  • Data: 17/08/2012
  • Mostrar Resumo
  • A redução de dados está se tornando uma área proeminente dado ao crescimento da quantidade de dados que estão sendo gerados a partir de diferentes áreas de conhecimento. Os algoritmos atuais determinam quais instâncias são selecionadas usando medidas de distâncias tradicionais. Além disso, a maioria dos algoritmos é impraticável para alguns problemas devido ao alto custo de processamento para conjuntos de dados com grande número de instâncias. Este trabalho apresenta um novo método para redução de conjunto de dados como uma extensão do método de Difusão Geométrica Markoviana (DGM), que é usado no campo de computação gráfica para simplificação de malhas triangulares. O DGM foi estendido para reduzir conjuntos de dados em geral, preservando os elementos que possuem certas características desejadas. O processo de redução baseia-se na análise probabilística da propagação de calor entre partículas. Aquelas com maior capacidade de reter calor serão as instâncias mais representativas. Além disso, ele captura estruturas não lineares dos dados e possui uma abordagem multiescala quando processa densidades locais. Vários experimentos foram realizados em conjuntos de dados de diferentes tamanhos. Resultados mostraram boa performance em termos de precisão de classificação e qualidade de redução na preservação de informação do método.

  • Lucas Lucena Gambarra
  • PROPOSTA DE IMPLEMENTAÇÃO EM HARDWARE PARA O ALGORITMO NON-LOCAL MEANS
  • Data: 13/08/2012
  • Mostrar Resumo
  • Imagem digital é a representação de uma imagem bidimensional usando
    números binários codificados de modo a permitir seu armazenamento, transferência,
    impressão ou reprodução, e seu processamento por meios eletrônicos. É formada por
    um conjunto de pontos definidos por valores numéricos, escala de cinza, no qual cada
    ponto representa um pixel.
    Em qualquer imagem digital, a medição do nível de cinza observada em cada
    pixel é sujeita a algumas perturbações. Essas perturbações são devidas à natureza
    aleatória do processo de contagem de fótons nos sensores usados para captura da
    imagem. O ruído pode ser amplificado por correções digitais ou por qualquer software
    de processamento de imagem como, por exemplo, as ferramentas que aumentam o
    contraste.
    A remoção de ruídos cujo objetivo é recuperar, ou estimar a imagem original, é
    ainda um dos mais fundamentais e amplamente estudados problemas do
    processamento de imagem. Em diversas áreas, a remoção de ruídos é uma etapa
    fundamental para melhorar a qualidade dos resultados. Entre as alternativas com
    essa finalidade, o método proposto por Buades (2005), conhecido como Non-Local
    Means (NLM), representa o estado da arte.
    Embora bastante eficaz quanto à remoção de ruídos, o NLM é muito lento para
    ser realizado de modo prático. Sua complexidade computacional é alta devido à
    necessidade de cálculo de pesos para todos os pixels da imagem durante o processo
    de filtragem de cada pixel, resultando numa complexidade quadrática no número de
    pixels da imagem. Os pesos são obtidos por meio do cálculo da diferença entre as
    vizinhanças de pixels correspondentes.
    Muitas aplicações possuem requisitos de tempo para que seus resultados
    sejam úteis, e nesse contexto, este trabalho propõe uma implementação em FPGA
    para o algoritmo Non-local means com o objetivo de obter um baixo tempo de
    execução usando, para isto: pipelines, paralelismo em hardware e aproximação linear
    por partes. A implementação proposta é aproximadamente 290 vezes mais rápida que
    o algoritmo Non-local means em software e apresenta, além disso, resultados
    semelhantes ao algoritmo original quanto ao erro médio quadrático (MSE) e a
    qualidade perceptiva de imagem.

  • YURI GONZAGA GONÇALVES DA COSTA
  • DESENVOLVIMENTO E IMPLEMENTAÇÃO EM FPGA DE UM COMPRESSOR SEM PERDAS DE BAIXA COMPLEXIDADE PARA IMAGENS DE SATÉLITE
  • Data: 31/07/2012
  • Mostrar Resumo
  • A quantidade de dados gerados e transmitidos pelos satélites para as estações
    na Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, os
    sistemas de imageamento espaciais, particularmente as missões de observação da
    Terra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo,
    se faz necessário garantir que os dados cheguem ao destino de maneira confiável.
    Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável de
    alcançar esse requisito. Um sistema de compressão de dados para esse fim deve
    obedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto,
    implementações em hardware baseadas em predição e codificação de Golomb-Rice
    têm obtido excelentes resultados considerando desempenho do hardware e da
    compressão, tanto nos casos sem perdas como nos com perdas. O presente trabalho
    apresenta uma proposta de hardware digital de um compressor sem perdas para
    imagens de satélite baseado em predição e codificação Golomb-Rice que busca um
    balanceamento entre os requisitos de desempenho e a propagação de erros, um
    problema comum no âmbito de sistemas espaciais e que é potencializado no caso dos
    compressores de dados. Para validação e análise do compressor, é seguida uma
    metodologia de verificação funcional de hardware digital e o desenvolvimento de um
    protótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2B
    disponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidos
    em FPGA mostram que esse compressor alcança razão de compressão média de 3,4,
    valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s).
    Considerando a natureza das imagens, a compressão pode ser paralelizada por meio
    de simultâneos núcleos compressores em uma abordagem multicore. Por exemplo,
    usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em uma
    velocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil e
    efetivo para a aplicação em um sistema moderno de imageamento para
    sensoriamento remoto.
    A quantidade de dados gerados e transmitidos pelos satélites para as estaçõesna Terra é cada vez maiores. Com o passar do tempo e avanço da tecnologia, ossistemas de imageamento espaciais, particularmente as missões de observação daTerra, tem utilizado equipamentos com resoluções cada vez maiores. Por esse motivo,se faz necessário garantir que os dados cheguem ao destino de maneira confiável.Dentre algumas técnicas envolvidas, a compressão de dados é o meio mais viável dealcançar esse requisito. Um sistema de compressão de dados para esse fim deveobedecer algumas condições, principalmente quanto ao desempenho. Nesse contexto,implementações em hardware baseadas em predição e codificação de Golomb-Ricetêm obtido excelentes resultados considerando desempenho do hardware e dacompressão, tanto nos casos sem perdas como nos com perdas. O presente trabalhoapresenta uma proposta de hardware digital de um compressor sem perdas paraimagens de satélite baseado em predição e codificação Golomb-Rice que busca umbalanceamento entre os requisitos de desempenho e a propagação de erros, umproblema comum no âmbito de sistemas espaciais e que é potencializado no caso doscompressores de dados. Para validação e análise do compressor, é seguida umametodologia de verificação funcional de hardware digital e o desenvolvimento de umprotótipo em FPGA. Dado um conjunto de imagens do satélite CBERS-2Bdisponibilizadas pelo Instituto Nacional de Pesquisas Espaciais, os resultados obtidosem FPGA mostram que esse compressor alcança razão de compressão média de 3,4,valor comparável a trabalhos correlatos, e velocidade de 28 MPixel/s (224 Mbit/s).Considerando a natureza das imagens, a compressão pode ser paralelizada por meiode simultâneos núcleos compressores em uma abordagem multicore. Por exemplo,usando 5 núcleos, o sistema proposto é capaz de comprimir essas imagens em umavelocidade de 142 MPixel/s (1.1 Gbit/s). Todas essas características tornam-no útil eefetivo para a aplicação em um sistema moderno de imageamento parasensoriamento remoto.

  • Adriano da Silva Marinho
  • Uma nova versão de um sistema para detecção e reconhecimento de face utilizando a transformada cosseno discreta
  • Data: 30/07/2012
  • Mostrar Resumo
  •  

    Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos tradicionais para estabelecer a identidade de um usuário (como os que utilizam senhas ousmartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transfomada Cosseno Discreta (DCT). Com o intuito de investigar a robustez do reconhecimento facial utilizando a DCT em relação à iluminação, posição e escala, neste trabalho foram desenvolvidas duas melhorias para o sistema de reconhecimento facial SDRF de (OMAIA, 2009): uma etapa de normalização de posição e escala para imagens e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal.

  • Adriano da Silva Marinho
  • Uma nova versão de um sistema para detecção e reconhecimento de face utilizando a transformada cosseno discreta
  • Data: 30/07/2012
  • Mostrar Resumo
  •  

    Sistemas de identificação confiáveis tornaram-se componentes chaves de várias aplicações que disponibilizam serviços para usuários autenticados. Uma vez que métodos tradicionais para estabelecer a identidade de um usuário (como os que utilizam senhas ousmartcards) podem ser manipulados com o objetivo de burlar os sistemas, métodos de autenticação biométrica vêm recebendo mais atenção nos últimos anos. Um dos traços biométricos é a face. O problema do reconhecimento de faces em vídeo e foto é objeto de pesquisa, uma vez que existem muitos fatores que influenciam na detecção e no reconhecimento, tais como: iluminação, posição da face, imagem ao fundo, diferentes expressões faciais, etc. É possível realizar reconhecimento facial utilizando a Transfomada Cosseno Discreta (DCT). Com o intuito de investigar a robustez do reconhecimento facial utilizando a DCT em relação à iluminação, posição e escala, neste trabalho foram desenvolvidas duas melhorias para o sistema de reconhecimento facial SDRF de (OMAIA, 2009): uma etapa de normalização de posição e escala para imagens e uma modificação na etapa de seleção de atributos, por meio da inserção de um filtro passa-baixas não ideal.

  • FAUSTO ALVES DE SOUSA NETO
  • DITV-Learning: Uma Ferramenta de Autoria para Construção de Objetos Digitais de Aprendizagem para TV Digital Interativa
  • Data: 27/07/2012
  • Mostrar Resumo
  • O uso crescente de computadores nas escolas vem mudando o padrão de ensino no Brasil e possibilitando que professores interfiram em soluções que tornem o processo de aprendizagem mais participativo e interativo. Neste cenário os objetos de aprendizagem (OA) têm se mostrado uma ferramenta eficiente. A construção de um OA para web ou para TV digital envolve conhecimentos específicos de informática, tornando sua elaboração cara e demorada. Propomos uma ferramenta de autoria para a elaboração de objetos de aprendizagem para a TV digital interativa, que possa viabilizar a construção de OA por profissionais que possuam pouca habilidade em informática.

  • ALINE MARQUES DE MORAIS
  • Uma Arquitetura para Programação Visual de Ambientes baseados em Realidade Virtual para Profissionais da Saúde
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 18/06/2012
  • Mostrar Resumo
  • A complexidade envolvida no processo de geração de aplicações médicas baseadas em Realidade Virtual (RV) exige, em sua maioria, um conhecimento específico em programação para manipular estes sistemas computacionais. Um estudo realizado neste trabalho observou que a maioria dos frameworks com as mesmas potencialidades em RV não possui interface de programação de aplicações voltada para usuários leigos. Isso se aplica em diversas áreas, inclusive na saúde. Neste contexto, se destaca o CyberMed como framework para desenvolvimento de aplicações médicas baseadas em RV. Outro levantamento realizado mostrou que os profissionais da área de saúde possuem vontade em interagir com sistemas em RV de fácil uso. Baseado nesses resultados e em outros estudos executados, esse trabalho apresentará um estudo sobre Programação Visual (PV) em frameworks na área de saúde e mostrará como essa técnica visual poderá ajudar no processo de interação e de geração de aplicações médicas, com recursos em estereoscopia, colisão, deformação e sensação háptica, por exemplo, uma tarefa intuitiva no processo de execução pelos usuários leigos em programação ou um processo de rápida realização pelos usuários com conhecimento específico em programação. Como resultado desse estudo, será apresentado a arquitetura de um Sistema de PV chamado de CyberMedVPS, baseado nas técnicas de PV e que possibilitará a interação predominantemente gráfica com frameworks de saúde na área de RV para os profissionais de saúde

  • MANUELLA DIAS CARVALHO SILVA
  • Monitoramento Remoto Preventivo de Pacientes com Doenças Cardiovasculares Utilizando Dispositivos Móvel como Agente Inteligente
  • Data: 24/05/2012
  • Mostrar Resumo
  • JOSE CARLOS A PATRICIO JUNIOR
  • Uma Abordagem de Ambiente de KDD com Ênfase em Mineração de Dados no Ambiente da Knowledge TV

  • Data: 18/05/2012
  • Mostrar Resumo
  • A TV Digital Interativa traz inúmeras inovações ao cenário analógico que existia anteriormente, dentre elas: aumento da qualidade de som, imagem, aumento quantidade de canais, programas e serviços disponíveis ao usuário. Contudo, as informações que representam o conteúdo multimídia se apresentam estruturadas de forma tradicional, em formato de tabelas e arquivos, não provendo interoperabilidade entre as informações, nem possuindo semântica. Neste contexto o projeto Knowledge TV - KTV propõe organizar os dados presentes na TV Digital semanticamente, utilizando para isso conceitos de Web Semântica e representação de conteúdo, para fornecer uma arquitetura para desenvolvimento de aplicações. Um dos principais componentes do KTV é o ambiente de descoberta de conhecimento em base de dados apoiado por conceitos semânticos. Neste contexto, este trabalho visa especificar e desenvolver esse ambiente que nesta abordagem será chamado de Mining Knowledge TV – MKTV.

  • RENNAN NUNES TOSCANO
  • GRASP COM ALGORITMOS HIBRIDOS APLICADOAO PROBLEMA DA ARVORE GERADORA DE CUSTO MINIMO CAPACITADA EM NIVEIS
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 11/05/2012
  • Mostrar Resumo
  •  

    Apresenta-se, nesta tese, um algoritmo híbrido, baseado na metaheurística
    Greedy Randomized Adaptive Search (GRASP), para obter soluções
    melhores e reduzir o custo computacional para o problema conhecido
    como o Problema da Árvore Geradora de Custo Mínimo Capacitada
    em Níveis (PAGCMCN). Este problema, normalmente encontrado ao
    se projetar uma rede, consiste em determinar a melhor maneira de se
    conectar vários terminais a um computador central, de forma a atender
    suas demandas. As conexões podem envolver diferentes tipos de
    linhas de transmissão, onde cada tipo possui uma capacidade máxima
    de transmissão distinta. No algoritmo proposto, o otimizador CPLEX
    12.2 é acionado, tanto na fase de construção quanto na de busca local,
    com vistas a uma exploração mais efetiva do espaço de busca. Os
    experimentos computacionais mostraram que o algoritmo proposto é
    bastante competitivo, superando em várias instâncias os resultados da
    literatura e obtendo resultados muito próximos nas demais.

    Apresenta-se, nesta tese, um algoritmo híbrido, baseado na metaheurísticaGreedy Randomized Adaptive Search (GRASP), para obter soluçõesmelhores e reduzir o custo computacional para o problema conhecidocomo o Problema da Árvore Geradora de Custo Mínimo Capacitadaem Níveis (PAGCMCN). Este problema, normalmente encontrado aose projetar uma rede, consiste em determinar a melhor maneira de seconectar vários terminais a um computador central, de forma a atendersuas demandas. As conexões podem envolver diferentes tipos delinhas de transmissão, onde cada tipo possui uma capacidade máximade transmissão distinta. No algoritmo proposto, o otimizador CPLEX12.2 é acionado, tanto na fase de construção quanto na de busca local,com vistas a uma exploração mais efetiva do espaço de busca. Osexperimentos computacionais mostraram que o algoritmo proposto ébastante competitivo, superando em várias instâncias os resultados daliteratura e obtendo resultados muito próximos nas demais.

  • SEVERINO DO RAMO DE PAIVA
  • ESCOLLAB: UMA METODOLOGIA COLABORATIVA VOLTADA PARA O ENSINO DE ENGENHARIA DE SOFTWARE
  • Data: 23/04/2012
  • Mostrar Resumo
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital.

  • José Rogério Bezerra Barbosa Filho
  • Um Método Automático de Detecção de Massas em Mamografias por meio de Redes Neurais
  • Data: 20/04/2012
  • Mostrar Resumo
  • O patrimônio cultural nas últimas décadas vem ampliando seu conceito e as mais diversas áreas de conhecimento vêm sendo reestruturadas para garantir a proteção do patrimônio em sua totalidade. A Antropologia, o Direito, a História e a Sociologia são apenas alguns exemplos dessas áreas que vêm se moldando a ampliação do conceito de Patrimônio Cultural. A Área de Ciências da Computação, embora seja uma vertente que pode contribuir de uma maneira mais completa para a proteção do bem imaterial, ainda não possui muitos instrumentos e meios que moldem ou ditem como garantir o legado cultural através de suas variadas ferramentas. O presente trabalho está atento à necessidade de preservação e proteção da cultura e visa contribuir com esta finalidade através de uma abordagem orientada a features, explicando como e porque conservar os variados aspectos do bem imaterial em meio digital. A avaliação da abordagem proposta neste trabalho foi feita através do desenvolvimento do PAMIN. Este espaço de experimentação possibilitou a validação da representação e gerenciamento do Patrimônio Cultural Imaterial através de sua interface, de suas funcionalidades e seus variados aspectos de representação em meio digital.

  • CARLOS PEIXOTO MANGUEIRA JUNIOR
  • Paralelizando o MOPAC usando CUDA e bibliotecas de Matrizes Esparsas
  • Data: 23/03/2012
  • Mostrar Resumo
  • Este trabalho apresenta a implementação de algoritmos paralelos cujo objetivo principal é acelerar a execução de cálculos numéricos existentes em programas de Química Quântica. Estes programas utilizam alguns métodos cuja ordem de complexidade varia entre O(n3) e O(n5), onde o parâmetro n está relacionado à quantidade de átomos de uma molécula. Isto se torna um fator limitante quando se quer trabalhar com sistemas moleculares contendo milhares de átomos, como por exemplo, proteínas, DNA, polissacarídeos. Será explorado tanto o paralelismo proporcionado pelas placas gráficas e pelo modelo de programação CUDA como também serão utilizadas bibliotecas para manipulação de matrizes esparsas, que são comuns nestes cálculos.

  • CARLOS PEIXOTO MANGUEIRA JUNIOR
  • Paralelizando o MOPAC usando CUDA e bibliotecas de Matrizes Esparsas

  • Data: 23/03/2012
  • Mostrar Resumo
  • Este trabalho apresenta a implementação de algoritmos paralelos cujo objetivo principal é acelerar a execução de cálculos numéricos existentes em programas de Química Quântica. Estes programas utilizam alguns métodos cuja ordem de complexidade varia entre O(n3) e O(n5), onde o parâmetro n está relacionado à quantidade de átomos de uma molécula. Isto se torna um fator limitante quando se quer trabalhar com sistemas moleculares contendo milhares de átomos, como por exemplo, proteínas, DNA, polissacarídeos. Será explorado tanto o paralelismo proporcionado pelas placas gráficas e pelo modelo de programação CUDA como também serão utilizadas bibliotecas para manipulação de matrizes esparsas, que são comuns nestes cálculos.

  • ALEXANDER DE ALMEIDA PINTO
  • UTILIZAÇÃO DAS METAHEURÍSTICAS GRASP E ILS COM BUSCA LOCAL EXATA PARA RESOLUÇÃO DO PROBLEMA DE CONSTRUÇÃO DE TRILHOS DE AERONAVES

  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 22/03/2012
  • Mostrar Resumo
  •  

    Os problemas operacionais cresceram muito em complexidade nos ´ultimos
    tempos, o que tem tornado necess´ario o desenvolvimento de t´ecnicas que
    possam agilizar a tomada de decis˜ao. Empresas que n˜ao utilizam sistemas
    computadorizados com essa finalidade tem perdido espac¸o entre seus concorrentes.
    A construc¸ ˜ao de trilhos de aeronaves ´e considerado um dos principais
    problemas da ind´ustria aeron´autica e se refere ao sequˆenciamento dos voos
    de uma companhia a´erea de forma que o menor n´umero de aeronaves seja
    necess´ario para opera-las. Esse problema possui uma caracter´ıstica combinat
    ´oria e a sua resoluc¸ ˜ao fica mais dif´ıcil a medida que a quantidade de voos
    envolvidos cresce. Entretanto pequenas modificac¸ ˜oes nos hor´arios de partida
    desses voos, ou o acr´escimo de algum voo de resposicionamento entre dois
    aeroportos pr´oximos podem gerar soluc¸ ˜oes de baixo custo.
    Apresentamos uma algoritmo h´ıbrido baseado na metaheur´ıstica
    GRASP, com a utilizac¸ ˜ao do ILS e de programac¸ ˜ao inteira na busca local.
    Esse algoritmo ´e indicado para resoluc¸ ˜ao de problemas de larga escala, pois
    nesse caso fica invi´avel a aplicac¸ ˜ao de um algoritmo puramente exato que
    poderia levar anos para realizar a tarefa. Os resultados preliminares tem mostrado
    agilidade na obtenc¸ ˜ao de boas soluc¸ ˜oes.

    Os problemas operacionais cresceram muito em complexidade nos ´ultimostempos, o que tem tornado necess´ario o desenvolvimento de t´ecnicas quepossam agilizar a tomada de decis˜ao. Empresas que n˜ao utilizam sistemascomputadorizados com essa finalidade tem perdido espac¸o entre seus concorrentes.A construc¸ ˜ao de trilhos de aeronaves ´e considerado um dos principaisproblemas da ind´ustria aeron´autica e se refere ao sequˆenciamento dos voosde uma companhia a´erea de forma que o menor n´umero de aeronaves sejanecess´ario para opera-las. Esse problema possui uma caracter´ıstica combinat´oria e a sua resoluc¸ ˜ao fica mais dif´ıcil a medida que a quantidade de voosenvolvidos cresce. Entretanto pequenas modificac¸ ˜oes nos hor´arios de partidadesses voos, ou o acr´escimo de algum voo de resposicionamento entre doisaeroportos pr´oximos podem gerar soluc¸ ˜oes de baixo custo.Apresentamos uma algoritmo h´ıbrido baseado na metaheur´ısticaGRASP, com a utilizac¸ ˜ao do ILS e de programac¸ ˜ao inteira na busca local.Esse algoritmo ´e indicado para resoluc¸ ˜ao de problemas de larga escala, poisnesse caso fica invi´avel a aplicac¸ ˜ao de um algoritmo puramente exato quepoderia levar anos para realizar a tarefa. Os resultados preliminares tem mostradoagilidade na obtenc¸ ˜ao de boas soluc¸ ˜oes.

  • DANIEL LEITE VIANA COSTA
  • Uma Abordagem Heurística para o Problema de Roteamento DIAL-A-RIDE

  • Data: 22/03/2012
  • Mostrar Resumo
  • Sistema de Carona Web utilizando a
    abordagem DARP

  • JOSÉ JUDSON MESQUITA CUNHA
  • PROPOSTA DE DESENVOLVIMENTO DE UM LABORATÓRIO VIRTUAL PARA ENSINO DE PROJETOS DE CIRCUITOS INTEGRADOS

  • Data: 01/03/2012
  • Mostrar Resumo
  • Esse trabalho propõe a criação de um Laboratório Virtual (LV) para o treinamento à distância em projetos de Circuitos Integrados, visando atender às necessidades instituições de ensino e pesquisa. O referido laboratório é passivo de adaptação ao perfil Visual Ativo típico dos alunos de engenharia e computação, possuindo também outras características importantes como o acesso remoto às ferramentas de projeto com tutoria e acompanhamento do professor, gerenciamento de arquivos, visualização de vídeos e imagens das redes sociais, bem como a comunicação interpessoal através de mensagens assíncronas.

  • ANDRE LUIZ DE LUCENA TORRES
  • Simulação baseada em atores como ferramenta de ensino de organização e arquitetura de computadores

  • Data: 01/03/2012
  • Mostrar Resumo
  • A informática educativa se faz cada vez mais presente nas atividades pedagógicas. Nesta nova realidade, várias aplicações visam facilitar a construção do conhecimento por parte dos professores em relação aos alunos através de métodos dinâmicos, expondo aulas para múltiplos ramos sem haver grande esforço ou repetições desnecessárias. Na área da Computação, existe a necessidade de utilização de aplicações que facilitem a aprendizagem. Pois, se tem observado que os ensinos de alguns conceitos introdutórios em disciplinas essenciais costumam apresentar um nível de abstração que prejudica o aprendizado dos alunos de cursos de informática que já possuem uma grande dificuldade em lidar com disciplinas da área de hardware. A utilização de simuladores na educação se faz cada vez mais presente nas atividades pedagógicas. Nesta nova realidade, várias aplicações visam facilitar a construção do conhecimento por parte dos professores em relação aos alunos, através de métodos dinâmicos e expondo aulas para múltiplos ramos sem haver grande esforço ou repetições desnecessárias. Neste sentido, este trabalho apresenta os resultados alcançados com a aplicação de uma extensão desenvolvida numa ferramenta de modelagem e simulação de sistemas concorrente baseada em atores, denominada Ptolemy. A extensão foi criada para contribuir com o processo de ensino-aprendizagem da disciplina de Organização e Arquitetura de Computadores com alunos da graduação.

2011
Descrição
  • Bruno Barufaldi
  • QUALIMAMO – UMA FERRAMENTA PARA CONTROLE DE QUALIDADE DE MAMÓGRAFOS

  • Data: 29/12/2011
  • Mostrar Resumo
  • QUALIMAMO – UMA FERRAMENTA PARA CONTROLE DE QUALIDADE DE MAMÓGRAFOS

  • ANTONIO DEUSANY DE CARVALHO JUNIOR
  • Análise de Padrões Musicais Rítmicos e Melódicos
    Utilizando o Algoritmo de Predição por Correspondência Parcial

  • Data: 26/12/2011
  • Mostrar Resumo
  • Análise de Padrões Musicais Rítmicos e Melódicos
    Utilizando o Algoritmo de Predição por Correspondência Parcial

  • JULIO CESAR FERREIRA DA SILVA
  • STYLO: Um framework voltado para o desenvolvimento de aplicações baseadas em vídeo digital
  • Data: 21/11/2011
  • Mostrar Resumo
  • Não Informado

  • MARIANA MEIRELLES DE MELLO LULA
  • Um Processo Ágil para Especificação de Requisitos em Programas Interativos com foco em Roteiros de TV
  • Data: 21/11/2011
  • Mostrar Resumo
  • RESUMO

    A adição de software aos programas de TV através da implantação do Sistema Brasileiro de TV Digital impulsionou a integração dessas duas grandes indústrias: software e TV. Essas duas linhas de trabalho possuem diferentes pensamentos e formas de trabalhar, contudo, com a chegada da TV Digital estes dois perfis profissionais, comunicação e informática necessitam trabalhar juntos. A especificação de requisitos do software segue algumas atividades determinadas de acordo com o processo que está sendo utilizado. Na televisão digital a elicitação de requisitos encontra um ambiente diferente, no qual, temos perfis profissionais diversos que estão envolvidos nesta atividade. Neste trabalho apresentamos um processo ágil para a especificação de requisitos em programas interativos que integram conteúdo audiovisual e aplicações interativas, buscando facilitar o entendimento e desenvolvimento do programa interativo pela equipe envolvida. A abordagem apresentada é baseada em roteiro interativo e histórias de usuário. O roteiro interativo vai adicionar as informações da aplicação interativa ao roteiro da equipe de comunicação e, o storyboard irá facilitar o entendimento da aplicação. O processo foi utilizado em um projeto real, onde doze programas interativos foram desenvolvidos. Por fim, são discutidos os resultados obtidos e perspectivas.

     

     

  • JULIO CESAR FERREIRA DA SILVA
  • Data: 21/11/2011

  • MARIANA MEIRELLES DE MELLO LULA
  • Data: 21/11/2011

  • JONATAS PEREIRA CABRAL DE ARAUJO
  • CoreKTV - Uma infraestrutura baseada em conhecimento para TV Digital Interativa: um estudo de caso para o middleware Ginga
  • Data: 23/09/2011
  • Mostrar Resumo
  • O surgimento da TV Digital promoveu um cenário de aumento da quantidade de canais, serviços e conteúdo disponíveis ao usuário. Entretanto, tais mudanças não foram refletidas na forma como o conteúdo multimídia é descrito. O modelo tradicional apresenta uma estrutura sintática, no qual as informações não possuem semântica, além do seu formato de representação para transmissão que não permite interoperabilidade com outros sistemas. Com a convergência entre as plataformas de TV e Web esse cenário passa a ser ainda mais problemático, uma vez que na Web já há um movimento em curso com o objetivo de tornar os sistemas interoperáveis e o formato de representação homogêneo. Neste cenário, este trabalho propõe uma infraestrutura para modelagem de conteúdo multimídia em TVDI baseada em conhecimento alinhado aos conceitos e padrões da Web Semântica, visando à integração entre as plataformas de TVDI e Web, aplicada ao middleware do padrão brasileiro, o Ginga.

  • JONATAS PEREIRA CABRAL DE ARAUJO
  • Data: 23/09/2011

  • THALLYS PEREIRA DE ALMEIDA
  • Segmentação de Imagens de Enxertos Ósseos Utilizando Watershed e K-Médias
  • Data: 20/09/2011
  • Mostrar Resumo
  • A aplicação de enxertos ósseos na recuperação de tecidos ósseos é uma área que vem sendo bastante estudada e está em constante evolução. Nos últimos anos, diversas técnicas de aplicação desses enxertos vêm sendo desenvolvidas. Com isso, surge a necessidade da criação de um método de análise automático, objetivo, imparcial e eficiente de avaliação dos resultados dessas técnicas. Diversas pesquisas utilizando segmentação de imagens vêm sendo realizadas nas mais diversas áreas. Entre elas, podemos citar a área médica, onde as segmentações podem ser aplicadas para delimitar na imagem regiões como tumores, células, glândulas, órgãos, tecidos celulares, entre outros. Diversos métodos de segmentação podem ser desenvolvidos especificamente para delimitar cada um desses elementos. Segmentações dessa natureza eram realizadas tradicionalmente de forma manual, ou então, tentava-se detectar os objetos na imagem de forma meramente visual, sem nenhum dado numérico que pudesse avaliar de forma precisa o tamanho ou as demais propriedades de estudo na imagem. Avaliações desse tipo acabam ficando sujeitas à interpretação de cada pesquisador, podendo trazer resultados imparciais e tendenciosos. Dessa forma, a utilização de um método computacional torna-se essencial para a realização deste tipo de análise. O presente trabalho apresenta um método de avaliação morfométrica para análise da neoformação óssea sobre enxertos ósseos aplicados a cobaias que receberam implantes de biomateriais. A técnica emprega a combinação entre os algoritmos de segmentação k-médias e watershed a fim de realizar uma segmentação baseada na cor representada pelo sistema L*a*b*. Para identificar a região que corresponde à neoformação óssea, foi realizada uma análise através do sistema de cores HSL. Diversos experimentos foram realizados com um grande número de imagens e foram obtidos resultados satisfatórios. O desempenho do método de segmentação sobre imagens de ossos de roedores foi bem avaliado por especialistas, que consideraram o processo eficiente e os resultados compatíveis aos obtidos por especialistas na área.

  • THALLYS PEREIRA DE ALMEIDA
  • Data: 20/09/2011

  • ADRIANA ESMERALDO DE OLIVEIRA
  • API DE SEGURANÇA E ARMAZENAMENTO DE UMA ARQUITETURA MULTIBIOMÉTRICA PARA CONTROLE DE ACESSO COM AUTENTICAÇÃO CONTÍNUA
  • Data: 16/09/2011
  • Mostrar Resumo
  • Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.
    Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.
    Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas é
    conhecido como um sistema multibiométrico.
    Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamento
    de uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidades
    biométricas.
    Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitir
    um acesso indevido. Como alternativa para este problema, a API utiliza um processo de
    autenticação contínua, que verifica se o usuário que se identificou no início de uma aplicação
    de software ainda está apto a continuar no sistema, sem interferências humanas ou paralisações
    do processo.
    Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de erro
    do sistema e na simplificação de equações. No entanto, também é importante que se tenha
    uma base sólida para progressos futuros no momento em que os processos e a arquitetura da
    nova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetada
    permitiu a construção de uma API bem definida para sistemas multibiométricos, que deverá
    auxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de forma
    a possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.
    Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquitetura
    multibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz de
    receber novas características e processos biométricos com facilidade, permitindo, ainda, o
    uso de um mecanismo de segurança de templates biométricos.
    A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicação
    protótipo, por meio da qual foi possível realizar os testes.
    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas éconhecido como um sistema multibiométrico.Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamentode uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidadesbiométricas.Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitirum acesso indevido. Como alternativa para este problema, a API utiliza um processo deautenticação contínua, que verifica se o usuário que se identificou no início de uma aplicaçãode software ainda está apto a continuar no sistema, sem interferências humanas ou paralisaçõesdo processo.Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de errodo sistema e na simplificação de equações. No entanto, também é importante que se tenhauma base sólida para progressos futuros no momento em que os processos e a arquitetura danova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetadapermitiu a construção de uma API bem definida para sistemas multibiométricos, que deveráauxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de formaa possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquiteturamultibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz dereceber novas características e processos biométricos com facilidade, permitindo, ainda, ouso de um mecanismo de segurança de templates biométricos.A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicaçãoprotótipo, por meio da qual foi possível realizar os testes.

  • ADRIANA ESMERALDO DE OLIVEIRA
  • API DE SEGURANÇA E ARMAZENAMENTO DE UMA ARQUITETURA MULTIBIOMÉTRICA PARA CONTROLE DE ACESSO COM AUTENTICAÇÃO CONTÍNUA
  • Data: 16/09/2011
  • Mostrar Resumo
  •  

    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.
    Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.
    Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas é
    conhecido como um sistema multibiométrico.
    Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamento
    de uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidades
    biométricas.
    Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitir
    um acesso indevido. Como alternativa para este problema, a API utiliza um processo de
    autenticação contínua, que verifica se o usuário que se identificou no início de uma aplicação
    de software ainda está apto a continuar no sistema, sem interferências humanas ou paralisações
    do processo.
    Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de erro
    do sistema e na simplificação de equações. No entanto, também é importante que se tenha
    uma base sólida para progressos futuros no momento em que os processos e a arquitetura da
    nova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetada
    permitiu a construção de uma API bem definida para sistemas multibiométricos, que deverá
    auxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de forma
    a possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.
    Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquitetura
    multibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz de
    receber novas características e processos biométricos com facilidade, permitindo, ainda, o
    uso de um mecanismo de segurança de templates biométricos.
    A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicação
    protótipo, por meio da qual foi possível realizar os testes.

    Um sistema biométrico que empregue uma única peculiaridade ou traço característico é restrito.Esta limitação pode ser suavizada pela fusão dos dados apresentados por múltiplas fontes.Um sistema que consolida a evidência apresentada por múltiplas fontes biométricas éconhecido como um sistema multibiométrico.Nesse contexto, este trabalho propõe a interface de aplicação (API) de segurança e armazenamentode uma arquitetura multibiométrica, com habilidade de empregar uma ou mais modalidadesbiométricas.Em aplicações de controle de acesso, um usuário pode ser coagido a se autenticar para permitirum acesso indevido. Como alternativa para este problema, a API utiliza um processo deautenticação contínua, que verifica se o usuário que se identificou no início de uma aplicaçãode software ainda está apto a continuar no sistema, sem interferências humanas ou paralisaçõesdo processo.Grande parte da literatura sobre projeto de sistemas biométricos tem o foco nas taxas de errodo sistema e na simplificação de equações. No entanto, também é importante que se tenhauma base sólida para progressos futuros no momento em que os processos e a arquitetura danova aplicação biométrica estiverem sendo projetados. Neste sentido, a arquitetura projetadapermitiu a construção de uma API bem definida para sistemas multibiométricos, que deveráauxiliar os desenvolvedores a padronizar, entre outras coisas, sua estrutura de dados, de formaa possibilitar e facilitar a fusão de modelos biométricos e a interoperabilidade.Deste modo, a API de segurança e armazenamento desenvolvida suporta uma arquiteturamultibiométrica de controle de acesso para autenticação contínua extensível, isto é, capaz dereceber novas características e processos biométricos com facilidade, permitindo, ainda, ouso de um mecanismo de segurança de templates biométricos.A API foi projetada e implementada. Sua demonstração foi feita através de uma aplicaçãoprotótipo, por meio da qual foi possível realizar os testes.

     

  • ADRIANA ESMERALDO DE OLIVEIRA
  • Data: 16/09/2011

  • RICARDO MENDES COSTA SEGUNDO
  • Athus: um framework para o desenvolvimento de jogos para TV Digital utilizando Ginga
  • Data: 09/09/2011
  • Mostrar Resumo
  • RESUMO

    O Ginga, middleware do Sistema Brasileiro de TV Digital, tem ganhado importância internacional, sendo adotado por diversos países da América do Sul e ao se tornar recomendação ITU para IPTV. Com isso, o sinal digital, irá ser recebido por mais televisores, levando vídeo de alta definição e áudio de alta qualidade aos telespectadores, como também a possibilidade de interagir com as aplicações televisivas. As possibilidades de interatividade destas aplicações são inúmeras: enquetes, acompanhamento de estatísticas em eventos esportivos, informações adicionais e complementares sobre novelas e seriados, entre outras. Dentre estas aplicações, um tipo que poderá tomar espaço são os jogos, os quais vêm ganhando destaque no mercado mundial em diversas plataformas. Eles possuem um caráter de entretenimento e desafio, variando de jogos simples, acessíveis a todos, a jogos mais complexos voltados a jogadores experientes. Criar uma ferramenta que auxilie no desenvolvimento de jogos para o Ginga se torna um passo importante para facilitar a produção de jogos que possam atingir milhões de pessoas não só no Brasil, mas em todos os países que adotarem o padrão brasileiro. Assim sendo, este trabalho apresenta o Athus, um framework de desenvolvimento de jogos voltado para a Televisão Digital. Para isto foi feito um estudo sobre os diversos aspectos dos jogos, tais como a indústria, formas de produção e categorias; e também, uma pesquisa acerca da produção dos jogos para a TV Digital no Brasil e no mundo. No decorrer do trabalho é mostrado como os jogos poderão ser utilizados sobre a plataforma Ginga, a construção e uso do framework e os resultados obtidos com sua utilização (jogos desenvolvidos e testes realizados com programadores).

  • ANDRE FELIPE PALMEIRA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 09/09/2011

  • DIEGO SANTOS DE ANDRADE PIZZOL
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 09/09/2011

  • RICARDO MENDES COSTA SEGUNDO
  • Data: 09/09/2011

  • FABIANA FERREIRA DO NASCIMENTO
  • Orientador : ED PORTO BEZERRA
  • Data: 22/08/2011

  • THIAGO PEREIRA RIQUE
  • Orientador : ALVARO FRANCISCO DE CASTRO MEDEIROS
  • Data: 29/04/2011

  • HERBET FERREIRA RODRIGUES
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 23/03/2011

  • TALLES BRITO VIANA
  • Uma Técnica de Indexação de Dados Semi-Estruturados para o Processamento Eficiente de Consultas com Ramificação
  • Data: 18/03/2011
  • Mostrar Resumo
  • O surgimento de sistemas baseados na Web tem gerado uma vasta quantidade de fontes de
    documentos semi-estruturados, os quais necessitam ser indexados por sistemas de busca a fim
    de possibilitar a descoberta de documentos de acordo com necessidades de informação do
    usuário. Entretanto, um dos maiores desafios no desenvolvimento de técnicas de indexação
    para documentos semi-estruturados diz respeito a como indexar não somente o conteúdo
    textual, mas também a informação estrutural dos documentos. O principal problema está em
    prover suporte para consultas com ramificação sem introduzir fatores que causem perda de
    precisão aos resultados de pesquisa, bem como, o crescimento indesejado do tempo de
    processamento de consultas e dos tamanhos de índice. Várias técnicas de indexação para
    dados semi-estruturados são encontradas na literatura. Apesar das relevantes contribuições, as
    propostas existentes sofrem com problemas relacionados à perda de precisão, requisitos de
    armazenamento ou custos de processamento de consultas. Neste contexto, nesta dissertação é
    proposta uma técnica de indexação (denominada BranchGuide) para dados semi-estruturados
    que suporta uma bem definida classe de consultas com ramificação sem perda de precisão.
    Esta classe compreende caminhos com ramificação que permitem expressar dependências paifilho
    entre elementos nos quais podem ser impostas restrições sob os valores de atributos de
    tais elementos. Como evidenciado experimentalmente, a adoção da técnica BranchGuide gera
    excelentes tempos de processamento de consulta e tamanhos de índice menores do que os
    gerados por uma técnica de interseção estrutural.
    O surgimento de sistemas baseados na Web tem gerado uma vasta quantidade de fontes dedocumentos semi-estruturados, os quais necessitam ser indexados por sistemas de busca a fimde possibilitar a descoberta de documentos de acordo com necessidades de informação dousuário. Entretanto, um dos maiores desafios no desenvolvimento de técnicas de indexaçãopara documentos semi-estruturados diz respeito a como indexar não somente o conteúdotextual, mas também a informação estrutural dos documentos. O principal problema está emprover suporte para consultas com ramificação sem introduzir fatores que causem perda deprecisão aos resultados de pesquisa, bem como, o crescimento indesejado do tempo deprocessamento de consultas e dos tamanhos de índice. Várias técnicas de indexação paradados semi-estruturados são encontradas na literatura. Apesar das relevantes contribuições, aspropostas existentes sofrem com problemas relacionados à perda de precisão, requisitos dearmazenamento ou custos de processamento de consultas. Neste contexto, nesta dissertação éproposta uma técnica de indexação (denominada BranchGuide) para dados semi-estruturadosque suporta uma bem definida classe de consultas com ramificação sem perda de precisão.Esta classe compreende caminhos com ramificação que permitem expressar dependências paifilhoentre elementos nos quais podem ser impostas restrições sob os valores de atributos detais elementos. Como evidenciado experimentalmente, a adoção da técnica BranchGuide geraexcelentes tempos de processamento de consulta e tamanhos de índice menores do que osgerados por uma técnica de interseção estrutural.

  • TALLES BRITO VIANA
  • Data: 18/03/2011

  • AMILCAR SOARES JUNIOR
  • Data: 04/03/2011

  • AMILCAR SOARES JUNIOR
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 04/03/2011

  • RODRIGO DA CRUZ FUJIOKA
  • SCOLLAB CORE: A PROPOSTA DE UM FRAMEWORK PARA CONSTRUÇÃO DE APLICAÇÕES SOCIAIS
  • Data: 28/02/2011
  • Mostrar Resumo
  • PROPOSTA DE UM FRAMEWORK PARA CONSTRUÇÃO DE APLICAÇÕES SOCIAIS

  • NILTON HIDEKI TAKAGI
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 28/02/2011

  • RODRIGO DA CRUZ FUJIOKA
  • Data: 28/02/2011

  • THAIS ALVES BURITY PEREIRA
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 28/02/2011

  • WALBER JOSE ADRIANO SILVA
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 08/02/2011

  • EDUARDO PAZ SERAFIM
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 07/02/2011

  • RODRIGO CARTAXO MARQUES DUARTE
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 07/02/2011

2010
Descrição
  • FELIPE SOARES DE OLIVEIRA
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 20/12/2010

  • HUMBERTO RABELO
  • Orientador : TATIANA AIRES TAVARES
  • Data: 20/12/2010

  • ERICK AUGUSTO GOMES DE MELO
  • Data: 05/11/2010

  • TATIANE CRUZ DE SOUZA HONORIO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 31/08/2010

  • ELTON DA NOBREGA MASCENA
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 30/08/2010

  • MARCELO FERNANDES DE SOUSA
  • Orientador : ED PORTO BEZERRA
  • Data: 30/08/2010

  • ALYSSON DINIZ DOS SANTOS
  • Orientador : RONEI MARCOS DE MORAES
  • Data: 27/08/2010

  • CAIO REGIS CAROCA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 27/08/2010

  • LAMARK DOS SANTOS RIBEIRO
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 27/08/2010

  • YURI MORAIS BEZERRA
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 16/08/2010

  • KLEBBER DE ARAUJO PEDROSA
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 10/08/2010

  • RAFAEL ROSSI DE MELLO BRANDAO
  • LUATV: UMA API PARA EXTENSÃO DE APLICAÇÕES NO AMBIENTE GINGA-NCL
  • Data: 03/08/2010
  • Mostrar Resumo
  • O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.
    As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.
    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

  • RAFAEL ROSSI DE MELLO BRANDAO
  • LUATV: UMA API PARA EXTENSÃO DE APLICAÇÕES NO AMBIENTE GINGA-NCL
  • Data: 03/08/2010
  • Mostrar Resumo
  •  

    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.
    As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

    O ambiente Ginga-NCL é responsável pela apresentação de aplicações declarativas (escritas na linguagem NCL) no Sistema Brasileiro de Televisão Digital (SBTVD), e é também a Recomendação ITU-T H.761 para middlewares IPTV. A linguagem Lua é utilizada como linguagem de scripting da NCL. A série de recomendações ITU-T H.760 define também dois conjuntos de API NCLua para o desenvolvimento de aplicações IPTV: as APIs Core e Extended. A API Core compreende a API NCLua básica, parte integrante da especificação original do ambiente Ginga-NCL no SBTVD. A API Extended tem como objetivo prover outras funcionalidades relevantes incorporando algumas das facilidades encontradas em ambientes imperativos. Este trabalho visa especificar um conjunto de APIs Lua denominado LuaTV, que será parte da especificação inicial para a API NCLua Extended.As facilidades da API são dividas em quatro pacotes funcionais: metadata, com funcionalidades relacionadas ao acesso de metadados presentes em um fluxo de TV Digital; security, que provê mecanismos para encriptação, autenticação e integridade de dados; multidevices, oferecendo acesso em alto-nível a recursos comumente presentes em dispositivos remotos; e widget, que tem como objetivo oferecer suporte ao desenvolvimento de componentes gráficos.

  • CLAUDIA ROSSANA CUNHA
  • Metaheurística Híbrida GRASP e Busca Tabu Aplicada ao Problema de Escalonamento de Tarefas
  • Data: 16/07/2010
  • Mostrar Resumo
  • Este trabalho aborda o problema de escalonamento de tarefas (Job Shop Scheduling) através da combinação das metaheurísticas GRASP e Busca Tabu. O estudo consiste em utilizar o GRASP na fase de construção da solução inicial, sugerindo, para tanto, um procedimento específico baseado no algoritmo de Coffman Gramah. Tal procedimento foi o grande diferencial deste trabalho, visto que oferece uma solução inicial qualitativamente superior, permitindo a redução do tempo de busca local, onde foi utilizada a metaheurística Busca Tabu, a qual demonstrou proporcionar melhores resultados, comparando-se com outras metaheurísticas que seguem a mesma base estrutural. A combinação GRASP e Busca Tabu foi avaliada sob duas implementações diferenciadas, sendo uma com a Busca Tabu em sua forma mais simplificada e outra com a Busca Tabu desenvolvendo um processo de busca otimizada — com o auxílio de um modelo matemático —, a qual demonstrou grandes progressos quanto ao tempo de processamento e a obtenção de resultados. Os resultados computacionais obtidos, quando comparados com os existentes na literatura, mostraram que a combinação GRASP e Busca Tabu é capaz de produzir boas soluções.

    .

  • CLAUDIA ROSSANA CUNHA
  • Data: 16/07/2010

  • BRUNO RAFAEL DE ARAUJO SALES
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 12/07/2010

  • DANIEL FAUSTINO L DE SOUZA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 05/07/2010

  • FERNANDA PAULINELLI R SILVA
  • Orientador : TATIANA AIRES TAVARES
  • Data: 05/07/2010

  • JOSE RAPHAEL TEIXEIRA MARQUES
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 30/04/2010

  • DANIEL CHARLES FERREIRA PORTO
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 26/03/2010

  • TIAGO DIAS CARVALHO DO NASCIMENTO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 26/03/2010

  • GUSTAVO REZENDE CARVALHO
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 05/03/2010

  • JERRY LEE ALVES DOS SANTOS
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 05/03/2010

  • LEONARDO MEDEIROS
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 04/03/2010

  • THYAGO MAIA TAVARES DE FARIAS
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 04/03/2010

  • FRANCISCO DANTAS NOBRE NETO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 19/01/2010

2009
Descrição
  • JOSE TEIXEIRA DE CARVALHO NETO
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 14/12/2009

  • THIAGO GOUVEIA DA SILVA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 28/08/2009

  • DERZU OMAIA
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 27/08/2009

  • FERNANDO AUGUSTO FERREIRA LORDAO
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 27/08/2009

  • ANDRE LIRA ROLIM
  • Orientador : ED PORTO BEZERRA
  • Data: 13/08/2009

  • JOSE RITOMAR CARNEIRO TORQUATO
  • Orientador : ED PORTO BEZERRA
  • Data: 13/08/2009

  • ROBERTA BRITO NUNES DINIZ
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 26/06/2009

  • ROBERTA MACEDO MARQUES GOUVEIA
  • Orientador : VALERIA GONCALVES SOARES
  • Data: 29/05/2009

  • THIAGO CURVELO DOS ANJOS
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 03/04/2009

  • EUDISLEY GOMES DOS ANJOS
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 27/03/2009

  • REGINALDO TAVARES VIRGINIO FILHO
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 20/02/2009

  • GEDVAN PEREIRA DIAS
  • Orientador : RONEI MARCOS DE MORAES
  • Data: 18/02/2009

  • TIAGO MARITAN UGULINO DE ARAUJO
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 06/02/2009

2008
Descrição
  • BRUNO CESAR BARRETO DE FIGUEIREDO
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 12/09/2008

  • THAISE KELLY DE LIMA COSTA
  • Orientador : LILIANE DOS SANTOS MACHADO
  • Data: 05/09/2008

  • JOAO PAULO FREITAS DE OLIVEIRA
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 01/09/2008

  • MATEUS NOVAES SANTOS
  • Orientador : GLEDSON ELIAS DA SILVEIRA
  • Data: 01/09/2008

  • MARCO A V M DE VASCONCELOS
  • Data: 22/08/2008

  • CARLOS ALBERTO NUNES MACHADO
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 14/08/2008

  • LUDMILA DE ALMEIDA PEDROSA
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 13/08/2008

  • SINDOLFO LUIZ DE MIRANDA F FILHO
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 12/08/2008

  • LINCOLN DAVID NERY E SILVA
  • Uma Proposta de API para Desenvolvimento de Aplicações Multiusuário e Multidispositivo para TV Digital Utilizando o Middleware Ginga.
  • Data: 08/08/2008
  • Mostrar Resumo
  • O avanço das aplicações de TV Digital Interativa não ocorre na mesma velocidade que as aplicações para WEB ou Desktop. Tal fato se deve tanto por limitações encontradas no hardware e no middleware no qual as aplicações são executadas, quanto pela limitação do dispositivo usado na interação dos usuários com a TV. No panorama nacional, a especificação do middleware Ginga permite a incorporação de novas funcionalidades através da API de Integração de Dispositivos, alvo desse trabalho. Esta API que permite que aplicações de TVDI usem dispositivos móveis tanto como meio de interação, como para compartilhamento de seus recursos multimídia. Como resultado do uso da API proposta, as aplicações de TVDI passam a contar com novas possibilidades até então não disponíveis nos middlewares de TV Digital existentes; como a utilização de mais de um dispositivo simultaneamente, o suporte ao desenvolvimento de aplicações multiusuário e o acesso a recursos de captura de mídias contínuas disponíveis em aparelhos como celulares, que podem ser integrados aos aparelhos de TV. A API resultante desse trabalho foi implementada e utilizada no desenvolvimento de aplicações para TVDI voltadas a explorar os novos recursos avançados disponíveis.
  • LINCOLN DAVID NERY E SILVA
  • Data: 08/08/2008

  • CARLOS EDUARDO SILVEIRA DIAS
  • Orientador : GUIDO LEMOS DE SOUZA FILHO
  • Data: 01/08/2008

  • FABRIZIA MEDEIROS DE SOUSA MATOS
  • Orientador : LEONARDO VIDAL BATISTA
  • Data: 09/07/2008

  • PAULO CESAR DE HOLANDA FURTADO
  • Orientador : RONEI MARCOS DE MORAES
  • Data: 27/06/2008

  • MARIA DAS GRACAS COSTA NERY DA SILVA
  • Orientador : ED PORTO BEZERRA
  • Data: 19/06/2008

  • BRUNO JEFFERSON DE SOUSA PESSOA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 21/05/2008

  • JEFFERSON FERREIRA DE ARAUJO LIMA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 21/05/2008

  • ANDRE RICARDO CIRAULO DE SOUZA
  • Orientador : JOSE ANTONIO GOMES DE LIMA
  • Data: 02/04/2008

  • MOAB MARIZ MEIRA
  • Classificação de Texturas usando o Algoritmo Lempel- Ziv-Welch
  • Data: 29/02/2008
  • Mostrar Resumo
  • Este trabalho apresenta um novo e eficiente método de classificação de
    texturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW).
    Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontal
    e vertical de cada classe de textura. Na fase de classificação, amostras de texturas
    são codificadas com o LZW no modo estático, usando os dicionários construídos
    na fase anterior. Uma amostra é associada à classe cujo dicionário conduz à
    melhor taxa de codificação. O classificador foi avaliado para vários tamanhos do
    conjunto de treinamento e das amostras de treinamento, e sob diferentes condições
    de iluminação das texturas. O método proposto atinge 100% de acerto em alguns
    experimentos usando amostras de texturas do álbum Brodatz. Comparações diretas
    com outros trabalhos indicam a superioridade do método sobre outros métodos
    de alto desempenho.
    Este trabalho apresenta um novo e eficiente método de classificação detexturas usando o algoritmo de compressão sem perdas Lempel-Ziv-Welch (LZW).Na fase de aprendizagem, o LZW constrói dicionários para as estruturas horizontale vertical de cada classe de textura. Na fase de classificação, amostras de texturassão codificadas com o LZW no modo estático, usando os dicionários construídosna fase anterior. Uma amostra é associada à classe cujo dicionário conduz àmelhor taxa de codificação. O classificador foi avaliado para vários tamanhos doconjunto de treinamento e das amostras de treinamento, e sob diferentes condiçõesde iluminação das texturas. O método proposto atinge 100% de acerto em algunsexperimentos usando amostras de texturas do álbum Brodatz. Comparações diretascom outros trabalhos indicam a superioridade do método sobre outros métodosde alto desempenho.

  • CARLOS EDUARDO COELHO FREIRE BATISTA
  • TVGRID - Computação em Grid em Rede de TV Digital
  • Data: 29/02/2008
  • Mostrar Resumo
  • TVGRID - Computação em Grid em Rede de TV Digital

  • ANDRE MARINHO ARAUJO
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 29/02/2008

  • CARLOS EDUARDO COELHO FREIRE BATISTA
  • Data: 29/02/2008

  • CHRISTHINY FERNANDA MASIERO SANSON
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 29/02/2008

  • FRANCISCO DAS CHAGAS ROCHA
  • Orientador : ED PORTO BEZERRA
  • Data: 29/02/2008

  • MOAB MARIZ MEIRA
  • Data: 29/02/2008

  • EDNALDO MARIANO VASCONCELOS DE LIMA
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 28/02/2008

  • GILBERTO FARIAS DE SOUSA FILHO
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 28/02/2008

2007
Descrição
  • TIAGO LIMA SALMITO
  • DISCO VIRTUAL NACIONAL - Uma ferramenta de armazenamento distribuído de dados
  • Data: 30/05/2007
  • Mostrar Resumo
  •  

    Serviços de telerradiologia têm se tornado populares, principalmente por seu
    potencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade na
    prestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, este
    potencial traz desafios elevados: o grande volume de dados, característico dos
    exames de imagens, e os requisitos de segurança que visam garantir a sua
    confidencialidade e integridade. Além disso, questões éticas envolvem o modelo
    dominante no mercado, em que este serviço é prestado por empresas terceirizadas, e
    não diretamente pelos profissionais radiologistas. Assim, este trabalho propõe um
    modelo distribuído e cooperativo, através do qual os profissionais de saúde podem
    interagir diretamente com os hospitais que prestam os cuidados ao paciente. Focouse,
    ainda, em suprir as principais deficiências presentes em soluções consagradas,
    mais precisamente no que diz respeito aos requisitos de segurança, de comunicação
    assíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordagem
    investigativa sobre os mecanismos utilizados nas principais soluções foi realizada, de
    maneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelo
    de Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram a
    base inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões,
    a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas
    (VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS,
    protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boas
    práticas de criptografia, além de outros padrões de segurança e de
    interoperabilidade. Um protótipo foi desenvolvido e está em fase de testes e
    avaliação por médicos radiologistas situados em cidades no interior dos estados do
    Ceará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipo
    tem permitido aos médicos radiologistas emitirem laudos, diariamente, de exames
    de tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até que
    um especialista pudesse deslocar-se até a cidade para produzi-lo.

    Serviços de telerradiologia têm se tornado populares, principalmente por seupotencial de redução de custos, ao tempo em que elevam a agilidade e a qualidade naprestação dos serviços de saúde em áreas geográficas de difícil acesso. Contudo, estepotencial traz desafios elevados: o grande volume de dados, característico dosexames de imagens, e os requisitos de segurança que visam garantir a suaconfidencialidade e integridade. Além disso, questões éticas envolvem o modelodominante no mercado, em que este serviço é prestado por empresas terceirizadas, enão diretamente pelos profissionais radiologistas. Assim, este trabalho propõe ummodelo distribuído e cooperativo, através do qual os profissionais de saúde podeminteragir diretamente com os hospitais que prestam os cuidados ao paciente. Focouse,ainda, em suprir as principais deficiências presentes em soluções consagradas,mais precisamente no que diz respeito aos requisitos de segurança, de comunicaçãoassíncrona, ponto-a-ponto e da viabilidade tecnológica e financeira. Uma abordageminvestigativa sobre os mecanismos utilizados nas principais soluções foi realizada, demaneira a se obter uma base sobre a qual se firmou a solução final. O uso do modelode Cloud Computing, aliado a uma arquitetura RESTful WebServices, proveram abase inicial na qual operam, de forma integrada, tecnologias, paradigmas e padrões,a exemplo de modelos de interconexão Peer-to-Peer, Redes Virtuais Privadas(VPNs), Traversal Address Network Translation (Traversal NAT), Dynamic DNS,protocolo para Comunicação de Imagens Digitais em Medicina (DICOM), boaspráticas de criptografia, além de outros padrões de segurança e deinteroperabilidade. Um protótipo foi desenvolvido e está em fase de testes eavaliação por médicos radiologistas situados em cidades no interior dos estados doCeará, Pernambuco e Paraíba, e segue evoluindo de forma incremental. O protótipotem permitido aos médicos radiologistas emitirem laudos, diariamente, de examesde tomografia computadorizada, os quais, outrora, levavam cerca de 7 dias até queum especialista pudesse deslocar-se até a cidade para produzi-lo.

     

2006
Descrição
  • RICARDO HENRIQUE CORREIA ATANASIO
  • Orientador : ED PORTO BEZERRA
  • Data: 21/12/2006

  • ZENON FARIAS BRAGA FILHO
  • Orientador : ALVARO FRANCISCO DE CASTRO MEDEIROS
  • Data: 19/12/2006

  • DANIEL NUNES LIRA BARBOSA
  • Orientador : LUCIDIO DOS ANJOS FORMIGA CABRAL
  • Data: 18/12/2006

  • RODRIGO GALVAO LOURENCO DA SILVA
  • Orientador : GUSTAVO HENRIQUE MATOS BEZERRA MOTTA
  • Data: 13/12/2006

  • WILLIAMS FERREIRA DA SILVA
  • Orientador : ANTONIO CARLOS CAVALCANTI
  • Data: 17/11/2006