• UFPI

  • PROGRAMA DE PÓS GRADUAÇÃO
  • EM CIÊNCIA DA COMPUTAÇÃO

MINISTÉRIO DA EDUCAÇÃO

  • EM CIÊNCIA DA COMPUTAÇÃO






  • Dissertações/Teses - 2021

    HELANO MIGUEL BRASIL FRANÇA PORTELA Método de Segmentação de Úlceras de Córnea Usando U-net e Ajuste Fino em Duas Etapas Data: 06/07/2021

    A Úlcera de córnea é uma das doenças oculares mais frequentes e é definida como uma inflamação ou, até mesmo enfermidade ainda mais grave, como infecção. Mensurar adequadamente lesões de úlcera de córnea possibilita que os médicos possam avaliar adequadamente a efetividade do tratamento e auxiliar na tomada de decisões. O presente trabalho descreve o desenvolvimento de um  método que tem como objetivo final segmentar automaticamente lesões de úlcera de córnea. Tal método faz uso da arquitetura de Rede Neural Convolucional (CNN) U-net e realiza o refinamento do modelo utilizando um método de ajuste-fino em duas etapas. O resultado proveniente do modelo usando a arquitetura U-net é então submetido a operações de pós-processamento: limiarização de Otsu; dilatações considerando o complemento da forma da lesão com o objetivo de preencher buracos e, por fim, fechamento. O modelo foi treinando usando 358 exemplos de imagens de córnea com a presença de úlceras do tipo Point-Like. Com base em testes realizados em 91 imagens de úlcera de córnea do tipo Flaky, foram calculadas métricas a fim de  avaliar o desempenho do método, atingindo média de 0,823 de Coeficiente Dice, 88,9% para a métrica de Sensibilidade, 99,4% de Especificidade e Coeficiente Positivo Dice de 0,835. 


    JOCINES DELA FLORA DA SILVEIRA Estudo e Desenvolvimento de um Sistema Fuzzy para Auxílio à Tomada de Decisão de Infraestrutura de Rede LoRaWAN, LoRaMesh e Híbrida para um Cenário Smart Farming Data: 18/06/2021

    O aumento da população mundial vem demandando cada vez mais um crescimento na produção de alimentos, gerando uma necessidade de expansão da produção agrícola. Pesquisas envolvendo agricultura inteligente em inglês Smart Farming e o crescimento de tecnologias usando Internet das Coisas em inglês Internet of Things (IoT) veem contribuindo de maneira significativa para a viabilidade de crescimento da produtividade desse setor. O objetivo central do uso dessas tecnologias é coletar, monitorar e empregar efetivamente dados relevantes para os processos agrícolas, como forma de alcançar uma agricultura otimizada em ambiente sustentável. Neste contexto, as redes de sensores sem fio estão sendo utilizadas cada vez mais em diversos tipos de sistemas voltados para cenários Smart Farming. Entre os protocolos de comunicação utilizados por esses sistemas, a tecnologia de longo alcance LoRa destaca-se em razão de suportar transmissões em distâncias muito maiores que os demais, demandando pouca energia. Dessa forma, este trabalho propõe um estudo, comparação e análise das arquiteturas de redes LoRaWAN e LoRaMesh (com equipamentos Radioenge), bem como a hibridização dessas tecnologias em um ambiente agrícola, mais precisamente no Centro de Ciências Agrárias (CCA) da Universidade Federal do Piauí (UFPI), Teresina, Piauí, Brasil. A metodologia proposta consiste na implementação das tecnologias em cenário real e no estudo e analise dos parâmetros de rede utilizando módulos LoRaWAN e LoRaMesh adquiridos junto a empresa Radienge. A avaliação de desempenho foi realizada com base em medições de um cenário real Non-Line-Of-Sight (NLOS), ou seja, cenário sem visada entre os dispositivos. Nesta avaliação, fatores como distância entre nós e diferentes fatores de espalhamento em inglês Spreading Factor (SF) foram considerados. Indicação de intensidade do sinal recebido em inglês Indication of Received Signal Strength (RSSI), Relação Sinal-Ruído em inglês Signal to Noise Ratio (SNR) e taxa de perda de pacotes são as métricas de avaliação consideradas neste estudo. Ainda neste contexto, foi desenvolvido um sistema Fuzzy para auxiliar na tomada de decisão do plano de implantação da infraestrutura de comunicação da IoT para troca efetiva de informações entre dispositivos (sensores, atuadores, controladores, entre outros) no cenário Smart Farming. O sistema oferece grande potencial para auxiliar os gestores na escolha da implementação entre as tecnologias LoRaWAN, LoRaMesh ou híbridas, além de permitir diversos benefícios no desenvolvimento local e na infraestrutura de comunicação.


    ELINEIDE SILVA DOS SANTOS Segmentação Semi-automática de Lesões de Pele com Base em Superpixels e Informações de Textura Data: 28/05/2021

    O diagnóstico de doenças de pele é feito principalmente por meio da visualização de imagens

    dermatoscópicas. Nesse contexto, vários sistemas computacionais para processamento e

    análise de imagens de lesões de pele foram estudados e desenvolvidos. Tais sistemas

    aplicam a segmentação de imagens com lesão como etapa fundamental em suas abordagens.

    Este trabalho apresenta um método semi-automático que pode auxiliar o médico no

    monitoramento da evolução das lesões de pele. A metodologia proposta pré-segmenta

    imagens com lesões cutâneas utilizando o algoritmo SLIC0 para a geração de superpixels.

    Depois disso, cada superpixel é representado na forma de um vetor de atributos usando

    um descritor formado por uma combinação das características de textura GLCM e tamura.

    Essas características foram selecionados com base em um estudo empírico em que, além

    desses descritores, foram avaliados os descritores GLRLM, geoestatística e LBP. Os vetores

    de atributos, representando cada superpixel, foram utilizados como entrada para o algoritmo

    SFc-means (seeded fuzzy C-means). Esse algoritmo de agrupamento semissupervisionado

    usa determinadas regiões marcadas por especialistas para agrupar os superpixels em

    regiões de lesão ou plano de fundo. Finalmente, a imagem segmentada passa por uma

    etapa de pós-processamento usando técnicas de morfologia matemática e um contorno

    ativo geodésico para eliminar ruídos e suavizar bordas. Os experimentos foram realizados

    em 3974 imagens: 2995 imagens das bases de dados PH2, DermIS e ISIC 2018 foram

    utilizadas para estabelecer os parâmetros do método, e 979 imagens dos conjuntos de

    dados ISIC 2016 e ISIC 2017 que foram utilizadas para a análise de desempenho. Os

    resultados mostraram que, ao utilizar apenas 1% dos superpixels, o método pode atingir

    uma acurácias de segmentação média de 95,97%, proporcionando desempenho superior aos

    métodos apresentados na literatura para essas bases de dados. Assim, embora o método

    proposto exija a intervenção do usuário, fornece resultados de segmentação muito perto de

    sua delimitação manual, e é significativamente mais fácil e menos demorado comparado

    com a segmentação manual.


    LÚCIA EMÍLIA SOARES SILVA Rotulação Automática de Grupos Baseada em Análise de Erro de Regressão Data: 23/04/2021

    Os Modelos de Rotulação de Grupos propõem a aplicação de técnicas de Inteligência Artificial para extração das principais características dos grupos, a fim de fornecer uma ferramenta para interpretação de agrupamentos oriundos dos mais diversos tipos de algoritmos de clustering. Para isso, diferentes técnincas, como Aprendizagem de Máquina, Lógica Fuzzy e discretização de dados são utilizadas na identificação dos atributos mais relevantes para formação dos grupos e dos intervalos de valores associados a eles. Esse trabalho apresenta um modelo de rotulação de grupos baseado no uso de regressão para delimitação de intervalos de valores dos atributos que revelem os pares atributo-intervalo que melhor resumem os grupos. A relevância de um atributo para o agrupamento é determinada pelos intervalos de valores dos atributos em que o erro de predição da regressão é mínimo, resultando em rótulos específicos e capazes de representar a maioria dos elementos dos grupos. Os resultados obtidos nos experimentos mostram que o modelo é eficaz em rotular os grupos, apresentando Taxas de Concordâncias entre 0,90 e 1,0 para as bases de dados utilizadas, além de garantir rótulos exclusivos para cada grupo por meio da análise da Taxa de Concordância dos rótulos em grupos distintos.

     


    IGOR RAFAEL SANTOS DA SILVA A Many-Objective, Demand Response Mechanism for Energy Management in a Microgrid Scenario Data: 26/02/2021

    The electricity demand growth is one of the main problems in the power grid scenario, as this situation increases the electricity supply complexity. Simultaneously, environmental issues creates the need for non-pollutant, renewable solutions. With the advent of smart grids, which consists of integrating information and communication technologies (ICT) to a traditional grid, the demand management can be improved by the consumer participation. This process is defined as Demand Response, which is a program that aims to alter the consumer's electricity consumption patterns through incentives or benefits, either based on changes in the electricity price over time or when the power grid operation needs any intervention. Price-based DR programs are the most common schemes, in which a tariff model is used to help the consumer adjust his energy consumption based on electricity price variation. With the increased insertion of distributed generation and the microgrids, the management on the demand-side needs to consider the home appliances usage, as well as the distributed energy resources utilization, considering both the operational characteristics of these elements and the consumer preferences. In this work, a preference-based, demand response (DR) many-objective optimization model based on real-time electricity price is presented to solve the problem of optimal residential load management. The purpose of such a model are: 1) to minimize the costs associated with consumption; 2) to minimize the inconvenience caused to consumers; 3) to minimize environmental pollution; 4) to minimize the occurrence of rebound peaks. Potential solutions to the underlying many-objective optimization problem are subject to a set of electrical and operational constraints related to home appliances categories and the utilization of distributed energy resources (DER) and energy storage systems (ESS). The use of the proposed model is illustrated in a realistic microgrid scenario where suitable solutions were found by the Non-Dominated Sorting Genetic Algorithm III (NSGA-III). These solutions determine new operational periods for home appliances as well as the utilization of DER and ESS for the planning horizon while considering consumer preferences. Besides helping consumers to take advantage of  the benefits offered by DR, the experimental results show that the many-objective DR model together with the NSGA-III algorithm can effectively minimize energy-consumption costs as well as reduce inconvenience costs, environmental pollution and rebound peaks.


    OTÁVIO CURY DA COSTA CASTRO Avaliação de Técnicas para a Identificação de Mantenedores de Código Fonte Data: 26/02/2021

    Durante o processo de evolução de um software, é comum que desenvolvedores acumulem conhecimento em determinados arquivos de código fonte que o compõe. Esses desenvolvedores são responsáveis pelo maior número de contribuições no código desses arquivos, o que torna-os mais aptos entre os membros da equipe de desenvolvimento a realizarem futuras atividades que envolvam esses arquivos. Isso faz da identificação desses mantenedores de código uma informação importante nos ciclos de desenvolvimento de software. Essa informação pode ser utilizada em atividades como: implementação de novas funcionalidades, manutenção de código, assistência a novos membros da equipe, revisão de código, entre outros contextos da produção de software de qualidade. Porém, a identificação desses mantenedores de arquivo nem sempre é uma tarefa trivial, principalmente em projetos grandes onde um arquivo pode ter dezenas ou mesmo centenas de contribuidores durante sua história. Desse contexto surge a necessidade da criação de técnicas cada vez mais eficazes na identificação automática desses mantenedores. Há estudos na literatura que têm como objetivo propor técnicas que utilizam de mineração de repositório de software para ajudar na identificação de mantenedores de arquivos. Porém, acredita-se que ainda há lacunas nesta área de estudo que podem ser exploradas. Em trabalhos anteriores, foi identificado que informações como recência das modificações e o tamanho do arquivo em questão influenciam no conhecimento que determinado desenvolvedor tem com aquele arquivo. Neste trabalho, essas e outras informações extraídas do histórico de desenvolvimento foram combinadas em um modelo linear, e em classificadores de aprendizagem de máquina, para a identificação de mantenedores de arquivo. Essas novas técnicas foram comparadas com outras quatro existentes na literatura: (1) número de commits; (2) número de linhas adicionadas por um desenvolvedor na última versão do arquivo; (3 e 4) dois modelos lineares propostos em trabalhos da área. Foram utilizadas as métricas Recall, Precision e F-Measure para avaliar as performances das técnicas em dois cenários. Os resultados mostram que os modelos propostos apresentam os melhores F-Measures nos cenários analisados, com os classificadores de aprendizagem de máquina atingindo os melhores Precisions. A partir dos resultados obtidos, conclui-se que a definição da melhor técnica depende do contexto da aplicação destas técnicas.


    NECLYEUX SOUSA MONTEIRO Provisão de Banda de Guarda Adaptativa em Redes Ópticas Elásticas Data: 28/01/2021

    As redes ópticas elásticas compõem uma infraestrutura de rede capaz de suportar a grande demanda de tráfego de dados das redes de alta velocidade. Um dos problemas que devem ser solucionados para garantir o bom funcionamento da rede é o chamado Routing, Modulation Level and Spectrum Assignment (RMLSA). Além disso, os efeitos de camada física impactam diretamente na qualidade de transmissão dos circuitos. A banda de guarda é um intervalo de frequência que separa os circuitos ativos que compartilham os mesmos enlaces com objetivo de reduzir a interferência entre eles. Dessa forma, o tamanho do intervalo de frequência utilizado como banda de guarda pode ser utilizado de forma adaptativa, buscando assim um equilíbrio entre qualidade de transmissão e eficiência espectral. Esta dissertação de mestrado tem como principal objetivo estudar o problema de alocação de banda de guarda e propor novas soluções visando um melhor desempenho das redes ópticas elásticas. Para isso foram propostos os algoritmos GBUN, UTOPIAN, GBOM, GUARDIAN e ADVANCE. Tais algoritmos utilizam desde heurísticas simples baseadas em um único parâmetro, como a utilização da rede por exemplo, até técnicas com uma maior capacidade de otimização como sistema fuzzy e deep learning. O desempenho de cada um dos algoritmos propostos é comparado com a proposta adaptativa Adaptive Guard Band Assignment (Takeshita et al., 2016). Os resultados mostram que os algoritmos propostos apresentam um melhor desempenho em termos de probabilidade de bloqueio de banda e de eficiência energética para os cenários estudados. A proposta GUARDIAN apresentou uma menor probabilidade de bloqueio, com um ganho entre 99,15% e 99,97% ao se observar por exemplo o último ponto de carga na topologia Cost239 e uma melhor eficiência energética entre 0,25% e 5,79% para o mesmo cenário. Na topologia NSFNet, o algoritmo GBOM se destacou, obtendo uma redução no bloqueio geral entre 20,00% e 88,55% e uma melhor eficiência energética entre 0,80% e 13,00%. 


    ARTUR FELIPE DA SILVA VELOSO Estudo e Proposta de uma Infraestutura de Comunicação Híbrida com LoRaWAN e LoraMesh para Gerenciamento do Consumo de Energia Elétrica pelo lado da Demanda Data: 27/01/2021

    Em busca de resolver problemas no Sistema Elétrico de Potência (SEP) relacionados ao consumo de exacerbado e descontrolado da energia por meio dos consumidores finais como residências, condomínios, prédios públicos e indústrias, as Concessionárias de Energia Elétria (CEE) estão cada vez mais em busca de novas Tecnologias de Informação e Comunicação (TICs) para transformar as redes de distribuição de energia elétrica tradicionais
    em Redes Inteligentes (em inglês, Smart Grids - SG). Com esta implementação, as CEE conseguirão controlar de forma remota o consumo de energia elétrica bem como monitorar os dados gerados pelos Medidores Inteligentes (em inglês, Smart Meter - SM). Contudo, as tecnologias de Internet das Coisas (em inglês, Internet of Things - IoT) irão possibilitar isso tudo possa acontecer de forma rápida e de baixo custo, por serem dispositivos de baixo
    custo capazes de serem aderidos de forma rápida e escalar nestes cenários. Pesando nisso, este trabalho tem como objetivo estudar e propor uma infraestrutura de comunicação híbrida utilizando dipositivos de IoT como o LoRa (em inglês, Long Range, Longo Alcance) para prover uma Infraestrutura de Medição Avançada (em inglês, Advanced Metering Infrastructure - AMI) capaz de efetuar todas esstas aplicações como serviço oferecidos pela CEE para os consumidores finais. Adicionalmente, serviços como Gerenciamento Pelo Lado da Demanda (em inglês, Demand-side management - DSMaaS) poderão ser utilizados nesta infraestrutura. Dos resultados preliminares verificou-se que a rede LoRaWAN conseguiu um alcance de até 2,35km de distância e o LoRaMESH de 600m, assim, este é mais indicado para cenários onde se tem pouca interferência e os SMs estão em distâncias longas enquanto que o outro utilizado para cenários com maior aglomeração de SMs próximos. Considerando o cenário hibridizado entre LoraWAN e LoRaMESH, verifica-se que as possibilidades de implementação aumenta, visto que seu alcance foi de aproximadamente 3km considerando apenas um salto e podendo chegar a 1023 saltos na rede mesh. Dessa forma, foi possível propor a implementação real dos protocolos LoRaWAN e LoRaMESH bem como a hibridização dos dois protocolos para o DSMaaS.




    Dissertações/Teses - 2020

    JOSE PATRICIO DE SOUSA FILHO Criação automatizada de Chatbots com capacidade de aprendizagem contínua. Data: 23/11/2020

    Programas de computador capazes de se comunicar com os usuários através da linguagem natural simulando o comportamento humano são pensados por obras ficcionais desde os primórdios da computação. Esses sistemas, hoje conhecidos como chatbots vêm sendo desenvolvidos há algumas décadas, mas tiveram na computação móvel o meio pelo qual se popularizar e alcançar os mais diversos públicos e fazer parte do cotidiano dos usuários. Mesmo com a recente popularização, desenvolver chatbots não é uma tarefa trivial, mas demanda grandes esforços tanto na fase de desenvolvimento quanto na de manutenção. Na tentativa de diminuir estes custos foram desenvolvidas várias plataformas, ferramentas e linguagens de modelagem de diálogos. Entretanto, as ferramentas atuais ainda oscilam entre a dificuldade de implementação; a impossibilidade de customização e a utilização de softwares e infraestrutura de terceiros. Este trabalho apresenta uma abordagem que visa reduzir os esforços necessários para o desenvolvimento de chatbots, possibilitando customização e não necessitando de utilização de software proprietário. A abordagem proposta cria, de forma automatizada, chatbots capazes de detectar erros e aprender continuamente através da interação com o usuário, utilizando como entrada para a criação destes sistemas listas de perguntas e respostas escritas em linguagem natural. Para isso são utilizadas técnicas de Processamento de Linguagem Natural e Aprendizagem de Máquina, tais como Part-of-Speech TaggingWord Embedding e Redes Neurais Artificiais. A abordagem foi submetida a testes com usuário reais, e demonstrou sua capacidade de criação de chatbots funcionais, capazes de aprender com a interação e melhorar seu desempenho.


    THASCIANO LIMA CARVALHO PASTOR: Programa de Auxílio à Seleção e Tomada de decisão para pequenos Ruminantes Data: 17/09/2020

    O Melhoramento genético animal (MGA) é promovido através da seleção de indivíduos com genética superiores para que sejam os pais da futura geração. Uma etapa fundamental do MGA é a avaliação genética, isto é, a identificação dos indivíduos com valores genéticos favoráveis para determinada característica. Atualmente, a metodologia que tem maior destaque para avaliação genética é o Best Linear Unbiased Prediction (BLUP). Essa metodologia possui uma série de procedimentos estatísticos com o objetivo de estimar simultaneamente efeitos ambientais e genéticos. Contudo, a aplicação e resolução desse método demandam um custo computacional elevado por se tratar de um sistema de equações lineares. Nesse cenário, o objetivo deste trabalho é uma abordagem que usa Redes Neurais Artificiais (RNA) para predizer o mérito genético animal. Os resultados obtidos demonstram que a RNA teve bons resultados para predição do mérito genético animal, que obteve resultados como Mean Squared Error (MSE) de 0.26, Mean Absolut Error (MAE) de 0.4 e correlação de Pearson de 0.81 com base no BLUP esperado. A abordagem proposta tem potencial para auxiliar os produtores na tomada de decisão quando deparados com a identificação e seleção de animais com potencial genético superior para as características de importância econômica em sistemas de produção de carne de pequenos ruminantes.


    ALEXANDRE CRISTIAN LAGES DE ARAUJO Estudo Empírico Sobre Gamification Aplicada ao Ensino Data: 10/09/2020

    A educação brasileira vem apresentando resultados abaixo das expectativas há
    algum tempo. Alguns especialistas apontam a falta de motivação dos alunos
    como um dos desafios a serem enfrentados. Eles alegam que as consequências
    são baixo rendimento e evasão. A gamificação aplicada à educação é uma
    alternativa usada para tentar mudar esse cenário. Ela consiste no uso de
    elementos de jogos no processo de ensino, para aumentar o envolvimento dos
    alunos em relação aos objetivos ligados ao aprendizado. Este trabalho avalia o
    impacto do uso da gamificação no ensino médio, a partir do acompanhamento
    de algumas turmas de uma instituição de ensino particular. Os alunos dessas turmas usaram um aplicativo que introduziu alguns elementos ligados à gamificação. Foi realizada uma avaliação em retrospectiva, utilizando os elementos propostos na abordagem. Os resultados obtidos apontam que os elementos utilizados foram capazes de gerar estímulo para os alunos. O trabalho apresenta ainda uma avaliação qualitativa que demonstrou uma boaaceitação dos alunos aos elementos de game design utilizados na avaliação, e uma avaliação quantitativa que indica a existência de uma relação entre o uso da gamificação e um nivelamento entre as notas. Dessa forma, os resultados nos levam a crer que a gamificação pode estimular alunos e com isso gerar resultados nivelados que aqueles que estudam em um ambiente sem esse diferencial.


    RAFAEL MARTINS BARROS Uso de Análise de Sensibilidade por Multiplicadores de Lagrange para a Definição de Sequências de Ajustes de Controles Determinados pelo Despacho Ótimo Reativo Data: 28/08/2020

    O Fluxo de Potência Ótimo (FPO) desempenha um papel fundamental para o planejamento e operação de sistemas elétricos de potência. No entanto, alguns aspectos práticos da utilização das soluções encontradas pela resolução do FPO permanecem em aberto. A maioria dos trabalhos encontrados na literatura foca em calcular o ponto de operação ótima da rede, não fornecendo aos operadores do sistema uma sequência adequada de ajustes de controle para conduzir o sistema a tal ponto de operação. Nesse contexto, este trabalho visa a proposição de uma abordagem para definir sequências de ajustes de controle, os quais são determinados pela resolução do problema de despacho ótimo reativo, através de análise de sensibilidade dos multiplicadores de Lagrange. Esta abordagem é metodologicamente fundamentada na reformulação do problema de FPO em termos de ajustes de controle ótimo em vez de valores de controle ótimo e em resoluções do problema dual associado ao problema reformulado para determinar os multiplicadores de Lagrange ao longo do caminho do ponto de operação inicial para o ótimo. A cada iteração da abordagem proposta, os multiplicadores de Lagrange associados a cada ajuste de controle são determinados pela resolução de um sistema de equações algébricas derivadas das condições de otimalidade necessárias de Karush-Kuhn-Tucker. A análise de sensibilidade é realizada por meio da ponderação dos multiplicadores de Lagrange pela magnitude dos ajustes de controle, indicando qual ajuste de controle deve ser realizado por vez. O processo iterativo continua até que todos os ajustes tenham sido efetivados. Para validar esta proposta, foram realizados experimentos com os sistemas de teste IEEE de 14, 30, 57, 118 e 300 barras. Os resultados obtidos comprovam a robustez da abordagem, dada a qualidade das soluções e o baixo tempo computacional encontrados.


    TARDELLY DE ARAUJO CAVALCANTE Eye Tracking Como Estratégia de Ensino e Avaliação na Educação Inclusiva: Aplicação com Estudantes com Autismo Data: 02/04/2020

    Na área de educação, profissionais ensinam e avaliam o repertório acadêmico de estudantes com as mais diversas habilidades, limitações e históricos. Alguns desses estudantes podem apresentar dificuldades de aprendizagem, principalmente pela não adaptação aos métodos pedagógicos ou outros fatores. Entre esses diversos estudantes os com Transtorno de Espectro Autista - TEA, esses estudantes têm uma maneira diferente de aprender. Eles tendem a absorver melhor informações visuais, conseguindo lidar com mais facilidade com atividades fragmentadas em pequenas etapas e podem ser extremamente talentosos em áreas específicas. É possível aproveitar o interesse restrito da criança para incentivar o desenvolvimento de habilidades como a de leitura, adotando livros que tratem do tema de interesse do estudante. Pode-se começar com formação de pequenas palavras, com frases curtas e imagens relacionadas, assim potencializando as habilidades do estudante com TEA a aprender ainda mais. Combinar as habilidades de estudantes com TEA é interessante, pois, alguns desses estudantes podem sofrer de atraso de linguagem, deficiência intelectual, hiperatividade ou isolamento, e o profissional da educação sozinho não é necessariamente capaz de lidar com todas essas situações.  Para contornar essa problemática e fornecer meios para que o profissional identifique se as atividades propostas ao estudante são eficientes a determinado estudante em determinada fase do ensino, é importante encontrar metodologias que se encaixem com o perfil de cada um dos estudantes. Este trabalho de qualificação de mestrado propõe usar a análise do comportamento ocular (eye tracking) dos estudantes durante a realização de atividades educacionais no computador como estrategia de ensino e avaliação de estudante com TEA para identificação de fatores que evidenciem maneiras e conteúdos confortáveis na qual o estudante se identifique, assim potencializando o aprendizado do estudante . Para avaliação e demonstração desta proposta, foram desenvolvidas 4 atividades diferentes que foram resolvidas por 7 estudantes com diagnóstico de Transtorno do Espectro Autista - TEA.


    IRVAYNE MATHEUS DE SOUSA IBIAPINA MiD: Uma Ferramenta para Facilitar a Integração entre Sistemas Web Data: 27/03/2020

    As soluções tecnológicas estão cada vez mais presentes no cotidiano dos ambientes corporativos. Essas soluções auxiliam em diversas atividades que são de suma importância para seus funcionários, clientes e parceiros. Entretanto, conforme as demandas crescem, aumentam a complexidade das necessidades empresariais, e com isso, os sistemas tecnológicos necessitam de evolução para manter o padrão de qualidade dos serviços. Nesse sentido, a integração entre sistemas é uma alternativa para auxiliar nesse cenário evolutivo, possibilitando o compartilhamento de recursos entre sistemas diferentes, contemplando a interoperabilidade, reduzindo as redundâncias indesejadas e eliminando os gargalos e incompatibilidades. Para padronizar a comunicação e serviços, viabilizando a troca de mensagens entre sistemas heterogêneos, potencializando a reutilização, e simplificando o processo de integração entre software, que surgiram os Web Services. Contudo, apesar das vantagens e benefícios, existem algumas dificuldades inerentes a realização de integração, que são: o esforço gasto para o desenvolvimento, o processo de integração com Sistemas Legados, os riscos associados as modificações em softwares e a integração com softwares desenvolvido por terceiros. Por conta disso, propõe-se uma abordagem e uma ferramenta, intitulada MiD, para contornar tais dificuldades inerentes a construção de Web Services. O objetivo do MiD é simplifica o desenvolvimento de Web Services para integração entre sistemas Web, possibilitando a realização da integração sem necessidade de acesso ao código-fonte do sistema alvo, de maneira não invasiva, independente da tecnologia e com baixo custo relacionado ao desenvolvimento e manutenção. Foi realizada uma avaliação para investigar os benefícios da utilização do MiD em um projeto real de integração. Os resultados preliminares concluíram que, para o contexto utilizada na conjuntura avaliativa, o MiD tem potencial para reduzir o esforço no desenvolvimento de Web Services para integração.


    LUÍS HENRIQUE SILVA VOGADO "LeukNet" - Um Modelo de Rede Neural Convolucional Para o Diagnóstico de Leucemia Data: 27/03/2020

    O uso eficiente da tecnologia para o desenvolvimento de sistemas médicos auxilia na redução de custos, além de promover o diagnóstico precoce de doenças. A leucemia é um distúrbio que afeta a medula óssea, causando a produção descontrolada de leucócitos, prejudicando o transporte de oxigênio e causando problemas de coagulação sanguínea. Um hemograma completo ou análise de imagem morfológica é frequentemente utilizado para identificar  células com leucemia. No entanto, esses métodos podem ser demorados e propensos a erros humanos. Dessa forma, neste trabalho é apresentada uma metodologia para o desenvolvimento de um modelo para diagnosticar leucemia em imagens de lâminas de sangue usando técnicas de validação cross-dataset que oferecem novas diretrizes para implantação e avaliação de tais sistemas. A LeukNet é uma Rede Neural Convolucional (RNC) (Convolutional Neural Network - CNN) que auxilia no diagnóstico de leucemia e inclui uma arquitetura baseada nos blocos convolucionais VGG-16, com camadas densas mais compactas, usando estratégias de transferência de aprendizado com deeply fine-tuning. Para definir o modelo e os pesos da LeukNet, diferentes arquiteturas e métodos de ajuste fino foram avaliados utilizando 18 bases de dados. Ao todo, foram usadas 3536 imagens de diferentes fontes e com características distintas de cor, textura, contraste e resolução. A técnica de validação cross-datasetLeave-One-Dataset-Out Cross-Validation (LODOCV) foi proposta para avaliar a capacidade de generalização do modelo. As acurácias obtidas por meio do LODOCV com as bases ALL-IDB 1, ALL-IDB 2 e UFG como conjuntos de testes foram 97,04%, 82,46% e 70,24%, respectivamente. Para permitir a comparação do modelo proposto com o estado da arte, o k-fold cross validation foi executado, alcançando 98,24% de acurácia. Esses resultados são consistentes quando comparados com o estado da arte. O uso da avaliação do LODOCV demonstrou a necessidade de uma nova avaliação para uma melhor capacidade de generalização, permitindo que um modelo funcione satisfatoriamente mesmo em dados não vistos, o que é fundamental para os sistemas CAD.


    MARCEL RAIMUNDO DE SOUZA MOURA CAIBAL - Class-Attribute Interdependency Based 1 Automatic Labeler Data: 27/03/2020

    O clustering (agrupamento de dados) por métodos não-supervisionados é uma área de pesquisa relevante em Aprendizado de Máquina. O objetivo do clustering é agrupar os objetos de um conjunto de dados de modo que cada grupo seja constituído por aqueles similares, que possuem características que os tornam agrupáveis e essas mesmas caracterís- ticas devem ser suficientes em distingui-los de outros grupos. Para que o clustering seja factível, a tarefa de interpretação dos grupos é necessária e diante disso surge o problema de rotulação. A rotulação automática resulta em tuplas compostas por atributos e suas respectivas faixas de valores. Cada cluster deve ter uma quantidade de tuplas capaz de fornecer uma identificação única para todos os objetos, de modo que sejam distinguíveis entre si por atributos representativos distintos ou faixas de valores diferentes para um mesmo atributo. Este trabalho apresenta um método não-supervisionado de rotulação de clusters que emprega o algoritmo de discretização CAIM (Class-Attribute Interdependency Maximization)a fim encontrar faixas de valores representativas nos atributos que serão relevantes para interpretação dos clusters. Nos atributos numéricos contínuos do conjunto de dados é utilizada uma discretização que considera o índice de interdependência entre estes atributos e os clusters formados na fase de agrupamento. Do processo de discretização dos atributos resultarão faixas de valores que serão analisadas e comparadas com os valores ocorrentes dos atributos em cada cluster, para determinar os atributos e faixas de valores representativas. Estes atributos e faixas de valores expressivos formarão o rótulo para cada cluster. O modelo proposto nessa pesquisa buscou obter um método que mitigasse as limitações observadas em outros trabalhos que propunham rotulação automática de clusters. Os testes resultam em uma acurácia média dos rótulos sugeridos de 98.03% considerando todas as bases de dados testadas. Estes rótulos são constituídos por poucos atributos e em muitos casos um atributo é suficiente para defini-los.


    ANDRÉ DE LIMA MACHADO Reconhecimento de Produtos de Mercearia para Auxiliar Pessoas com Deficiência Visual Data: 25/03/2020

    Pessoas com deficiência visual possuem grande dificuldade em reconhecer objetos no dia a dia. Apesar de diversas tecnologias assistivas terem sido desenvolvidas para auxiliá-los nessa tarefa, muitas delas têm alto custo ou baixa taxa de acertos. Com o crescente estabelecimento da Internet das Coisas (Internet of Things – IoT), os dispositivos wearable têm se tornado cada vez mais acessíveis, possibilitando o uso de técnicas de Visão Computacional para a proposição de sistemas assistivos. Tais sistemas conseguem distinguir diferentes categorias de objetos e/ou até mesmo localizá-los, sem a necessidade de tocá-los, proporcionando ao deficiente visual uma maior independência. Devido à grande variedade de categorias distintas de objetos, que as pessoas com deficiência visual possuem necessidade de reconhecer no seu cotidiano, este trabalho focou em produtos que, geralmente, são encontrados em prateleiras de mercearias, supermercados, geladeiras e/ou despensas. Um sistema assistivo para reconhecer tal categoria de objetos seria bastante útil para o deficiente visual, visto que ele poderia verificar, sem ajuda de terceiros, se na geladeira de sua casa ou em sua despensa, por exemplo, tem uma caixa de leite ou uma caixa de suco de uva. Assim, considerando essa categoria de objetos, este trabalho realizou uma revisão sistemática da literatura, que identificou o estado da arte sobre esse tema. Foram descritas cinco bases de dados públicas, voltadas para a classificação de produtos de mercearia. E, finalmente, foi proposta uma nova abordagem em reconhecimento de objetos para o auxílio de pessoas com deficiência visual, que alcançou taxas de acurácia superiores às abordagens propostas pelos autores das bases de dados selecionadas, aplicando Aumento de Dados com outras técnicas e ajustes a diferentes Redes Neurais Convolucionais (Convolutional Neural Networks – CNNs) pré-treinadas, em que a ResNet-50 obteve os melhores resultados nas bases de dados mais recentes.


    JUSTINO DUARTE SANTOS Geoestatísticas e Deep Features para Diferenciar Glomeruloesclerose Segmentar e Focal de Doença de Lesões Mínimas em Imagens de Biópsia Renal Data: 20/03/2020

    O equilíbrio da química interna de nossos corpos se deve ao trabalho dos rins. Nesses órgãos vitais se encontram os glomérulos que são pequenas estruturas responsáveis pela filtragem do sangue. Através da análise microscópica de biópsias renais os especialistas diagnosticam várias doenças e é no glomérulo que primariamente se observam alterações. Dentre as doenças que acometem os rins destacamos a Doença de Lesões Mínimas (DLM) sendo a causa da síndrome nefrótica em 90% dos pacientes infantis; e a Glomeruloesclerose Segmentar e Focal (GESF) sendo a causa principal da síndrome nefrótica nos pacientes adultos em vários países. Considerando que tratamentos inadequados podem conduzir à doenças renais crônicas, a identificação precisa dessas duas doenças é de suma importância, pois seus tratamentos e prognósticos são diferentes. A análise realizada por patologistas pode ser afetada por inúmeras situações como fadiga, subjetividade, pressa etc. nesse contexto estão os sistemas de diagnóstico auxiliado por computador (computer-aided diagnosis - CAD), que são imunes às condições citadas e servem de suporte ao especialista. Portanto, propomos um método capaz de diferenciar DLM e GESF através de imagens de exames patológicos. Em nossa abordagem caracterizamos a imagem por meio da extração de medidas geoestatísticas, informações de textura tradicionais e deep features de 4 redes neurais convolucionais. Ao todo 13.476 atributos foram avaliados. Foram testados ainda 2 métodos de seleção de características e 3 classificadores que combinados deram origem a mais de 300 modelos. Após análises, tomamos as 5 melhores arquiteturas e fizemos um ajuste de hiper-parâmetros do classificador, com isso alcançamos acurácia de 94,3% e Kappa igual a 87,9%, indicando uma concordância “quase perfeita” com a classificação do especialista.


    IVENILTON ALEXANDRE DE SOUZA MOURA Proposta, Validação e Avaliação Qualitativa de uma Arquitetura MPSoC Baseada Nos Elementos de Processamento de IPNoSys II Data: 16/03/2020

    IPNOSys (Integrated Processing NoC System) é uma arquitetura não convencional de computadores que utiliza uma NoC (Network on-Chip) em uma topologia de malha 4 x 4, que abriga suas unidades de roteamento e processamento (RPUs). Ela executa processamento de pacotes trabalhando com conceitos de processamento em fila, permitindo a execução de até quatro tarefas simultaneamente. Com base em algumas de suas características e principalmente no seu modelo de programação, foram originadas as arquiteturas da família IPNOSys (IPNOSys II e IPNOSys-MPSoC). A IPNOSys II utiliza basicamente o mesmo modelo de programação da IPNOSys, no entanto, sua estrutura é composta de uma árvore de componentes chamados CSU (Communication and Synchronization Unit). Esses componentes podem conter ligações para outras quatro CSUs ou quatro unidades de processamento capazes de processar um pacote inteiro (PPUs - Packet Processor Unit). Conforme a árvore de elementos cresce, aumenta o caminho a percorrer para atingir as PPUs. Já a IPNOSys-MPSOC é uma arquitetura formada por uma rede de quatro IPNOSys, usando cada um deles como elemento processador. Dessa forma, a rede é capaz de realizar até dezesseis processamentos em paralelo. Essa organização oferece potencial para paralelizar uma grande quantidade de processos, no entanto sua estrutura em árvore produz uma taxa cada vez maior de transmissão conforme a quantidade de níveis aumenta. A IPNOSys-MPSoC não apresenta potencial para aumento da quantidade de pacotes em execução simultânea pelo fato de exigir mais canais de comunicação conforme aumenta a quantidade de elementos processadores (IPNOSys completos). A proposta desse trabalho é realizar os estudos de viabilidade para a composição de uma arquitetura usando como elementos de processamento as mesmas PPUs da arquitetura IPNOSys II, organizados em uma NoC de dimensões 4 x 4 como a NoC utilizada em IPNOSys, de modo a aumentar para 64 a quantidade de tarefas em execução simultânea. A arquitetura deve considerar a localização física das PPUs na alocação de tarefas inter-relacionadas, facilitando a comunicação entre tarefas pertencentes a um mesmo programa.


    WILSON LEAL RODRIGUES JUNIOR Uma Abordagem Baseada em Aprendizagem Profunda para a Detecção e Classificação de Distúrbios de Qualidade de Energia com Sinais Janelados Data: 12/03/2020

    O desenvolvimento do sistema elétrico com a integração de geração distribuída e microgrids, aumento  no uso de cargas não lineares e sensíveis por parte dos consumidores tem causado problemas à Qualidade de Energia Elétrica (QEE). Os estudos de QEE são comumente relacionados com distúrbios que alteram a característica senoidal da forma de onda de tensão e/ou corrente. O primeiro passo para analisar a QEE é detectar e posteriormente classificar os distúrbios, pois por meio da identificação do distúrbio é possivel conhecer suas causas e deliberar estratégias para mitigá-lo. As abordagens de detecção e classificação de distúrbios de QEE encontradas na literatura consistem principalmente em três etapas: 1) análise de sinais e extração de características, 2) seleção de características e 3) classificação dos distúrbios. No entanto, existem alguns problemas inerentes à essa abordagem. A extração de características é um processo impreciso e complexo e a seleção dessas características é um processo demorado que requer tempo e experiência. Essas duas etapas são críticas para a detecção e classificação de distúrbios,  pois influenciam diretamente no desempenho do classificador, visto que as características extraídas e selecionadas nem sempre são propícias para diferenciar os distúrbios.  Portanto, este trabalho propõe uma abordagem baseada em aprendizagem profunda utilizando os dados brutos, sem realizar pré-processamento, extração ou seleção manual das características dos sinais de tensão. A abordagem proposta é composta por camadas convolucionais, uma camada de pooling, uma camada LSTM e normalização em lote para extrair e selecionar características automaticamente. Adotou-se uma convolução 1-D para adaptar com o tipo de dado dos sinais de tensão. As características extraídas são usadas como entrada para camadas totalmente conectadas, sendo a última uma camada SoftMax. A abordagem proposta foi avaliada quanto a acurácia, precisão, recall e F1-Score apresentado pelo classificador e obteve um desempenho satisfatório mesmo diante de dados sobrepostos de ruídos e com baixa taxa de amostragem.




    JÔNATAS OLIVEIRA LIMA DA SILVA Algoritmos numéricos para resolver o Problema da Mochila Quadrático Data: 06/03/2020

    Esse trabalho tem como objetivo desenvolver alternativas de algoritmos que resolvem o Problema da Mochila Quadrático. No trabalho foram utilizadas técnicas de paralelização em métodos sequenciais, tais como o Método de Newton Secante e Método de Fixação de Variável. Para o emprego de tais técnicas utilizamos as diretivas OpenMP. Tal abordagem permitiu a realização de testes em problemas de larga escala. Experimentos numéricos mostram que o algoritmo é promissor quando exploramos o potencial de máquinas multinúcleo.


    MIGUEL LINO FERREIRA NETO Mecanismo de Reconfiguração Dinâmica Orientado a Eventos para Redes de Sensores sem Fio Cluster-Tree de Larga Escala baseadas no Padrão IEEE 802.15.4 Data: 28/02/2020

    Com o advento da Internet das Coisas (IoT) no âmbito industrial, comercial e residencial, o desenvolvimento de aplicações e mecanismos de comunicação eficientes baseadas em Redes Sensores Sem Fio (RSSF) têm se tornado uma área atrativa. O conjunto de normas IEEE 802.15.4 e ZigBee forma uma pilha de protocolos adequada para implementação de RSSFs, oferecendo capacidade de sensoriamento, mobilidade, autonomia e cooperação entre dispositivos. Tais normas operam sob baixas taxas de comunicação, baixo custo e baixo consumo energético, com suporte a topologias estrela e peer-to-peer. A cluster-tree é um tipo especial de topologia peer-to-peer que permite a sincronização de nós e é apontada como uma das topologias mais adequadas para implantação de ambientes de larga escala. Nesse contexto, a ocorrência de eventos adversos do ambiente monitorado podem gerar prejuízos à operação regular da rede (intensificados pelas típicas condições de tráfego as quais são submetidas). Tal fato torna necessário o desenvolvimento de esquemas para mitigar os altos atrasos de comunicação fim-a-fim, congestionamentos e eventuais perdas de pacotes, comuns em típicos ambientes de monitoramento. Este trabalho de Mestrado propõe um mecanismo de reconfiguração dinâmica das principais estruturas de comunicação em RSSFs cluster-tree de larga escala baseadas nas normas IEEE 802.15.4/ZigBee. O mecanismo proposto compreende uma arquitetura composta de módulos, que engloba desde o processo de formação orientada de rede, até uma abordagem auto-adaptável que ajusta dinamicamente as estruturas de comunicação de acordo com a detecção de alterações dos fluxos de mensagens de monitoramento. Com isso, pretende-se fornecer Qualidade de Serviço para os típicos fluxos de monitoramento e controle, a fim de evitar problemas típicos dessas redes, tais como: altos atrasos de comunicação, congestionamento e perda de pacotes. Dessa forma, a ideia básica é otimizar as mensagens de monitoramento, ao mesmo tempo que permite uma rápida disseminação de mensagens de controle e reconfiguração de rede. Como resultados, este trabalho fornece uma avaliação de desempenho por simulação, a fim de implementar e avaliar a eficiência dos principais mecanismos propostos.


    ALLAN JHEYSON RAMOS GONÇALVES A mobility solution for Low Power and LossyNetworks using the LOADng protocol Data: 21/02/2020

    Many devices on an Internet of Things (IoT) network have severe constraints on computing resources in terms of memory, processing, and power, which make these networks generally known as Low power and Lossy Networks (LLNs). Device mobility in these scenarios has several negative impacts on the network, particularly in terms of connectivity, as node movement affects the routes established by the routing protocol. The network performance is highly related to the adjacent routing protocol. The protocol considered as standard for IoT networks was designed for static networks, and it has a low reactivity in mobility scenarios, besides other limitations. Lightweight On-demand Ad hoc Distance-vector Routing - Next Generation (LOADng) is currently the primary reactive protocol for LLNs. Considering that mobility is a crucial feature for the future of IoT, this paper proposes EKF-LOADng, a solution built from LOADng for LLNs in the mobility context. The solution aims to make the mobile nodes aware of its location, as well as to predict the nonlinear trajectory of these nodes through the EKF. The location obtained is used to improve the connectivity of the mobile nodes and to shorten paths while messages are exchanged on the network. EKF-LOADng was compared with the standard version and an enhanced version of the LOADng protocol in two different scenarios in the Contiki OS. Simulation results show the proposed solution is capable of locating mobile nodes with an average error of 1.46 meters while maintaining connectivity to other nodes, as well as outperforms the compared proposals in some network metrics in terms of packet delivery ratio, latency, power consumption, and control bit overhead.


    MARIA ISABEL LIMAYLLA LUNAREJO Detecção Automática de Usability Smells em Aplicações Web Data: 04/02/2020

    Atualmente, o uso de dispositivos móveis, principalmente smartphones, vem aumentando ao longo do tempo devido ao crescente desenvolvimento de tecnologias móveis, entre eles, a tecnologia touchscreen. No entanto, associado a este crescimento, também descobrimos que existem erros dos aplicativos Web ao ser executados em dispositivos móveis, em que vários desses problemas estão ligados à usabilidade e à experiência do usuário, conceitos com grande importância na qualidade de software. Portanto, a importância do teste de usabilidade em dispositivos móveis tem aumentado, no entanto, consome mais tempo e custo do que outros testes. Para reduzir o tempo e a complexidade dos testes de usabilidade nesses dispositivos, propomos um processo automático de identificação de sugestões de problemas de usabilidade (Usability Smells). Para isso, implementamos um processo de detecção automático de Usability Smell em dispositivos móveis na ferramenta UseSkill. Essa ferramenta usa os dados das interações do usuário com um software Web executado em um dispositivo móvel, descobrindo os Usability Smells por meio de reconhecimento de padrões. Também são propostos novos Usability Smells e seus padrões correspondentes para este contexto. Esse novo processo foi experimentado em três avaliações experimentais, sendo duas softwares utilizados em produção, e obtivemos resultados promissores na identificação de smells em relação a problemas de usabilidade.