ESTG - Mestrado em Engenharia Eletrotécnica - Telecomunicações
Permanent URI for this collection
Browse
Recent Submissions
- Metodologia de análise da atividade microbiana por Laser SpeckleLaserPublication . Gameiro, Marco André de Araújo; Lopes, Nuno Manuel Lucas Vieira; Pinto, Rui Manuel da Fonseca
- LOSSY COMPRESSION OF BIOMEDICAL IMAGES FOR COMPUTER VISION ANALYSISPublication . Paulo, Edgar da Silva; Faria, Sérgio Manuel Maciel de; Távora, Luís Miguel de Oliveira Pegado de Noronha e; Thomaz, Lucas ArrabalThe exponential increase in medical and biomedical data acquisition is compelled by technological advances, namely in the imaging field. However, this exponential growth brings with it challenges in terms of processing capacity, transmission, and data storage. In response to this growing demand, increasingly efficient solutions have emerged, especially through computer vision for automatic image analysis and compression algorithms. This dissertation aims, on the one hand, to evaluate the performance of computer vision systems on previously compressed biomedical images. On the other hand, it increases the useful range of image variations, almost lossless and lossy, decreasing the impact of the change added by this method on the performance of computer vision algorithms in biomedical image analysis. In this sense, YOLO and Detectron2 are employed to evaluate the impact of coding distortion on their ability to detect mitochondria in electron microscopy images. The results of this study reveal that although the distortion introduced by compression affects their detection performance, it is negligible at lower compression ratios. Furthermore, two proposals are presented to improve the useful compression ratio, keeping the images characteristics that allow to perform the automatic detection of mitochondria. On the one hand, it is demonstrated that the proposed training methodology, which incorporates compressed versions of the original data during training, mitigates the impact of distortion on the performance of computer vision algorithms; on the other hand, allocating higher quality levels to regions of interest, compared to background elements, helps to sustain high performance at compression rates where computer vision algorithms typically start to lose effectiveness. These approaches allow the extension of the compression range with little impact on detection performance, thus contributing to the improvement of data processing, storage, and transmission in biomedical applications.
- Sistemas de localização de objetos em processos industriaisPublication . Batista, Alexandre Gaspar Vala; Ferreira, Lino Miguel Moreira; Gomes, Hugo Miguel CravoNum mundo industrializado onde o tempo de produção, a localização e rastreamento de objetos é de extrema importância, o presente projeto aborda o estudo detalhado e a implementação de sistemas de localização indoor de objetos apresentados na literatura e disponíveis no mercado. O objetivo é otimizar os tempos de produção em fábricas, identificando e minimizando os “tempos mortos” entre processos industriais. Para a realização deste tipo de sistema realizou-se um estudo do chão de fábrica, analisando o ambiente fabril, o tipo de máquinas, a composição de um molde, o percurso natural do fabrico de uma peça, a montagem do molde, e o comportamento dos operadores durante todo o processo. Feita a análise, selecionaram-se as melhores metodologias e equipamentos para a implementação de dois sistemas de rastreamento e localização de peças: ASW (Aquisition System with Wi-Fi) e ASL (Aquisition System with LoRa), baseados no microcontrolador ESP32, sendo o que o primeiro comunica diretamente por Wi-Fi para uma API que faz a filtragem dos dados para a base de dados e o segundo tem um módulo central (master) que recebe os dados dos restantes módulos de aquisição (slaves) via LoRa e envia via Wi-Fi os dados para a mesma API. Estes sistemas recolhem os dados de tags RFID lidos por leitores com antenas integradas. Conjuntamente com estes dois sistemas, implementou-se uma solução comercial da marca Zebra de forma a comparar confiabilidade dos sistemas construídos com uma solução comercial. Foi também desenvolvido um software que permitia associar as tags RFID à respetiva peça, visualizar todo o seu percurso durante o processo produtivo e localizar em tempo real em que zona/máquina se encontrava.
- Design and test of RF shielding for beam impedance reduction in CERN acceleratorsPublication . Santos, Miguel Valente dos; Fernandes, Telmo Rui Carvalhinho CunhaCERN, the European Organization for Nuclear Research, is one of the world’s largest laboratories for high-energy particle physics. At CERN, particle accelerators and detectors are used to study the basic constituents of matter. CERN’s flagship accelerator is the Large Hadron Collider (LHC), the most powerful particle accelerator built up to now. However, it would not work without its accelerator injector chain. This chain starts with LINAC4, followed by PSB, PS, and SPS, which inject into the LHC. Relatively new particle accelerators like the LHC were designed from scratch with a limited overall beam coupling impedance budget in mind, but this was not the case for the older accelerators at CERN, designed and built decades ago and originally intended for much lower beam intensities. Currently, one of the limiting factors to increase the beam intensities is instabilities caused by the beam coupling impedance of the older accelerators in the chain, such as the PS. The PS vacuum manifolds were identified as one source of instabilities due to a high beam coupling impedance. The current impedance contribution of the manifolds was simulated and measured. Several possible shielding solutions, aimed at reducing the beam coupling impedance, were studied and simulated, giving promising results. Routine RF measurements of other components of the accelerator were performed, either to complete the accelerator impedance contribution database or to assess whether or not the installed shielding is effective. During one of these measurements, it was found that a spare PS septa magnet had defective RF fingers, and the shielding was not effective.
- SISTEMA DE AQUISIÇÃO DE IMAGENS STEREO PARA LASER SPECKLEPublication . Salgueiro, Filipe José Marques; Assunção, Pedro António Amado de; Pinto, Rui Manuel da FonsecaO Speckle é o fenómeno de interferência produzido pela interação de frentes de onda de luz coerente, que ocorre devido à reflexão difusa da luz após incidência numa determinada superfície. O efeito resultante pode ser capturado através de um sistema de aquisição de video adequado, e carateriza-se por imagens contendo padrões de interferência, que posteriormente podem ser processadas para determinar descritores específicos adequados a caracterizar este fenómeno em condições diversas. Com o objetivo de explorar as potencialidades deste tipo de fenómeno e suas aplicações, nos últimos anos têm sido desenvolvidos alguns trabalhos no âmbito da aquisição stereo. Esta dissertação descreve o trabalho realizado com a conceção e o desenvolvimento de um sistema de aquisição de imagens stereo de laser speckle, que permite flexibilizar a disposição física dos respetivos componentes e realizar eventos experimentais que permitam a caracterização deste fenómeno em relação à variação dos parâmetros do sistema. Desta forma, o trabalho dividiu-se nas seguinte etapas: conceção do sistema físico; criação de uma interface gráfica, que facilita a realização dos eventos experimentais; análise dos resultados obtidos. Para poder realizar a aquisição de imagens foram utilizadas duas câmaras monocromáticas da Basler com interface GigE. Foi efetuado um estudo sobre as configurações das câmaras utilizadas e como é que os respetivos parâmetros iriam influenciar a aquisição das imagens. Este estudo incluiu os modos de funcionamento do sensor utilizado, sequências dos eventos de aquisição e envio das frames para serem armazenadas e qual o tipo de sinal a utilizar para garantir que as frames stereo são adquiridas de modo síncrono. A conceção da interface gráfica permite a configuração dos parâmetros das câmaras que são relevantes para a realização das experiências de aquisição, seguindo-se a definição da disposição do material utilizado (câmaras, laser, lente que direciona o laser e o difusor). Com as imagens adquiridas foi realizada uma análise de conteúdo baseada num dos tipos de processamento normalmente usados para este tipo de fenómeno, mais concretamente a análise do contraste. Tendo como base a abordagem LASCA (Laser Speckle Contrast Analysis) optou-se por realizar uma análise das imagens, ao longo do tempo, recorrendo a dois descritores (factor de correlação e a média de uma janela definida do valor da diferença das imagens de contraste do laser speckle) para caracterizar a variação da informação entre as imagens correspondentes às vistas stereo. Através dos resultados obtidos, podemos concluir que a variação dos parâmetros em estudo produzem resultados distintos ao nível da informação que se adquire nas imagens da esquerda e da direita, pelo que tais parâmetros têm de ser definidos aquando do processo de aquisição em speckle 3D. O parâmetro cuja a variação apresenta mais influência nos resultados é o tempo de exposição definido em cada experiência. De facto, o aumento do valor deste parâmetro na experiência de aquisição, implica a diminuição do frame rate utilizado (isto é uma consequência do modelo da câmara utilizada). Globalmente, o trabalho realizado no âmbito desta dissertação permitiu desenvolver um sistema experimental para realizar estudos específicos com imagens stereo de laser speckle. Os resultados demonstram as funcionalidades do sistema e a sua utilidade para a realização de estudos futuros com imagens stereo de laser speckle.
- LEARNING-BASED IMAGE COMPRESSION USING MULTIPLE AUTOENCODERSPublication . António, Rúben Duarte; Assunção, Pedro António Amado; Faria, Sérgio Manuel Maciel de; Távora, Luís Miguel de Oliveira Pegado de Noronha eAdvanced video applications in smart environments (e.g., smart cities) bring different challenges associated with increasingly intelligent systems and demanding requirements in emerging fields such as urban surveillance, computer vision in industry, medicine and others. As a consequence, a huge amount of visual data is captured to be analyzed by task-algorithm driven machines. Due to the large amount of data generated, problems may occur at the data management level, and to overcome this problem it is necessary to implement efficient compression methods to reduce the amount of stored resources. This thesis presents the research work on image compression methods using deep learning algorithms analyzing the properties of different algorithms, because recently these have shown good results in image compression. It is also explained the convolutional neural networks and presented a state-of-the-art of autoencoders. Two compression approaches using autoencoders were studied, implemented and tested, namely an object-oriented compression scheme, and algorithms oriented to high resolution images (UHD and 360º images). In the first approach, a video surveillance scenario considering objects such as people, cars, faces, bicycles and motorbikes was regarded, and a compression method using autoencoders was developed with the purpose of the decoded images being delivered for machine vision processing. In this approach the performance was measured analysing the traditional image quality metrics and the accuracy of task driven by machine using decoded images. In the second approach, several high resolution images were considered adapting the method used in the previous approach considering properties of the image, like variance, gradients or PCA of the features, instead of the content that the image represents. Regarding the first approach, in comparison with the Versatile Video Coding (VVC) standard, the proposed approach achieves significantly better coding efficiency, e.g., up to 46.7% BD-rate reduction. The accuracy of the machine vision tasks is also significantly higher when performed over visual objects compressed with the proposed scheme in comparison with the same tasks performed over the same visual objects compressed with the VVC. These results demonstrate that the learningbased approach proposed is a more efficient solution for compression of visual objects than standard encoding. Considering the second approach although it is possible to obtain better results than VVC on the test subsets, the presented approach only presents significant gains considering 360º images.
- Modelação e Simulação Eletrotérmica de Circuitos e Sistemas EletrónicosPublication . Silva, Nuno Filipe Mota; Oliveira, Jorge dos Santos Freitas de; Mendes, Luís Miguel MoreiraEsta dissertação insere-se na área da modelação e simulação eletrotérmica de circuitos eletrónicos que contêm MOSFETs de potência. Visa essencialmente o estudo da aplicabilidade de ferramentas computacionais inovadoras que consigam simular, de forma eficiente, circuitos que operem em múltiplas escalas temporais, como é o caso da simulação elétrica e térmica conjunta. A simulação eletrotérmica de um componente eletrónico cujo funcionamento depende fortemente da temperatura necessita que, durante o seu período de operação, se conheça com rigor o valor da temperatura em vários pontos do seu interior, de modo a se poder estimar o seu comportamento. O modelo do MOSFET utilizado, baseado em modelos SPICE, é um modelo eletrotérmico contínuo, que permite que a temperatura de funcionamento seja atualizada dinamicamente durante o processo de simulação. Em conjunto com o modelo do MOSFET são também adotados nesta dissertação modelos de propagação térmica baseados em linhas de transmissão de calor. Para se poder tirar o proveito dos diferentes ritmos de evolução temporal existentes entre as variáveis de estado elétricas e térmicas, são utilizadas algumas técnicas numéricas avançadas baseadas em esquemas Runge-Kutta multi-ritmo. Nesta dissertação é dada especial atenção ao método de ordem 2(3). O desempenho deste método numérico é avaliado em dois exemplos de aplicação ilustrativos, com resultados bastante interessantes. Através da análise comparativa entre os resultados obtidos com os métodos numéricos convencionais presentes nos simuladores SPICE e o método proposto, é possível constatar ganhos significativos em termos de poupança de esforço computacional.
- Sistema de Comunicação em Ambiente Aquático para Medição do Desempenho Físico em AtletasPublication . Santos, Miguel Oliveira; Faria, Sérgio Manuel Maciel de; Fernandes, Telmo Rui Carvalhinho Cunha
- CLASSIFICAÇÃO DE CENAS ACÚSTICAS EM DISPOSITIVOS COM CONSTRANGIMENTOS COMPUTACIONAIS UTILIZANDO INTELIGÊNCIA ARTIFICIALPublication . Anastácio, Ricardo Ribeiro; Bento, Luís Manuel CondeAo longo desta dissertação é apresentada a pesquisa e desenvolvimento de um modelo neuronal de arquitetura Convolutional Neural Network (CNN) para classificar dez ambientes acústicos distintos, destinado a dispositivos baixa complexidade, i.e. limite 128K em número de parâmetros e máximo de 30 MMAC (milhões de Multiply- ACcumulate (MAC)) por inferência. É utilizada a pesquisa de hiperparâmetros (hypertuning), para conseguir retirar o máximo de informação pertinente dos recursos de áudio e também para otimizar a arquitetura do modelo. São utilizadas técnicas de aumento de dados, suavização de rótulos e paragem de treino antecipada para melhorar a generalização do modelo, melhorando a resposta na presença de novos dados não utilizados para treino. São propostas ainda três abordagens com o objetivo de aumentar o campo de aprendizagem e melhorar a diferenciação entre classes. Estas abordagens combinam métodos de otimização e aprendizagem, como agrupamento de modelos ensemble, separação de classes ou aprendizagem um contra todos (OvA). Foi ainda aplicada a técnica de destilação de conhecimento (KD), que permitiu reduzir a sua complexidade do modelo, esta técnica acabou por funcionar também como regularizador diminuindo o sobreajuste. As abordagens propostas foram validadas através da participação no desafio “Task 1, Low-Complexity Acoustic Scene Classification 2022” proposto pela comunidade internacional DCASE, conseguindo obter o 4.º lugar na classificação de equipas num universo de 19 equipas, e 11.º lugar perante 48 modelos em avaliação. O modelo submetido que obteve melhores resultados é designado AI4EDGE_4 é um ensemble de dez modelos OvA, utilizado como “professor” num processo de destilação de conhecimento num “aluno” de arquitetura TBM2. O modelo base fornecido em DCASE obteve uma exatidão de ACC=44.2% e uma perda de LOSS=1.532, o modelo AI4EDGE_4 obteve melhor desempenho i.e. uma exatidão de AC=51.6% e uma perda de LOSS=1.330.
- Sistema de Localização em Ambiente Interior baseado em UWBPublication . Gomes, Rui Miguel Vieira; Bento, Luís Manuel Conde; Castro, Hugo Filipe Costelha de