Repository logo
 
Loading...
Project Logo
Research Project

Instituto de Telecomunicações

Authors

Publications

SISTEMA DE AQUISIÇÃO DE IMAGENS STEREO PARA LASER SPECKLE
Publication . Salgueiro, Filipe José Marques; Assunção, Pedro António Amado de; Pinto, Rui Manuel da Fonseca
O Speckle é o fenómeno de interferência produzido pela interação de frentes de onda de luz coerente, que ocorre devido à reflexão difusa da luz após incidência numa determinada superfície. O efeito resultante pode ser capturado através de um sistema de aquisição de video adequado, e carateriza-se por imagens contendo padrões de interferência, que posteriormente podem ser processadas para determinar descritores específicos adequados a caracterizar este fenómeno em condições diversas. Com o objetivo de explorar as potencialidades deste tipo de fenómeno e suas aplicações, nos últimos anos têm sido desenvolvidos alguns trabalhos no âmbito da aquisição stereo. Esta dissertação descreve o trabalho realizado com a conceção e o desenvolvimento de um sistema de aquisição de imagens stereo de laser speckle, que permite flexibilizar a disposição física dos respetivos componentes e realizar eventos experimentais que permitam a caracterização deste fenómeno em relação à variação dos parâmetros do sistema. Desta forma, o trabalho dividiu-se nas seguinte etapas: conceção do sistema físico; criação de uma interface gráfica, que facilita a realização dos eventos experimentais; análise dos resultados obtidos. Para poder realizar a aquisição de imagens foram utilizadas duas câmaras monocromáticas da Basler com interface GigE. Foi efetuado um estudo sobre as configurações das câmaras utilizadas e como é que os respetivos parâmetros iriam influenciar a aquisição das imagens. Este estudo incluiu os modos de funcionamento do sensor utilizado, sequências dos eventos de aquisição e envio das frames para serem armazenadas e qual o tipo de sinal a utilizar para garantir que as frames stereo são adquiridas de modo síncrono. A conceção da interface gráfica permite a configuração dos parâmetros das câmaras que são relevantes para a realização das experiências de aquisição, seguindo-se a definição da disposição do material utilizado (câmaras, laser, lente que direciona o laser e o difusor). Com as imagens adquiridas foi realizada uma análise de conteúdo baseada num dos tipos de processamento normalmente usados para este tipo de fenómeno, mais concretamente a análise do contraste. Tendo como base a abordagem LASCA (Laser Speckle Contrast Analysis) optou-se por realizar uma análise das imagens, ao longo do tempo, recorrendo a dois descritores (factor de correlação e a média de uma janela definida do valor da diferença das imagens de contraste do laser speckle) para caracterizar a variação da informação entre as imagens correspondentes às vistas stereo. Através dos resultados obtidos, podemos concluir que a variação dos parâmetros em estudo produzem resultados distintos ao nível da informação que se adquire nas imagens da esquerda e da direita, pelo que tais parâmetros têm de ser definidos aquando do processo de aquisição em speckle 3D. O parâmetro cuja a variação apresenta mais influência nos resultados é o tempo de exposição definido em cada experiência. De facto, o aumento do valor deste parâmetro na experiência de aquisição, implica a diminuição do frame rate utilizado (isto é uma consequência do modelo da câmara utilizada). Globalmente, o trabalho realizado no âmbito desta dissertação permitiu desenvolver um sistema experimental para realizar estudos específicos com imagens stereo de laser speckle. Os resultados demonstram as funcionalidades do sistema e a sua utilidade para a realização de estudos futuros com imagens stereo de laser speckle.
Point Cloud Coding: Adopting a Deep Learningbased Approach
Publication . Guarda, André; M. M. Rodrigues, Nuno; Pereira, Fernando
Point clouds have recently become an important visual representation format, especially for virtual and augmented reality applications, thus making point cloud coding a very hot research topic. Deep learning-based coding methods have recently emerged in the field of image coding with increasing success. These coding solutions take advantage of the ability of convolutional neural networks to extract adaptive features from the images to create a latent representation that can be efficiently coded. In this context, this paper extends the deep-learning coding approach to point cloud coding using an autoencoder network design. Performance results are very promising, showing improvements over the Point Cloud Library codec often taken as benchmark, thus suggesting a significant margin of evolution for this new point cloud coding paradigm.
Optimized Reference Picture Selection for Light Field Image Coding
Publication . Monteiro, J. S. Ricardo; Nunes, J. L. Paulo; M. M. Rodrigues, Nuno; Faria, Sergio
This paper proposes a new reference picture selection method for light field image coding using the pseudovideo sequence (PVS) format. State-of-the-art solutions to encode light field images using the PVS format rely on video coding standards to exploit the inter-view redundancy between each sub-aperture image (SAI) that composes the light field. However, the PVS scanning order is not usually considered by the video codec. The proposed solution signals the PVS scanning order to the decoder, enabling implicit optimized reference picture selection for each specific scanning order. With the proposed method each reference picture is selected by minimizing the Euclidean distance to the current SAI being encoded. Experimental results show that, for the same PVS scanning order, the proposed optimized reference picture selection codec outperforms HEVC video coding standard for light field image coding, up to 50% in terms of bitrate savings
A Software-Defined Radio for Future Wireless Communication Systems at 60 GHz
Publication . Gomes, Rodolfo; Duarte, Luis; Ribeiro, Carlos; Caldeirinha, Rafael
This paper reports on a complete end-to-end 5G mmWave testbed fully reconfigurable based on a FPGA architecture. The proposed system is composed of a baseband/low-IF processing unit, and a mmWave RF front-end at both TX/RX ends. In particular, the baseband unit design is based on a typical agile digital IF architecture, enabling on-the-fly modulations up to 256-QAM. The real-time 5G mmWave testbed, herein presented, adopts OFDM as the transmission scheme waveform, which was assessed OTA by considering the key performance indicators, namely EVM and BER. A detailed overview of system architecture is addressed together with the hardware considerations taken into account for the mmWave testbed development. Following this, it is demonstrated that the proposed testbed enables real-time multi-stream transmissions of UHD video content captured by nine individual cameras, which is in fact one of the killing applications for 5G.
Deep Learning-Based Point Cloud Coding: A Behavior and Performance Study
Publication . M. M. Rodrigues, Nuno; Guarda, André; Pereira, Fernando
Point clouds are an emerging 3D visual representation model for immersive and interactive multimedia applications, inparticular for virtual and augmented reality. The huge amount of data associated to point clouds critically asks for efficient point cloud coding technology. While there are already some point cloud coding paradigms in the literature, notably octree, patch and graph-based for geometry data, very recently deep learning emerged in this research domain, offering very promising performances for image coding. While deep learning-based methods often provide interesting results, the understanding of this type of coding solutions is essential to improve their design in order to be used effectively. In this context, this paper presents a study and analysis on the behavior and performance of a deep learning-based point cloud coding solution based on an autoencoder network using only convolutional layers. Beside a promising RD performance, other findings should allow making

Organizational Units

Description

Keywords

Contributors

Funders

Funding agency

Fundação para a Ciência e a Tecnologia

Funding programme

6817 - DCRRNI ID

Funding Award Number

UID/EEA/50008/2019

ID