Loading...
Research Project
Instituto de Telecomunicações
Funder
Authors
Publications
SISTEMA DE AQUISIÇÃO DE IMAGENS STEREO PARA LASER SPECKLE
Publication . Salgueiro, Filipe José Marques; Assunção, Pedro António Amado de; Pinto, Rui Manuel da Fonseca
O Speckle é o fenómeno de interferência produzido pela interação de frentes de onda
de luz coerente, que ocorre devido à reflexão difusa da luz após incidência numa
determinada superfície. O efeito resultante pode ser capturado através de um sistema
de aquisição de video adequado, e carateriza-se por imagens contendo padrões de
interferência, que posteriormente podem ser processadas para determinar descritores
específicos adequados a caracterizar este fenómeno em condições diversas. Com o
objetivo de explorar as potencialidades deste tipo de fenómeno e suas aplicações,
nos últimos anos têm sido desenvolvidos alguns trabalhos no âmbito da aquisição
stereo.
Esta dissertação descreve o trabalho realizado com a conceção e o desenvolvimento
de um sistema de aquisição de imagens stereo de laser speckle, que permite flexibilizar
a disposição física dos respetivos componentes e realizar eventos experimentais que
permitam a caracterização deste fenómeno em relação à variação dos parâmetros
do sistema. Desta forma, o trabalho dividiu-se nas seguinte etapas: conceção do
sistema físico; criação de uma interface gráfica, que facilita a realização dos eventos
experimentais; análise dos resultados obtidos.
Para poder realizar a aquisição de imagens foram utilizadas duas câmaras monocromáticas
da Basler com interface GigE. Foi efetuado um estudo sobre as
configurações das câmaras utilizadas e como é que os respetivos parâmetros iriam
influenciar a aquisição das imagens. Este estudo incluiu os modos de funcionamento
do sensor utilizado, sequências dos eventos de aquisição e envio das frames para
serem armazenadas e qual o tipo de sinal a utilizar para garantir que as frames
stereo são adquiridas de modo síncrono.
A conceção da interface gráfica permite a configuração dos parâmetros das câmaras
que são relevantes para a realização das experiências de aquisição, seguindo-se a
definição da disposição do material utilizado (câmaras, laser, lente que direciona o
laser e o difusor). Com as imagens adquiridas foi realizada uma análise de conteúdo
baseada num dos tipos de processamento normalmente usados para este tipo de
fenómeno, mais concretamente a análise do contraste. Tendo como base a abordagem
LASCA (Laser Speckle Contrast Analysis) optou-se por realizar uma análise das
imagens, ao longo do tempo, recorrendo a dois descritores (factor de correlação e a média de uma janela definida do valor da diferença das imagens de contraste do laser
speckle) para caracterizar a variação da informação entre as imagens correspondentes
às vistas stereo.
Através dos resultados obtidos, podemos concluir que a variação dos parâmetros
em estudo produzem resultados distintos ao nível da informação que se adquire nas
imagens da esquerda e da direita, pelo que tais parâmetros têm de ser definidos
aquando do processo de aquisição em speckle 3D. O parâmetro cuja a variação
apresenta mais influência nos resultados é o tempo de exposição definido em cada
experiência. De facto, o aumento do valor deste parâmetro na experiência de
aquisição, implica a diminuição do frame rate utilizado (isto é uma consequência do
modelo da câmara utilizada).
Globalmente, o trabalho realizado no âmbito desta dissertação permitiu desenvolver
um sistema experimental para realizar estudos específicos com imagens stereo
de laser speckle. Os resultados demonstram as funcionalidades do sistema e a sua
utilidade para a realização de estudos futuros com imagens stereo de laser speckle.
Point Cloud Coding: Adopting a Deep Learningbased Approach
Publication . Guarda, André; M. M. Rodrigues, Nuno; Pereira, Fernando
Point clouds have recently become an important visual representation format, especially for virtual and augmented reality applications, thus making point cloud coding a very hot research topic. Deep learning-based coding methods
have recently emerged in the field of image coding with increasing success. These coding solutions take advantage of the ability of convolutional neural networks to extract adaptive features from the images to create a latent representation that can be efficiently coded. In this context, this paper extends the deep-learning coding approach to point cloud coding using an autoencoder network design. Performance results are very promising, showing improvements over the Point Cloud Library codec often taken as benchmark, thus suggesting a significant margin of evolution for this new point cloud coding paradigm.
Optimized Reference Picture Selection for Light Field Image Coding
Publication . Monteiro, J. S. Ricardo; Nunes, J. L. Paulo; M. M. Rodrigues, Nuno; Faria, Sergio
This paper proposes a new reference picture selection method for light field image coding using the pseudovideo sequence (PVS) format. State-of-the-art solutions to encode light field images using the PVS format rely on video coding standards to exploit the inter-view redundancy between each sub-aperture image (SAI) that composes the light field. However, the PVS scanning order is not usually considered by the video codec. The proposed solution signals the PVS scanning order to the decoder, enabling implicit optimized reference picture selection for each specific scanning order. With the proposed method each reference picture is selected by minimizing the Euclidean distance to the current SAI being encoded. Experimental results show that, for the same PVS scanning order, the proposed optimized reference picture selection codec outperforms HEVC video coding standard for light field image coding, up to 50% in terms of bitrate savings
A Software-Defined Radio for Future Wireless Communication Systems at 60 GHz
Publication . Gomes, Rodolfo; Duarte, Luis; Ribeiro, Carlos; Caldeirinha, Rafael
This paper reports on a complete end-to-end 5G mmWave testbed fully reconfigurable based on a FPGA architecture. The proposed system is composed of a baseband/low-IF processing unit, and a mmWave RF front-end at both TX/RX ends. In particular, the baseband unit design is based on a typical agile digital IF architecture, enabling on-the-fly modulations up to 256-QAM. The real-time 5G mmWave testbed, herein presented, adopts OFDM as the transmission scheme waveform, which was assessed OTA by considering the key performance indicators, namely EVM and BER. A detailed overview of system architecture is addressed together with the hardware considerations taken into account for the mmWave testbed development. Following this, it is demonstrated that the proposed testbed enables real-time multi-stream transmissions of UHD video content captured by nine individual cameras, which is in fact one of the killing applications for 5G.
Deep Learning-Based Point Cloud Coding: A Behavior and Performance Study
Publication . M. M. Rodrigues, Nuno; Guarda, André; Pereira, Fernando
Point clouds are an emerging 3D visual representation model for immersive and interactive multimedia applications, inparticular for virtual and augmented reality. The huge amount of data associated to point clouds critically asks for efficient point cloud coding technology. While there are already some point cloud coding paradigms in the literature, notably octree, patch and graph-based for geometry data, very recently deep learning emerged in this research domain, offering very promising performances for image coding. While deep learning-based methods often provide interesting results, the understanding of this type of coding solutions is essential to improve their design in order to be used effectively. In this
context, this paper presents a study and analysis on the behavior and performance of a deep learning-based point cloud coding solution based on an autoencoder network using only convolutional layers. Beside a promising RD performance, other findings should allow making
Organizational Units
Description
Keywords
Contributors
Funders
Funding agency
Fundação para a Ciência e a Tecnologia
Funding programme
6817 - DCRRNI ID
Funding Award Number
UID/EEA/50008/2019