Reconstrucción basada en multirresolución para la adquisición de vídeo espectral compresivo usando un sensor de multiplexación espectral
Publicado 2018-01-11
Palabras clave
- Reconstrucción basada en multirresolución,
- video espectral compresivo,
- optimización
Cómo citar
Resumen
Los sensores de multiplexación espectral basados en muestreo compresivo intentan romper la barrera de Nyquist para adquirir escenas de alta resolución espectral. Particularmente, el sistema de imágenes espectrales de única captura basado en aperturas codificadas de color extendido a vídeo, o video – CCASSI, es un sensor de multiplexación espectral que permite la adquisición de imágenes espectrales dinámicas proyectando cada fotograma espectral sobre un detector bidimensional usando un apertura de codificación 3D. Posteriormente, la reconstrucción de la señal comprimida se realiza iterativamente encontrando una solución escasa a un sistema lineal de ecuaciones indeterminado. Si bien la señal adquirida puede ser recuperada desde un algoritmo basado en la norma l_2 − l_1, con
muchas menos observaciones en comparación a los sistemas convencionales, dicha reconstrucción presenta diversos desafíos originados por la variable temporal o el movimiento. El movimiento durante la reconstrucción produce artefactos que dañan la totalidad de los datos. En este trabajo, se propone un método de reconstrucción basado en múltiples resoluciones para la adquisición compresiva de video espectral. De este modo, el problema de optimización para recuperar la señal se amplía añadiendo la información temporal como restricción, con el objetivo de corregir los errores originados por el movimiento de la escena. Los experimentos computacionales realizados en cuatro videos espectrales diferentes muestran una mejora de hasta 4dB en términos de relación pico-señal a ruido (PSNR) en la calidad de reconstrucción usando el enfoque multirresolución aplicado a la reconstrucción de video espectral con respecto al problema de optimización que no considera el movimiento.
Descargas
Referencias
H. Rueda, H. Arguello, and G. R. Arce, “Dmd-based implementation of patterned optical filter arrays for compressive spectral imaging,” JOSA A, vol. 32, no. 1, pp. 80–89, 2015.
K. Leon, L. Galvis, and H. Arguello, “Reconstruction of multispectral light field (5d plenoptic function) based on compressive sensing with colored coded apertures from 2d projections,” Revista Facultad de Ingeniería Universidad de Antioquia, no. 80, Ene. 2016.
A. Wagadarikar, N. P. Pitsianis, X. Sun, and D. J. Brady, “Video rate spectral imaging using a coded aperture snapshot spectral imager,” Optics Express, vol. 17, no. 8, pp. 6368–6388, 2009.
C. Correa, D. F. Galvis, and H. Arguello, “Sparse representations of dynamic scenes for compressive spectral video sensing,” Dyna, vol. 83, no. 195, p. 42, 2016.
K. Leon, L. Galvis, and H. Arguello, “Spectral dynamic scenes reconstruction based in compressive sensing using optical color filters,” in SPIE Commercial+ Scientific Sensing and Imaging. International Society for Optics and Photonics, 2016, pp. 98600D–98600D.
B. Pedraza, P. Rondon, and H. Arguello, “Sistema de reconocimiento facial basado en imágenes con color”, Revista UIS Ingenierías, vol. 10, no. 2, Dic. 2012.
A. B. Ramirez, H. Arguello, and G. Arce, “Video anomaly recovery from compressed spectral imaging,” in Acoustics, Speech and Signal Processing (ICASSP), 2011 IEEE International Conference on. IEEE, 2011, pp. 1321–1324.
J. Chen, Y. Wang, and H. Wu, “A coded aperture compressive imaging array and its visual detection and tracking algorithms for surveillance systems,” Sensors, vol. 12, no. 11, pp. 14397–14415, 2012.
A. Banerjee, P. Burlina, and J. Broadwater, “Hyperspectral video for illumination-invariant tracking,” in Hyperspectral Image and Signal Processing: Evolution in Remote Sensing, 2009. WHISPERS’09. First Workshop on. IEEE, 2009, pp. 1–4.
T. Goldstein, L. Xu, K. F. Kelly, and R. Baraniuk, “The stone transform: Multi-resolution image enhancement and compressive video,” IEEE Transactions on Image Processing, vol. 24, no. 12, pp. 5581–5593, 2015.
A. C. Sankaranarayanan, L. Xu, C. Studer, Y. Li, K. F. Kelly, and R. G. Baraniuk, “Video compressive sensing for spatial multiplexing cameras using motion-flow models,” SIAM Journal on Imaging Sciences, vol. 8, no. 3, pp. 1489–1518, 2015.
D. Reddy, A. Veeraraghavan, and R. Chellappa, “P2c2: Programmable pixel compressive camera for high speed imaging,” in Computer Vision and Pattern Recognition (CVPR), 2011 IEEE Conference on. IEEE, 2011, pp. 329–336.
C. Liu, “Beyond pixels: exploring new representations and applications for motion analysis,” Ph.D. dissertation, Citeseer, 2009.
M. A. T. Figueiredo, R. D. Nowak, and S. J. Wright, “Gradient projection for sparse reconstruction: Application to compressed sensing and other inverse problems,” IEEE Journal on Selected Topics in Signal Processing, vol. 1, no. 4, pp. 586–597, 2007.
A. Mian and R. Hartley, “Hyperspectral video restoration using optical flow and sparse coding,” Optics express, vol. 20, no. 10, pp. 10658–10673, 2012.
F. Yasuma, T. Mitsunaga, D. Iso, and S. K. Nayar. 2008 CAVE Projects: Multispectral Image Database. [Online].Available:http://www.cs.columbia.edu/CAVE/databases/multispectral/