Reconstrucción tridimensional de objetos con simetría axial
a partir del método de triangulación láser con múltiples
sistemas de observación

Three dimensional reconstruction of objects with axial
symmetry from laser triangulation method and multiple
option observation system
sistemas de observación

GEORGE ERNEY ARGÜELLO SARMIENTO

Ingeniero Electrónico
Universidad Industrial de Santander
george.1277712@gmail.com
Bucaramanga, Colombia

JAIME GUILLERMO BARRERO PéREZ

Ingeniero Electricista
Maestría en Ingeniería
Profesor Titular Escuela de Ingeniería Eléctrica, Electrónica y Telecomunicaciones
Grupo de Investigación CEMOS
Universidad Industrial de Santander.
jbarrero@uis.edu.co.
Bucaramanga, Colombia

JAIME ENRIQUE MENESES FONSECA

Doctor en Ciencias
Profesor Titular Escuela de Física
Grupo de Investigación GOTS
Universidad Industrial de Santander.
jaimen@uis.edu.co
Bucaramanga, Colombia

Fecha de recibido: 25/07/2012
Fecha de aceptado: 15/12/2012


RESUMEN

Esta investigación se centra en la implementación y el análisis de un procedimiento para la reconstrucción tridimensional del contorno de un objeto que posee simetría axial a partir del método de triangulación láser con múltiples sistemas de observación. El sistema implementado se basa en la disposición de cuatro cámaras de digitalización de imágenes ubicadas a 90° entre si alrededor del eje de simetría. Junto con un plano láser generado por cuatro espejos poligonales rotando a alta velocidad, el dispositivo permite recuperar información 3D del contorno o sección completo de un objeto alrededor del eje de simetría. La adquisición y procesamiento de imágenes y la reconstrucción 3D del contorno se realizó en ambiente MATLAB®.

Palabras clave: Reconstrucción tridimensional, triangulación láser, calibración de cámaras.

ABSTRACT

The investigation was focused on the implementation and analysis of a procedure to extract three-dimensional reconstruction of an object contour, which has axial symmetry, using the laser triangulation method with multiple observation systems. The implemented system is based on the arrangement of four cameras located around the symmetrical axis. A laser plane was generated by four polygon mirrors rotating at high speed; the device can recover 3D information of the complete contour or section of an object around the symmetrical axis. Acquisition and data processing is done through MATLAB® software.

Keywords: Three-dimensional reconstruction, laser triangulation, camera calibration.

UIS Ingenierías, Volumen 11, No. 2, pags. 155-169, Diciembre 2012; Facultad de Ingenierías Fisicomecánicas, UIS


1. INTRODUCCIÓN

Debido a las exigentes demandas de calidad en las líneas de producción, las industrias recurren a dispositivos de medida que permitan realizar un análisis dimensional de sus productos con alta precisión. Para el caso de la producción de cable extruido, tradicionalmente se emplean sensores que permiten obtener la medida transversal del cable, midiendo la sombra que genera la proyección de un haz láser sobre el cable. Estos sensores son muy precisos y rápidos, funcionan perfectamente para cables con perfiles circulares. Para diámetros de hasta 20 mm se obtienen resoluciones del orden de 150 micras. La dificultad se presenta al controlar la producción de cables con perfiles no circulares. En el presente artículo se muestra el diseño, calibración e implementación de un dispositivo para la medida del perfil de cualquier tipo de cable. La parte central del dispositivo consiste en la generación de un plano láser que intercepta transversalmente al cable y cuatro cámaras CCD, ubicadas alrededor del eje del cable, adquieren la distorsión del plano láser inducido por la forma 3D del cable. Con esta información se puede obtener el perfil, no importando la forma que posea la sección del cable.

RECONSTRUCCIÓN TRIDIMENSIONAL POR
TRIANGULACIÓN LÁSER

La reconstrucción tridimensional consisten en la digitalización de la topografía de objetos a partir de un sistema coordenado y estableciendo las coordenadas de los puntos de la superficie en dicho sistema. Uno de los métodos usados en la reconstrucción tridimensional es la triangulación láser, el cual es un método relativamente económico, no invasivo, fiable, consistente y con un alto nivel de resolución. El sistema de iluminación proyecta un punto o una línea láser sobre el objeto de estudio a un ángulo conocido con respecto a la cámara. La cámara se ubica con su eje óptico perpendicular al plano donde se proyecta el láser, llamado plano de referencia.

En el caso de la proyección de una línea, como en la Figura 1, al observar la imagen capturada con la proyección sobre el plano de referencia, sin objeto, se podrá obtener una línea recta continua. Sin embargo, al ubicarse un objeto que obstaculice el plano se percibe una deformación en esta, que depende del ángulo entre el plano láser y el eje óptico de la cámara. Con la deformación de la línea proyectada es posible establecer la altura de cada punto, ya que la distancia de deformación de la línea con respecto a la línea de base sobre el plano de referencia, es proporcional a la altura a la que se encuentra el punto en el espacio.

Si la cámara no estuviera en el eje Z, el cual determina la altura del objeto, sino a un ángulo β con respecto a este, y el ángulo de proyección del plano láser fuera θ (también con respecto a Z), se tendría el esquema mostrado en la Figura 2.

Si las coordenadas del punto P son (x,y,z) y las coordenadas del punto P’ son (u,v), por relaciones geométricas básicas y la Ley de Gauss para las lentes delgadas, se tiene que la coordenada “z” del punto P está relacionada con la coordenada “u” del punto P’, por la ecuación:

donde es el factor de ampliación geométrico, que se puede aproximar como el cociente entre la focal efectiva de la cámara (f) y la distancia desde O hasta el centro del sistema óptico de la lente (d0). Según la ecuación 1, calculando la coordenada “u” de un punto sobre la línea láser en la imagen adquirida se puede determinar z para ese punto, conociendo θ, β y f. El tratamiento digital de la imagen consiste en extraer las coordenadas en pixeles del centro de la línea láser deformada. Experimentalmente, la determinación de los parámetros del montaje con precisión es difícil, ya que los ejes ópticos de proyección y observación no están bien definidos espacialmente. Por lo tanto, el proceso de reconstrucción requiere de una ecuación de conversión que puede obtenerse de manera experimental.

El procedimiento de calibración experimental consiste en el desplazamiento del plano de referencia en dirección del eje Z en un intervalo alrededor del origen (Desde el punto 0 al punto A en la Figura 3), obteniéndose así el rango de medida del dispositivo. El desplazamiento se realiza a intervalos ΔZ conocidos y empleándose medidores de paso de alta resolución. Para cada posición z se adquiere la imagen de la línea láser. Debido al ángulo entre el plano láser y el eje óptico de la cámara, para cada posición z del plano de referencia la posición de la línea en el plano cambia. Así, si el plano de referencia se encuentra en A, su imagen se encuentra en A’, pero si se traslada a B la imagen de la línea se encuentra en B’. De esta manera una posición de la imagen de la línea láser representa una coordenada z única. Debido al incremento en ΔZ, existirán posiciones en la imagen que no tienen asociada una coordenada z, un procedimiento de interpolación permitirá asociar para cada pixel en la imagen una única coordenada z.

De esta manera, la reconstrucción tridimensional de un objeto se realiza de la siguiente manera: se adquiere una imagen deformada de la línea láser, como se indica en el montaje de la Figura 1, se realiza un procesamiento digital a la imagen para calcular las coordenadas en pixeles del centro de la línea láser y se determina para cada coordenada calculada su valor de la coordenada “z”, encontrada en el proceso de calibración. Si se desea reconstruir toda la superficie del objeto, se debe barrer la línea láser a intervalos ΔX, según la Figura 1. Alternativamente, el procedimiento se puede realizar empleando un haz láser que genera un punto sobre la superficie, pero se requiere de los barridos en “x” y “y”, para reconstruir la superficie del objeto. En el caso que el objeto tiene simetría axial, solo interesa extraer una sección transversal, no es necesario hacer barridos pero si se requiere observar a 360º alrededor del eje axial.

3. DIAGRAMA DEL MONTAJE
EXPERIMENTAL

Con el fin de extraer información completa de la sección transversal es necesario ubicar varias cámaras alrededor del objeto. De esta manera proyectando un plano láser, generado de diferentes posiciones angulares, se obtiene un corte transversal de la sección del cable. Las cámaras ubicadas estratégicamente alrededor permiten, una vez unidas sus imágenes en un solo sistema coordenado, obtener información completa de la sección transversal. La Figura 4 muestra un diagrama del sistema implementado.

El montaje fue desarrollado como parte de un proyecto de maestría de ingeniería electrónica [12] y cuenta con los siguientes componentes:

Chasis de aluminio laminado.

  • 4 Motores de pasos 3600 rpm.
  • 4 Láseres.
  • 4 Lentes.
  • 4 Cámaras CCD de 640*480 pixeles con lentes de focales 8 mm.
  • Tarjeta electrónica para controlar motores de pasos.
  • Fuente de alimentación de 5 VDC.
  • Tarjeta digitalizadora monocromática multicanal.
  • Computador
  • Básicamente el dispositivo consta de cuatro unidades de proyección y observación independientes. Al incidir un rayo láser sobre un espejo poligonal que gira a alta velocidad se genera un plano láser horizontal con un ángulo de dispersión del orden de 20°. Al ubicar el objeto con su eje axial vertical, la superficie del objeto intercepta al plano láser formándose una línea láser distorsionada, que es adquirida por cuatro cámaras CCD formando aproximadamente 90° entre sí. Cada cámara observa una sección de la línea láser distorsionada y recupera información 3D de la sección observada. Es posible extraer información topográfica de toda la sección transversal después de la unificación de las reconstrucciones 3D de cada cámara a un único sistema coordenado.

    4. PROCESAMIENTO DIGITAL DE IMAGEN

    Para obtener la reconstrucción total de la sección transversal, es necesario hacer diferentes procedimientos de calibración y procesamiento de las imágenes, los cuales se describen a continuación.

    4.1. Calibración de las cámaras

    El proceso de calibración del sistema de adquisición de imágenes ocupa un lugar muy importante para acceder a una aproximación tridimensional de un objeto. Para esto, es necesario definir un modelo matemático para el proceso de transformación de la escena 3D a la imagen 2D. De igual forma es importante determinar los parámetros que definen el modelo matemático a través de un procedimiento experimental de calibración. Oc La formación de una imagen es un proceso de transformación tridimensional a bidimensional, a través de un proceso de proyección Ow ( X, Y, Z) en perspectiva puntual. La Figura 5 muestra los sistemas coordenados empleados en este proceso de transformación. El objeto se encuentra ubicado en el sistema coordenado, llamado sistema coordenado del objeto. La cámara posee otro sistema coordenado con su eje Zc paralelo al eje óptico de la lente y el origen Oc se ubica en la pupila de entrada. Los ejes Xc y Yc son paralelos al plano del captor CCD o plano imagen ubicado a una distancia aproximada f, focal de la lente. Cualquier punto en el espacio del objeto es proyectado sobre el plano imagen siguiendo una línea recta que une al plano con el origen e intercepta el punto imagen. Los parámetros de calibración se dividen en dos grandes grupos, los cuales son extrínsecos e intrínsecos.

    4.1.1. Parámetros extrínsecos

    La ubicación del punto tridimensional en la imagen depende de la posición relativa del sistema coordenado de la cámara con respecto al sistema coordenado del objeto. La primera transformación del sistema coordenado que se realiza en la proyección puntual es la conversión del sistema coordenado del objeto al sistema coordenado de la cámara a través de una operación de rotación y una traslación. Las constantes que se involucran en esta transformación entre sistemas coordenados son llamados parámetros extrínsecos. Según la Figura 5 un punto en el sistema coordenado del objeto, , puede ser convertido al sistema coordenado de la cámara , por

    donde Mrt es la matriz de rotación y T es el vector de traslación entre orígenes. Conociendo las coordenadas del punto sobre el objeto es posible calcular sus coordenadas en el sistema coordenado de la cámara, para esto es necesario hallar los nueve elementos que se componen de la matriz de rotación, más los 3 valores del vector de traslación, a estos parámetros se les conoce como extrínsecos, ya que no son propios de la cámara sino del entorno.

    4.1.2. Parámetros intrínsecos

    Todas las cámaras fotográficas poseen una lente, esta lente no es más que una serie de objetos curvados hechos generalmente de vidrio el cual es capaz de desviar rayos de luz de tal manera que pueda formar una imagen, la cual es registrada por medio del sensor. La Figura 6 muestra el proceso de proyección puntual de un punto en el espacio con coordenadas (Xc, Yc, Zc) al sistema coordenado en pixeles del plano imagen (u,v).

    Por medio de las relaciones básicas de triángulos se tiene que:

    +

    Sin embargo la distancia es aproximadamente la distancia focal . Luego se tiene:

    Y por relaciones similares,

    Si se establece que y , por

    , se tendrá,

    Otra notación de este mismo resultado que será útil más adelante es:

    Los ejes coordenados U y V presentes en la Figura 6, son las coordenadas en pixeles que se obtiene al tomar la imagen y digitalizarla, en donde las coordenadas del punto de estudio tendrá las coordenadas:

    donde Dx y Dy es el factor de la conversión en pixeles/ milímetros y , es la posición del eje en la imagen medido en pixeles. Tomando en cuenta las ecuaciones 5, 6, 7 y disponiendo que se obtendrá que,

    es decir,

    donde K, es la matriz resultante. Los elementos que conforman , son parte de los parámetros intrínsecos de la cámara

    Al tener una imagen de cualquier cámara, esta va a poseer ciertas aberraciones, que es posible minimizar. Si se tiene un punto con aberraciones (X d, Yd) y se desea corregirlas, se tendrá que establecer la distorsión radial y la distorsión tangencial para llegar a las coordenadas del punto sin aberraciones ,(Xn y Yn) como se muestra en la Figura 7. Es decir, los defectos de las lentes desvían la posición ideal geométrica a la posición real . La distorsión total está dada por la suma de las distorsiones radiales y tangenciales:

    donde son los vectores unitarios en las direcciones de los ejes X y Y, respectivamente. Matemáticamente las aberraciones geométricas más comunes que generan y han sido descritas por relaciones polinomiales, a través de coeficientes matemáticos. Si se los coeficientes de la distorsión radial y tangencial en un solo vector y se complementan todos los parámetros intrínsecos con los demás componentes previamente nombrados se tendrá:

    Por lo tanto,

    La distorsión tangencial se debe a la “descentralización”, o imperfecto de centro de los componentes del lente y otros defectos de fabricación en un lente compuesto.

    4.2.Procedimiento experimental de calibración de las cámaras

    El objetivo de un procedimiento de calibración de una cámara es encontrar los 21 coeficientes a través de un procedimiento de optimización no lineal que asocie coordenadas (x,y,z) y su correspondiente (u,v) de N puntos conocidos llamados puntos de control. Estos puntos de control son obtenidos de patrones de calibración con dimensiones conocidas. El patrón de calibración empleado tenía la forma de tablero de ajedrez con una distancia entre cuadros conocida. El patrón fue impreso en una hoja y adherido a una superficie plana. Las esquinas de cada cuadro definen los puntos de control.Para hallar los parámetros de calibración de las cámaras (intrínsecos y extrínsecos), se hace uso del software MATLAB®, con ayuda de la herramienta “Camera Calibration Toolbox” la cual permite calibrar cámaras y es de libre acceso en internet [13]. Sin embargo para comenzar a calcular estos parámetros, primero se debe elegir la zona de calibración; esta zona es donde se centra la corrección de aberraciones, se elige una zona y no toda la imagen de la fotografía, debido a que las aberraciones son menores en el centro de ella y más fuertes a medida que se acerca a las esquinas. De igual forma, la zona de calibración está definida por el área donde se ubica el objeto a medir. Como se explicó en la sección 3, al mover el plano de referencia entre la distancia máxima y mínima en z, la línea láser se desplazará en el plano imagen en posiciones extremas, como se observa en la Figura 8. Esto quiere decir que la topografía de cualquier objeto va a generar una línea láser deformada que no se sale de límite definido por las líneas extremas de la Figura 8, d). Es decir, puntos fuera de esta región no son usados por el sistema de triangulación láser; de ahí la importancia de calibrar y corregir aberraciones al interior de esta zona.

    La región escogida se binariza, obteniendo la región de interés y tomando los puntos extremos de la imagen binarizada se puede construir una región rectangular que encierre de mejor forma toda la región elegida, Figura 8, e).

    Al final se guardan las dos imágenes binarias, junto con las coordenadas en “x” y “y” de los puntos extremos de cada una de las imágenes. Teniendo el área de trabajo se prosigue a hallar los parámetros de calibración

    Para obtener los parámetros intrínsecos se tomaron de 20 a 25 imágenes del patrón de calibración en diferentes posiciones con respecto a la cámara, estas imágenes son cargadas en la herramienta de calibración del software utilizado.

    El procesamiento digital de las imágenes que realiza el software consiste inicialmente en calcular las coordenadas en pixeles de las esquinas de cada cuadro que se encuentra al interior de la zona útil de calibración. Para cada punto de control se conoce (x,y,z) y (u,v) donde z=0 ya que los puntos de control se ubican en un plano. Con un total de cerca de 10000 puntos se realiza un proceso de optimización no lineal. Asignando valores a los 21 coeficientes se calcula (ut,vt) para cada punto a partir de (x,y,0) y las ecuaciones de modelización, descritas anteriormente. La función de error que guía el proceso de optimización se define como:

    donde (ue ve) son las coordenadas experimentales en pixeles de cada punto de control encontrados en cada imagen.

    Para cada una de las cámaras se obtuvieron los parámetros intrínsecos mostrados en la Tabla 1.

    Para calcular los parámetros extrínsecos el software requiere de una imagen del patrón de calibración. Esta imagen define el sistema coordenado del objeto como se indica en la Figura 9 y que va a definir el sistema coordenado de reconstrucción tridimensional de cada cámara, donde el eje z debe coincidir con el eje de calibración de cada sistema de triangulación láser, como se explicará a continuación. Los parámetros extrínsecos para cada cámara fueron:

    4.3. Calibración de la línea láser

    Para establecer la altura de cada uno de los puntos vistos en las imágenes tomadas por las cámaras se hace uso del sistema de calibración experimental con ayuda del método de triangulación láser. Como el sistema coordenado de reconstrucción debe coincidir con el sistema coordenado del objeto en el proceso de calibración de cada cámara, se usa el tablero de ajedrez en la posición empleada para definir los parámetros extrínsecos para calibrar la triangulación láser. La Figura 8, b), muestra la línea láser de la cámara 1 para la posición z=0 mm. El tablero de ajedrez, que define el plano de referencia se desplaza de -11 mm a +11 mm a intervalos de 1 mm, con una platina de traslación que tiene una resolución de 10 μm. Cada imagen es almacenada y procesada para calcular la línea central de cada imagen de la línea láser. Las imágenes tienen una resolución de 640 x 480 pixeles con 256 niveles de gris. La Figura 10 muestra la lectura de los niveles de gris de una columna de la imagen a z=0. El centro de la línea láser se calcula binarizando la imagen, con un valor umbral que corresponde a:

    donde I máx e I míx son los valores máximo y mínimo de intensidad de la imagen. A la imagen binarizada se le calcula el centro de masa columna por columna, de esta manera para cada posición z del intervalo se obtiene la línea central con una precisión de ±1 pixel.

    Este proceso se debe realizar para cada imagen tomada a diferentes posiciones de z, las cuales fueron calculadas a medida que se tomaron las imágenes.

    La Figura 11 muestra las coordenadas tridimensionales del proceso de calibración. Es decir, cada línea láser central tiene una coordenada z, al realizar un ajuste por mínimos cuadrados se obtiene un polinomio de interpolación dado por:

    donde (x,y) corresponde a las coordenadas en pixeles y z la coordenada en milímetros. La ecuación es llamada curva de calibración del sistema de triangulación láser y los coeficientes son función de los parámetros del montaje.

    4.4. Reconstrucción tridimensional de cada cámara

    Teniendo los parámetros intrínsecos, extrínsecos y la curva de calibración para cada cámara, se puede obtener la reconstrucción tridimensional por separado. El proceso de reconstrucción consiste en ubicar el objeto dentro de la zona de calibración y adquirir las imágenes de cada cámara. Sobre cada imagen se calculan las coordenadas (x,y) en pixeles del centro de la línea láser. Empleando la curva de calibración se obtiene el valor z de cada punto central de la línea láser. La Figura 12 muestra una imagen adquirida de la línea láser y la Figura 13 muestra la reconstrucción tridimensional empleando la curva de calibración.

    Se obtiene una imagen similar para cada una de las cámaras, sin embargo con los datos hasta ahora obtenidos no es posible establecer la reconstrucción tridimensional completa, ya que cada reconstrucción tridimensional se hace por separado con sus propios sistemas coordenados independientes.

    4.5. Conversión de pixeles a milímetros

    La imagen obtenida de reconstrucción tridimensional por cada cámara tiene coordenadas z en milímetros y coordenadas (u,v) en pixeles. Es necesario convertir los pixeles (u,v) del plano imagen de la cámara a milímetros en (x,y) en el espacio del objeto. Conociendo los coeficientes kc de la distorsión radial y tangencial y las coordenadas (u,v) distorsionadas, se calculan las coordenadas en pixeles del punto no distorsionado que se convierten en coordenadas normalizadas (xn, yn). De esta manera, la línea desde el centro del eje coordenado de la cámara y el punto evaluado en el espacio se conoce espacialmente. Para el punto también se conoce la coordenada z que define el plano mostrado en la Figura 11 con la coordenada z del punto calculado con la curva de calibración. La intersección de la línea con el plano permite calcular las coordenadas (x,y) en milímetros. La Figura 14 muestra la reconstrucción tridimensional para la cámara 1 de la imagen mostrada en la Figura 12.

    4.5. Conversión de pixeles a milímetros

    Cada reconstrucción tridimensional que se obtiene de cada cámara tiene un sistema coordenado (X,Y,Z) independiente. Con el fin de obtener una única sección transversal completa se debe hacer un proceso de conversión de sistemas coordenados. Se define el sistema coordenado de reconstrucción de la cámara 1 como sistema coordenado global; se deben buscar las ecuaciones de transformación de los sistemas coordenados de reconstrucción de las cámaras 2, 3 y 4 al sistema coordenado de la cámara 1. Los sistemas coordenados de las cámaras 2, 3 y 4 se fijaron ubicando el tablero de ajedrez sobre una platina de rotación de resolución 1’ (un minuto de arco) y rotando secuencialmente 90°. Es decir, se sabe que entre sistemas coordenados hay 90°de rotación pero no se conoce la ubicación del eje de rotación de la platina en el sistema coordenado de la cámara 1. La Figura 15 muestra el tablero de ajedrez en posición angular θ=0° visto por la cámara 1. Esta posición corresponde a la misma posición que sirvió para definir el sistema coordenado de reconstrucción de la cámara 1 (Figura 9).

    Se toman secuencialmente imágenes variando θ entre -45° y 45° cada 5° y se hace un proceso de búsqueda de puntos de control de la región de cuadros indicada en el rectángulo rojo de la Figura 15, de esta manera se tiene el mismo origen O en cada imagen. Como se conocen los parámetros extrínsecos y sabiendo que el sistema coordenado de la cámara no cambia, se calculan las coordenadas tridimensionales de cada punto de control en cada imagen. La Figura 16 muestra la totalidad de puntos encontrados en el espacio tridimensional del sistema coordenado de la cámara 1 (En color azul). Se observa que existe un eje de rotación que corresponde al eje de rotación de la platina rotatoria. Se observa de igual forma que el mismo punto en cada imagen define un círculo, a cada circulo se le realiza un ajuste por mínimos cuadrados para determinar las coordenadas del centro (x0,y0,z0) y el radio R0. Repitiendo el proceso para cada punto se encuentran todos los centros que deben pasar por el eje de rotación.

    La Figura 16 muestra en verde la línea interpolada de los centros calculados de los puntos que definen círculos mostrados en las líneas azules. De esta manera se calcula la ecuación de la línea que define el eje de rotación en el sistema coordenado de la cámara OC (XC YC ZC) de la cámara 1. Como se conocen los parámetros extrínsecos de la cámara 1, la ecuación de la línea recta que define el eje de rotación se transforma al sistema coordenado de reconstrucción tridimensional de la cámara 1.

    La Figura 17 muestra el proceso de conversión de un sistema coordenado rotado un ángulo θ al sistema coordenado de la cámara 1.

    El vector se conoce y corresponde a la distancia más corta entre el origen del sistema coordenado de la cámara 1 y el eje de rotación. El vector se puede calcular ya que se conoce θ y la distancia al eje de rotación es la misma, luego + es el vector posición entre los dos ejes coordenados. El vector (x,y,z) es conocido y coincide con las coordenadas de reconstrucción tridimensional calculado con la cámara 2, luego este vector en las coordencoordenadas del sistema coordenado de la cámara 1, serían:

    De esta manera para valores de θ = 90°, 180° y 270° y con la reconstrucción tridimensional de cada cámara, se obtiene en un único sistema coordenado del corte transversal del objeto reconstruido.

    5. RECONSTRUCCIóN TRDIMENSIONAL

    Teniendo todos los datos es posible establecer los puntos que describen el contorno del objeto y ubicarlos en un mismo sistema coordenado usando el procedimiento anterior. La Figura 18 y la Figura 19 muestran los contornos de algunos objetos reconstruidos. El análisis de error de la reconstrucción tridimensional completa, se presenta en la sección siguiente.

    Para establecer la versatilidad del sistema se tomó otros objetos para reconstruir:

    Los últimos objetos fueron reconstruidos como antesala a futuros trabajos en los cuales se desee reconstruir el contorno de superficies, los cuales no sean simétricos axialmente y con un sistema manual.

    6. ANÁLISIS DE ERROR

    Al realizar la reconstrucción tridimensional de objetos, los datos obtenidos poseen errores debido a diferentes factores, uno de ellos es debido a que no se eliminan totalmente las aberraciones de las cámaras al momento de realizar la calibración; otro factor de error es el ruido electrónico en la adquisición de imágenes y el ruido coherente generado por el láser, llamado speckle. Este ruido afecta la distribución de intensidad y dificulta el proceso de determinación de los puntos centrales de la línea láser adquirida. De igual forma el cálculo del eje de rotación para la determinación de las transformaciones de los sistemas coordenados de las cámaras 2, 3 y 4 hacia el sistema coordenado de la cámara 1 son afectadas por el ruido electrónico de adquisición de imágenes y su influencia en el cálculo de las coordenadas en pixeles de los puntos de control. Esto afecta directamente el grado de empalme entre las diferentes reconstrucciones realizadas pos cada cámara.

    Tradicionalmente en vez de hacer un análisis del error detallado de cada componente y su propagación a la imagen final, se realiza un análisis de error metrológico sobre la reconstrucción 3D de un objeto de dimensiones conocidas y se compara el valor calculado con el valor esperado. Para hacer el análisis de error de los objetos reconstruidos, se tomaron las medidas físicas del objeto a reconstruir, luego se reconstruyó la figura esperada en forma digital y se compararon sus diferencias. Se tomaron en consideración para el análisis de error los objetos cuyo contorno son un círculo, un rectángulo y un hexágono de dimensiones conocidas, los datos obtenidos y graficados se pueden observar en la Figura 18. Las medidas de las figuras se calcularon con un calibrador, fueron:

    1. Objeto con contorno circular:
    2. Diámetro: 1.190±0.05 mm.
    3. Objeto con contorno rectangular:
    4. Lados: 1.845±0.05 mm X 1.530±0.05 mm.
    5. Objeto con contorno hexagonal (hexágono regular):
    6. Lado: 0.510±0.05 mm.

    Debido a la simetría axial, el análisis de error se realizó determinando el error en dirección axial y el error en dirección transversal. Para la determinación del error axial de los datos de las figuras reconstruidas en tres dimensiones, primero se encuentra el plano que aproxima mejor los datos en el espacio, y luego se proyectan los puntos en el plano hallado. La Figura 20 muestra en rojo los datos 3D encontrados de la sección de un objeto con contorno circular, ampliada en dirección X, (ver escalas en la Figura 20). En azul se definen las proyecciones de los puntos 3D encontrados sobre el plano que mejor aproxima en términos de mínimos cuadrados a los datos.

    Se determina el error axial de cada punto como la distancia 3D del punto al plano interpolado. Se obtiene una nube de datos de error mostrada en la Figura 21 para los datos reportados en la Figura 20, se determina la desviación estándar de los errores axiales encontrados.

    El error transversal se calcula usando las coordenadas de los datos proyectados sobre el plano interpolado y las dimensiones medidas con el calibrador del objeto. Este análisis es bidimensional y se ajusta el contorno esperado del objeto en términos de mínimos cuadrados. Las Figuras 22, 23 y 24 muestran las interpolaciones de los datos 2D obtenidos para los objetos patrones reconstruidos. Las distancias medidas desde el punto 2D al contorno interpolado define el error transversal para cada punto. La Figura 25 muestra las distancias transversales para los datos 3D reportados.

    Haciendo el mismo proceso para cada uno de los contornos se calcularon los errores totales, reportados en la Tabla 2.

    El error total es la raíz cuadrada de la suma de los cuadrados del error axial y el error transversal. El máximo valor de error encontrado en la reconstrucción se comete en el objeto con contorno hexagonal, lo que se esperaba ya que es la figura más pequeña a reconstruir y por lo tanto es más sensible a errores, sin embargo el valor de error es muy pequeño, siendo aproximadamente 100 μm. Es decir el sistema puede medir un contorno en un campo transversal de 22 mm con un error máximo del orden de 100 micras, obteniéndose mejores resultados que el método clásico de proyección por sombras, que mide el diámetro del orden de 22 mm con 150 micras de error.

    Para evaluar la eficiencia del sistema para detectar pequeños cambios en el contorno, se tomaron imágenes del objeto de contorno circular con una, dos y tres cintas adheridas y superpuestas en parte de su superficie. La Figura 26 muestra las reconstrucciones 3D del perfil del objeto circular, la región roja corresponde al contorno circular y la región azul a la reconstrucción de la cita adherida a la superficie. De izquierda a derecha en la región azul hay superpuesta una, dos y tres pedazos de cinta de igual espesor.

    Los datos de reconstrucción que no corresponden a la cinta, es decir los datos graficados en rojo en la Figura 26, se comparan con un contorno circular interpolado a los datos medidos. Con el contorno circular interpolado se puede establecer el error de la reconstrucción 3D de las cintas y se halla un valor promedio de la diferencia entre el círculo ideal y los datos que representan la(s) cinta(s), para establecer el grosor de ella(s).

    La Figura 27, muestra los datos encontrados y el contorno circular interpolado empleando los datos de las regiones rojas, mientras que la Figura 28, muestra los datos correspondientes a la cinta, es decir los datos de las regiones azules. La Tabla 3 muestra el análisis de error encontrado. Se puede observar en los valores del grosor aproximado de las cintas, que es detectable el cambio de una pequeña porción en el contorno, el cual se puede visualizar en la reconstrucción vista en la Figura 28. Es decir el sistema implementado es capaz fácilmente de medir una alteración del contorno del objeto del orden de 230 micras, lo cual es razonable ya que el error total encontrado en el análisis anterior es del orden de 100 micras.

    7. CONCLUSIONES

    Se implementó un procedimiento para la reconstrucción tridimensional del contorno de un objeto con simetría axial, a partir del método de triangulación láser en un sistema con cuatro cámaras a 90°, cubriendo los 360° del contorno, con errores total del orden de los 100 μm para un campo de exploración de 22x22 mm. La presencia de cambios en el contorno del orden de 230 micras es fácilmente detectable y medible por el sistema.

    El método experimental de calibración del láser que da como resultado la altura de los puntos en el espacio a partir de imágenes bidimensionales disminuye la dificultad de calcularlas a partir de ecuaciones, dando como resultado la descripción de un método sencillo, apropiado y eficaz para próximas investigaciones. En el proceso de reconstrucción tridimensional se recurre a la calibración de las cámaras, para hallar los parámetros extrínsecos e intrínsecos del sistema, así como la calibración experimental de la línea láser, permite disminuir las aberraciones y establecer la conversión de pixeles de las imágenes a milímetros. Es importante destacar que se emplearon cámaras de bajo costo para servicio de video en Internet, las cuales tienen una fuerte aberración geométrica, sin embargo, se pueden reemplazar por cámaras CCD USB de mejor rendimiento y con lentes de mejor calidad óptica. Se realizó un proceso original de empalme de la reconstrucción tridimensional de las cuatro cámaras, por medio de la unificación de sistemas coordenados

    BIBLIOGRAFíA

    [1] R. Gonzales, R. Woods, S. Eddins. Digital Image Processing Using MATLAB, Gatesmark Publishing®. Second Edition.
    [2] R. Gonzales, R. Woods. Digital Image Processing, Prentice Hall, Second Edition.
    [3] J. J. Esqueda Elizondo. Fundamentos de Procesamiento de Imágenes. Documentación Universidad Autónoma de Baja California, Unidad Tijuana (2002).
    [4] Vélez, Belén y Sánchez. Visión por computador, 2da Edición, Documento digital disponible en: http://www.terra.es/personal/jfvelez/libro2/libro. html [Fecha de Consulta: 12 de Enero de 2012].
    [5] Z. Pérez, L. Romero. Sistema óptico de reconstrucción tridimensional para la detección de ampollas en recubrimientos. Tesis de grado. Universidad Industrial de Santander (2004).
    [6] J. A. Arzuza. Reconstrucción volumétrica y visualización 3D de estructuras anatómicas a partir de imágenes médicas de tomografía. Tesis de maestría. Universidad Industrial de Santander (2006).
    [7] G. Pajares. J. Cruz Garcá. Visión por Computador: Imágenes digitales y aplicaciones. Ra-Mi, Librería y Editorial Microinformática, Primera Edición.
    [8] E. Hecht, A. Zajac. óptica. Editorial Pearson, Addison-Wesley, Tercera Edición.
    [9] C. R. Contreras Pico. Dispositivo óptico de medida 3-D con simetría cilíndrica: Aplicaciones en balística. Tesis de grado. Universidad Industrial de Santander (2006).
    [10] A. Muñoz Potosi. Diseño e implementación de un dispositivo de explotación tridimensional del pie humano. Tesis de grado. Universidad del Cauca (2009).
    [11] M. Costa. Surface inspection by an optical triangulation method. Opt. Eng, Vol. 35 (9), 1996.
    [12] J. C. Ramírez Rojas. Reconstrucción tridimensional de la sección transversal de perfiles extruidos utilizando triangulación láser. Tesis de maestría. Universidad Industrial de Santander (2011).
    [13] Jean-Yves Bouguet. Computer Vision Group, California Institute of Technology. Disponible en: http://www.vision.caltech.edu/bouguetj/calib_doc/htmls/eample.html. [Fecha de Consulta: 27 de Marzo de 2012].
    [14] L. A. Romero Pérez. Sistema de Reconstrucción tridimensional para el análisis dinámico de un cuerpo: Estudio cuantitativo del vulcanismo de lodo. Tesis de Maestría. Universidad Industrial de Santander (2006).
    [15] Z. M. Pérez Guzman. Aproximación espaciotemporal para la medida absoluta de la forma 3D de un objeto por proyección de franjas. Tesis de Maestría. Universidad Industrial de Santander (2006).