ES2313036T3 - Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. - Google Patents

Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. Download PDF

Info

Publication number
ES2313036T3
ES2313036T3 ES04745012T ES04745012T ES2313036T3 ES 2313036 T3 ES2313036 T3 ES 2313036T3 ES 04745012 T ES04745012 T ES 04745012T ES 04745012 T ES04745012 T ES 04745012T ES 2313036 T3 ES2313036 T3 ES 2313036T3
Authority
ES
Spain
Prior art keywords
images
image
structured
procedure according
motif
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES04745012T
Other languages
English (en)
Inventor
Dan Albeck
Avner Segev
Tamir Shalom
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hexagon Metrology Israel Ltd
Original Assignee
Cognitens Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cognitens Ltd filed Critical Cognitens Ltd
Application granted granted Critical
Publication of ES2313036T3 publication Critical patent/ES2313036T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/145Illumination specially adapted for pattern recognition, e.g. using gratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Vascular Medicine (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Physical Vapour Deposition (AREA)

Abstract

Un procedimiento para la reconstrucción de la superficie en tres dimensiones de un objeto caracterizado por las etapas de: a) obtener un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre la superficie de aquél, y determinar una correspondencia de puntos de imágenes entre imágenes de dicho primer conjunto de imágenes; b) obtener un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre aquél, y marcar dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes en base a la correspondencia determinada en a); c) hacer coincidir determinados elementos entre imágenes de dicho segundo conjunto de imágenes en base al marcaje determinado en b); y d) determinar las coordenadas espaciales del objeto a partir de los elementos que se han hecho coincidir de dichas imágenes de dicho segundo conjunto de imágenes en b).

Description

Procedimiento y sistema para la reconstrucción de la superficie tridimensional de un objeto.
Campo de la invención
La presente invención se refiere a un sistema y a un procedimiento para la reconstrucción de la superficie tridimensional de un objeto, en particular basada parcialmente al menos en técnicas de iluminación estructurada. La invención se refiere también al marcaje de elementos entre dos imágenes de un objeto o escena.
Antecedentes de la invención
La determinación de una forma tridimensional (3D) de un objeto es de considerable importancia en muchos campos. Por ejemplo, en el campo de la medición dimensional de objetos fabricados, la medición precisa de una pluralidad de dimensiones y / o de las coordenadas de superficie predeterminadas de dichos objetos puede proporcionar una herramienta importante para la determinación de la precisión del procedimiento de fabricación.
Los sistemas y procedimientos para dicha determinación en 3D, particularmente en aplicaciones industriales, han seguido dos líneas principales: la mecánica y la óptica. Los sistemas mecánicos aunque proporcionan datos precisos en 3D de un objeto, se basan en el contacto mecánico entre una sonda y el objeto, y solo miden cada vez un punto de la superficie, lo que da como resultado una velocidad de adquisición de datos muy lenta, y a menudo poco práctica.
Los sistemas ópticos pueden basarse en uno cualquiera entre una pluralidad de metodologías diferentes. En una categoría, se utiliza un sistema de triangulación para la determinación de la localización espacial en 3D para determinados puntos situados sobre el objeto sobre el cual se reflejan unos haces de luz proyectados. En otra categoría, se utilizan con la misma finalidad técnicas de epipolo. En ambos casos, los sistemas de líneas de barrido proyectan una sola línea de luz sobre un objeto, y la reflexión de la línea proyectada es leída por una cámara que está en un determinado ángulo con respecto al eje de proyección del aparato proyector. Esto proporciona un contorno sobre la imagen desde el cual puede ser triangulada la posición de la sección del objeto (donde la línea fue proyectada). En dichos sistemas, la línea de luz es progresivamente barrida sobre el objeto, y de esta manera se determina la forma total en 3D. Sin embargo, este procedimiento se resiente también del defecto de un tiempo de adquisición largo, lo que también introduce errores si hay cualquier movimiento desconocido entre la cámara y el objeto durante este tiempo.
Los sistemas de líneas de barrido mejorados pueden proyectar una pluralidad de líneas de barrido simultáneamente sobre un objeto, y las reflexiones de todas las líneas son captadas por una cámara. Aunque el tiempo de adquisición es rápido es difícil obtener una coincidencia entre las líneas de la imagen tomadas por la cámara y la rejilla de iluminación, porque hay una ambigüedad en cuanto a cuáles líneas de la rejilla de iluminación que se corresponde con una línea reflejada concreta. Esto es particularmente problemático cuando el objeto es en sí mismo complejo y consta de bordes afilados o superficies en pendiente como a menudo es el caso en artículos confeccionados.
Se conocen diversos procedimientos para resolver el problema de la ambigüedad. El estudio "Estrategias de Codificación de Motivos en Sistemas de Luz Estructuradas" ["Pattern Codification Strategies in Structured Light Systems"] de J. Salvi et al (publicado en Abril de 2004) proporciona una panorámica general de dichos procedimientos. En una estrategia de multiplexión de una sola vez descrita en el documento indicado, un procedimiento de codificación temporal conocido como Procedimiento de Código Wray emplea diversas frecuencias espaciales de motivos binarios para iluminar un objeto. Típicamente, en primer lugar se utilizan dos tiras, luminosa y oscura, para iluminar completamente el área de interés sobre el objeto, y la reflexión derivada de él es registrada sobre una imagen. A continuación el objeto es de nuevo iluminado, pero con 4 tiras, dos luminosas y dos oscuras. El procedimiento se repite nuevamente doblando cada vez el número de tiras, iluminando la misma área del objeto, y registrando reflexiones de éste en un conjunto separado de imágenes. Cualquier línea sobre el objeto puede ser relacionada con una tira original concreta a partir del código observado único en esa localización a partir de la escala de los grises que fue previamente utilizada para iluminar el objeto.
Sin embargo, dicho procedimiento requiere múltiples etapas de adquisición de datos, y también presenta el problema de un tiempo de adquisición de datos relativamente grande para obtener la estructura en 3D de un objeto.
También son conocidos determinados procedimientos de base espacial para resolver el problema de la ambigüedad, y algunos son analizados en la referida publicación "Estrategias de Modificación de Motivos en Sistemas de Luz Estructuradas" ["Pattern Codification Strategies in Structured Light Systems"]. Típicamente, una palabra clave que marca un determinado punto de un motivo se obtiene a partir de una vecindad de puntos alrededor de aquél. Dado que la vecindad espacial no puede siempre ser recuperada en la imagen, la etapa de descodificación del procedimiento puede resultar problemática, y pueden producirse errores. También típicamente, el color o intensidad de los píxeles o grupos de píxeles adyacentes son características visuales que pueden agruparse en la vecindad espacial. En un procedimiento de base espacial, un sistema de formación de imágenes en 3D, comercializado por el presente Cesionario bajo el nombre Optigo 200, ilumina un objeto deseado, esto es, un objeto respecto del cual se desea determinar su estructura en 3D, con una rejilla aleatoria de píxeles negros y blancos. Dos o más cámaras situadas en ángulos diferentes con respecto al objeto toman simultáneamente cada una una fotografía del objeto con la rejilla aleatoria superpuesta sobre él, y las imágenes del motivo de rejilla captadas por cada cámara son correlacionadas entre sí. En dichos procedimientos de base espacial, se utiliza un único motivo de codificación espacial para resolver el problema de la ambigüedad, y los procedimientos utilizan entonces la correspondencia de píxeles entre las imágenes así encontradas para encontrar las coordenadas de la superficie del objeto que está siendo investigado.
Como antecedente de interés general, el documento US 6,510,244 se refiere a un procedimiento para imágenes de un objeto en 3D, en el que un motivo de líneas en forma de rejilla es iluminado sobre un objeto, y su forma se adquiere sobre la base de la distancia relativa entre las líneas y / o las intersecciones de las líneas del motivo. También como antecedente de interés, el documento US 6,252,623 se refiere a un procedimiento y a un aparato de formación de imágenes, en el cual el objeto es iluminado con un motivo repetitivo de bandas de diferentes colores para potenciar la precisión de la imagen obtenida mediante la reducción de la diafonía entre las barras coloreadas de la imagen captada.
Sumario de la invención
En la presente memoria, el término "correspondencia" se refiere al cartografiado punto a punto entre imágenes diferentes de un objeto, típicamente a nivel de píxel, por ejemplo, en base a una codificación tipo vecindad.
El término "marcaje" se utiliza en la presente memoria para referirse a la identificación adecuada de motivos como por ejemplo los motivos de líneas unidimensionales o los motivos de tiras unidimensionales entre imágenes diferentes de un objeto.
El término "coincidencia" se refiere al cartografiado de subpíxel a subpíxel entre imágenes diferentes de un objeto.
El término "imagen", además del uso habitual, se utiliza también en la presente memoria para incluir un motivo original que se proyecta sobre un objeto.
En la presente invención, se proporciona una metodología para reconstruir la estructura de superficie en 3D de un objeto. El término "objeto" incluye cualquier objeto de dos o tres dimensiones o un conjunto de objetos incluyendo una escena.
El procedimiento se basa en la obtención de una coincidencia singular de cada punto reflejado sobre un objeto con un motivo de iluminación que utiliza un sistema de dos etapas, siendo posible dicha coincidencia al nivel de subpíxel. En la primera etapa, se obtiene un primer conjunto de imágenes, y se utiliza una técnica de codificación espacial para obtener una cartografiado de correspondencia de coordenadas a partir de una primera imagen hasta una segunda imagen de un objeto. Las técnicas de codificación de vecindad son utilizadas típicamente para la determinación de esta coincidencia. En una forma de realización, una rejilla aleatoria u otra luz estructurada se utiliza para iluminar el objeto y las imágenes son obtenidas en ángulos diferentes con respecto al objeto. En otras formas de realización, las características de superficie del objeto pueden ser suficientes para posibilitar que se lleve a cabo el cartografiado mencionado a partir de las imágenes obtenidas utilizando una luz no estructurada.
En la segunda etapa, se utiliza una segunda iluminación estructurada, que utiliza típicamente una rejilla en tiras, para obtener un segundo conjunto de imágenes, comprendiendo típicamente dos imágenes adicionales del objeto, y el cartografiado obtenido por la primera etapa proporciona un marcaje adecuada de la rejilla entre estas dos imágenes del segundo conjunto. Unos procedimientos de triangulación o de epipolo, o cualquier otro procedimiento apropiado, puede entonces ser utilizado para obtener las coordenadas en 3D de la superficie que está siendo reconstruida.
Así, la presente invención se refiere a un procedimiento para la reconstrucción de la superficie en 3D de un objeto que comprende las etapas de:
a)
la obtención de un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre su superficie, y la determinación de la correspondencia de puntos de imagen entre imágenes de dicho primer conjunto de imágenes;
b)
la obtención de un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre él, y el marcaje de dicho segundo motivo estructurado entre imágenes de dicho conjunto de imágenes en base a la correspondencia determinada en a);
c)
la coincidencia de elementos entre las imágenes de dicho segundo conjunto de imágenes en base al marcaje determinado en b); y
d)
la determinación de las coordenadas espaciales del objeto a partir de los elementos adaptados de dichas imágenes de dicho conjunto de imágenes en b).
Típicamente, la etapa a) comprende las etapas de:
-
obtener de dicho primer conjunto de imágenes de dicho objeto, en la que dicho primer motivo estructurado se define por medio de un motivo estructurado singularmente codificado de luz estructurada utilizada para iluminar el objeto; y
-
encontrar la correspondencia entre los punto de imagen de las imágenes de dicho primer conjunto de imágenes mediante el cartografiado de las coordenadas de una imagen sobre al menos otra imagen en base a la codificación relacionada con el primer motivo estructurado.
\vskip1.000000\baselineskip
El primer conjunto de imágenes típicamente comprende dos imágenes en diferentes ángulos con respecto a dicho objeto. En una primera forma de realización de la invención, las dos imágenes son captadas como imágenes sustancialmente de forma simultánea, ya sea utilizando dos cámaras, o una sola cámara que se desplaza entre dos posiciones con respecto al objeto. En una segunda forma de realización, una imagen de dicho primer conjunto de imágenes comprende dicho motivo estructurado especialmente codificado y al menos otra imagen de dicho primer conjunto de imágenes es captada como imagen, y por tanto solo es necesaria una única cámara fija.
Típicamente, el motivo estructurado especialmente codificado comprende un código de grises aleatorio o pseudoaleatorio de dos dimensiones, esto es, una formación de dos dimensiones con una distribución aleatoria o pseudoaleatoria de elementos de blanco y negro. Puede utilizarse una técnica de coincidencia de motivos para encontrar la correspondencia de puntos de imagen en la etapa a).
Típicamente, el segundo motivo estructurado comprende un motivo estructurado periódico iluminado sobre el objeto. El segundo conjunto de imágenes típicamente comprende dos imágenes en ángulos diferentes con respecto a dicho objeto. En una primera forma de realización de la invención, las dos imágenes son captadas como imágenes, ya sea utilizando dos cámaras, típicamente de forma simultánea, o una sola cámara que es desplazada entre dos posiciones con respecto al objeto. En una segunda forma de realización, una imagen de dicho primer conjunto de imágenes comprende dicho motivo estructurado especialmente codificado y al menos otra imagen de dicho primer conjunto de imágenes es captada como imagen, y por tanto solo es necesaria una cámara fija única.
Así, la segunda forma de realización genéricamente requiere un preconocimiento del motivo que es proyectado sobre el objeto, y esto requiere la calibración del proyector además de la calibración de las cámaras. En la primera forma de realización, solo se requiere la calibración de las cámaras.
La relación entre el primer conjunto de imágenes y el objeto es sustancialmente similar a la relación entre el segundo conjunto de imágenes y el objeto, aunque en general son aceptables pequeñas variaciones.
El motivo periódico típicamente comprende una primera pluralidad de tiras de una primera intensidad o color intercalada con respecto a una segunda pluralidad de tiras de una segunda intensidad o color. En un ejemplo, la primera pluralidad de tiras comprende píxeles blancos y dicha segunda pluralidad de tiras comprende píxeles negros.
En particular, en la segunda etapa del procedimiento pueden llevarse a cabo las siguientes etapas:
un primer elemento en una primera imagen de dicho segundo conjunto de imágenes está asociado de acuerdo con una primera técnica de asociación con un primer punto de imagen de una primera imagen de dicho primer conjunto de imágenes;
se determina un segundo punto de imagen de una segunda imagen de dicho primer conjunto de imágenes que tiene correspondencia con dicho primer punto de imagen; y
dicho segundo punto de imagen está asociado con al menos un segundo elemento de una segunda imagen de dicho segundo conjunto de imágenes de acuerdo con una segunda técnica de asociación, en el que dicho al menos un segundo elemento coincide con dicho primer elemento.
\vskip1.000000\baselineskip
De acuerdo con dicha primera técnica de asociación, dicho primer elemento es un elemento de imagen dentro de un emplazamiento espacial que es sustancialmente el mismo que dicho primer punto de imagen con respecto a sus imágenes respectivas.
De acuerdo con dicha segunda técnica de asociación, dicho al menos un segundo elemento es un elemento de imagen dentro de un emplazamiento espacial con respecto a su imagen que está en o en íntima proximidad con el emplazamiento de dicho segundo punto de imagen con respecto a su imagen.
El primer elemento típicamente comprende el punto central de una fila de píxeles de una tira de la primera pluralidad de tiras comprendida en la primera imagen del segundo conjunto de imágenes.
El segundo elemento típicamente comprende el punto central de una fila de píxeles de una tira de la primera pluralidad de tiras comprendida en la segunda imagen de dicho segundo conjunto de imágenes.
La etapa d) puede basarse en técnicas de triangulación, o en técnicas de reconstrucción epipolar, o en cualquier otra técnica apropiada.
\newpage
La presente invención se refiere también a un procedimiento para hacer coincidir puntos entre imágenes de un primer conjunto de imágenes de un objeto y comprende las etapas de:
a)
obtener dicho primer conjunto de imágenes del objeto que tiene sobre él un primer motivo estructurado;
b)
obtener un segundo conjunto de imágenes del objeto que tiene un segundo motivo estructurado sobre su superficie, y determinar la correspondencia de los puntos de imagen entre imágenes de dicho segundo conjunto de imágenes;
c)
marcar los elementos de dicho primer motivo estructurado entre imágenes de dicho primer conjunto de imágenes en base a la correspondencia determinada en b);
d)
hacer coincidir los puntos comprendidos entre los elementos existentes entre los elementos marcados en c).
La presente invención se refiere también a un sistema para la reconstrucción de la superficie en tres dimensiones de un objeto y que comprende:
i)
un proyector adaptado para iluminar selectivamente dicho objeto con un primer motivo estructurado y un segundo motivo estructurado;
ii)
al menos una cámara para obtener imágenes de dicho objeto cuando es iluminado con dicho primer motivo estructurado y un segundo motivo estructurado;
iii)
un medio de microprocesador para determinar la topología de la superficie en tres dimensiones de dicho objeto en base a dichas imágenes.
El medio de microprocesador, típicamente una computadora, está adaptado para determinar dicha tipología de acuerdo con el procedimiento de la invención.
El procedimiento de la invención puede incorporarse en un medio legible por computadora para dar instrucciones a una computadora apropiada para ejecutar el procedimiento.
La presente invención se refiere también a una unidad de control para su uso en la reconstrucción de la superficie en tres dimensiones de un objeto, estando la unidad de control preprogramada para llevar a cabo
i)
el procesamiento de los datos indicativos de un primer conjunto de imágenes del objeto que tiene un primer motivo estructurado sobre su superficie, y la determinación de la correspondencia de los puntos de imagen entre las imágenes de dicho primer conjunto de imágenes,
ii)
la utilización de dicha correspondencia para el procesamiento de un segundo conjunto de imágenes del objeto que tiene sobre él un segundo motivo estructurado para cartografiar elementos de dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes;
iii)
el análisis de los elementos que se ha hecho coincidir para determinar las coordenadas espaciales del objeto.
Así, la presente invención se aplica a un procedimiento de correspondencia para proporcionar un marcaje correcto de línea a línea proporcionando un marcaje rápido y correcto, y utilizando únicamente dos conjuntos de imágenes del objeto, y esto puede proporcionar una reconstrucción precisa en 3D de una superficie. En particular, la primera etapa del procedimiento proporciona un medio efectivo de correspondencia, en una sola etapa de adquisición de datos, y esta correspondencia puede entonces utilizarse para llevar a cabo el marcaje de línea a línea, posibilitando que se lleve a cabo la reconstrucción en 3D con un nivel de precisión de subpíxel.
Breve descripción de los dibujos
Con el fin de comprender la invención y apreciar cómo puede llevarse a la práctica, a continuación se describirá una forma de realización preferente a modo solo de ejemplo no limitativo, con referencia a los dibujos que se acompañan, en los cuales:
La Fig. 1 es una ilustración esquemática del procedimiento de acuerdo con una forma de realización de la invención.
La Fig. 2 es una ilustración esquemática de los elementos de una primera forma de realización del sistema de la invención.
La Fig. 3 ilustra un motivo de píxeles aleatorio o cuasi aleatorio utilizado con la forma de realización de la Fig. 2 o de la Fig. 10.
La Fig. 4 ilustra unas imágenes obtenidas con el sistema de la Fig. 2 cuando el objeto está iluminado con el motivo de la Fig. 3.
La Fig. 5 ilustra un motivo de líneas utilizado con la forma de realización de la Fig. 2 o de la Fig. 10.
La Fig. 6 ilustra unas imágenes obtenidas con el sistema de la Fig. 2 cuando el objeto está iluminado con el motivo de la Fig. 5.
La Fig. 7 ilustra un procedimiento para obtener las coordenadas de un punto de un objeto utilizando imágenes obtenidas con el sistema de la Fig. 2 cuando el objeto está iluminado con el motivo de la Fig. 5.
La Fig. 8 ilustra un procedimiento de triangulación para obtener las coordenadas de un punto sobre un objeto utilizando imágenes obtenidas con el sistema de la Fig. 2 cuando el objeto está iluminado con el motivo de la Fig. 5.
La Fig. 9 ilustra un procedimiento basado en epipolo para obtener las coordenadas de un punto sobre un objeto utilizando las imágenes obtenidas con el sistema de la Fig. 2 cuando el objeto está iluminado con el motivo de la
Fig. 5.
La Fig. 10 es una ilustración esquemática de los elementos de una segunda forma de realización del sistema de la invención.
La Fig. 11a y la Fig. 11b ilustran un motivo de píxeles aleatorio o cuasi aletatorio proyectado, y la imagen recibida, respectivamente, por el proyector y la cámara por la forma de realización de la Fig. 10.
La Fig. 12a y la Fig. 12b ilustran el motivo de líneas proyectado, y la imagen recibida, respectivamente, por el proyector y la cámara de la forma de realización de la Fig. 10.
\vskip1.000000\baselineskip
Descripción detallada de la invención
En la Fig. 1 se ilustra una forma de realización del procedimiento de la invención, designada genéricamente con la referencia numeral 100. En una primera etapa, Etapa I, del procedimiento, y también con referencia a las Figs. 2, 3 y 4, un objeto O está iluminado con una iluminación estructurada, de forma que puede concentrarse una codificación singular (motivo luminoso) en una sola iluminación. Como se ilustra esquemáticamente en la Fig. 3, dicha iluminación estructurada típicamente comprende una codificación espacial en forma de un motivo de píxeles aleatorio o cuasi aleatorio, A, de forma que preferentemente cada matriz de [nxm] píxeles del motivo es singular. En esta forma de realización el motivo de píxeles A es esencialmente una escala de grises en dos dimensiones en el que los píxeles están coloreados en blanco o en negro. La distribución de los píxeles en blanco o en negro puede ser aleatoria. Como una alternativa, la distribución puede ser "cuasi aleatoria" esto es, específicamente diseñada para que para cualquier matriz de [n por m] píxeles dentro de la rejilla (motivo), haya una permutación singular de píxeles en blanco y negro que no se encuentre en ninguna otra parte en la rejilla A. En la práctica, genéricamente es suficiente proporcionar una singularidad local, mejor que una singularidad global para la rejilla A, de forma que determinas partes del motivo dentro de la rejilla pueden de hecho repetirse dentro de la rejilla, pero a cierta distancia entre sí.
En la etapa 110, las imágenes del objeto O están dispuestas mediante la captación simultánea de dos imágenes del objeto O, esto es I_{1} e I_{2}, respectivamente, con el motivo A superpuesto sobre el objeto, según se ilustra de forma esquemática en la Fig. 4.
En la etapa 120, estas imágenes pueden a continuación se procesadas para identificar cada parte de la imagen I_{2}, como correspondiente a una parte de la imagen I_{1}, de acuerdo con la distribución singular de los píxeles en blanco y negro, de acuerdo con lo descrito más adelante en la presente memoria. Cualquier procedimiento de descodificación de reconocimiento de motivos o de coincidencia de motivos apropiado puede utilizarse con este fin. Cuando se observa superpuesto sobre el objeto, el motivo A aparecerá distorsinado de acuerdo con la topografía del objeto O, y así mismo el tipo y extensión de esta "distorsión" generalmente variará con el ángulo de visión con respecto al objeto O. Cada imagen I_{1}, I_{2}, comprenderá un motivo, A_{1}, A_{2}, los cuales aparecerán distorsinados con respecto al motivo original A, y en general diferente una de otra, dado que, como es sabido, la proyección de una entidad en 3D como puede ser una curva, por ejemplo, en planos en 2D produce dos curvas diferentes en estos planos.
La primera imagen I_{1} puede considerarse como una imagen codificada del objeto O, y consiste en una pluralidad de píxeles en blanco y negro dentro de una matriz rectangular global, y esta matriz se divide en todas las posibles matrices locales [nxm], las cuales pueden de estar forma superponerse algunas veces entre sí hasta cierto punto, de forma que a cada píxel de la primera imagen I_{1} se le pueda asignar una matriz [nxm] centrada sobre él. Por supuesto, los píxeles de los bordes y las esquinas de la imagen pueden tener solo una parte de dicha matriz asociada con ellos, y el procedimiento siguiente puede aplicarse a dichas matrices, mutatis mutandis. Por ejemplo, dichas matrices [nxm] son [5 x 5] matrices, aunque el tamaño y la relación entre dimensiones de las matrices puede variar dependiendo del tamaño y de otras características de la imagen I1.
Un procedimiento de "descodificación" ejemplar con respecto a la segunda imagen se ejecuta como sigue, y se basa en técnicas de codificación de vecindad. Tomando como ejemplo la matriz M_{1} en la imagen I_{1}, por ejemplo como una matriz [5 x 5] centrada sobre un píxel con unas coordenadas (x_{1}, y_{1}) en la imagen I_{1}, se dirige una búsqueda en la otra imagen, I_{2}, para encontrar el emplazamiento de una matriz similar dentro de la cual su motivo de píxeles en blanco y negro se correlacione del mejor modo con el motivo de píxeles de la matriz M_{1}. Cuando esta matriz, M_{2}, se encuentra, las coordenadas de su centro, (x_{2}, y_{2}) son anotadas. Estas coordenadas centrales pueden referirse a un píxel o, como una alternativa, pueden emplearse determinados procedimientos apropiados para proporcionar un nivel de precisión de subpíxel para estas coordenadas. Esta operación se repite para cada píxel (y así para cada matriz posible [nxm] de píxeles) en la imagen I_{1}, cartografiando de manera efectiva con ello las coordenadas de los centros de pixeles en la imagen I_{1} con respecto a los de la imagen I_{2}. De esta manera, cada parte de la imagen I_{1} puede cartografiarse de manera efectiva con respecto a la imagen I_{2}.
Cuando la rejilla A comprenda solo una singularidad local y por tanto haya una repetición del motivo dentro de la rejilla, es posible no obstante encontrar la correspondencia entre las dos imágenes y por tanto cartografiar cada matriz desde la imagen I_{2} hasta la imagen I_{2}. Esto puede llevarse a cabo, por ejemplo, mediante la asociación de cada matriz en I_{1}, digamos, por ejemplo, M_{1}, con una pluralidad de otras matrices M_{1n} que estén situadas en íntima proximidad a, esto es, en la vecindad de, M_{1}. Si hay una pluralidad de matrices M_{2}' en la segunda imagen M_{2} que se correlacione con M_{1}, entonces la matriz concreta de las matrices M_{2}' que tenga en su vecindad las matrices M_{2n} que estén correlacionadas con dichas referidas matrices M_{1n} se escoge como la matriz correspondiente a M_{1}.
Como una alternativa, mejor que utilizar una rejilla aleatoria en una escala de grises, es posible utilizar en su lugar una rejilla aleatoria en base a una escala de colores, por ejemplo de acuerdo con lo descrito en la referencia anteriormente mencionada "Estrategias de Codificación de Motivos en Sistemas de Luz Estructuradas" ["Pattern Codification Strategies in Structured Light Systems"], cuyo contenido se incorpora en su totalidad en la presente memoria.
En la etapa 130 de la etapa II del procedimiento, y con referencia a la Fig. 5, un segundo motivo estructurado, se proyecta sobre el objeto O y se toman dos imágenes adicionales, comprendiendo las imágenes K_{1}, K_{2}, como se ilustra en la Fig. 6. El segundo motivo estructurado es ahora un motivo periódico, típicamente un motivo de iluminación B en tiras constituido por una formación de tiras separadas, esto es, comprendiendo sustancialmente tiras paralelas de píxeles blancos separados por tiras de píxeles negros. Como una alternativa, el motivo B puede estar compuesto por cualquier combinación deseada de colores.
En la etapa 140, cada parte de cada una de las tiras o líneas L_{1}, L_{2}, ... L_{n} en una imagen o imagen K_{1} puede ser identificada y marcada como correspondiente con un número de línea concreto L_{1}', L_{2}' ... L_{n}' en la otra imagen o imagen K_{2}, por ejemplo, como sigue.
Con referencia a la Fig. 7, y tomando una línea L_{3} en la imagen K_{1}, por ejemplo, sus puntos centrales q_{n} se encuentran para cada píxel o conjunto de píxeles a lo largo de la extensión de la línea L_{3}, y hay diversos procedimientos conocidos para encontrar con exactitud los puntos centrales, por ejemplo el procedimiento del cruce de curvas en punto cero para un punto central de este tipo, q_{0}, correspondiente al píxel n_{0} sus coordenadas se determinan, digamos, (x_{1}', y_{1}'). A continuación estas coordenadas son cartografiadas en una imagen K_{2} de acuerdo con la correspondencia anteriormente obtenida con la iluminación estructurada en la Etapa I, esto es, con el emplazamiento q_{r} (x_{2}', y_{2}'). A continuación, en la etapa de marcaje, la imagen K_{2} se busca en la vecindad de (x_{2}', y_{2}') para encontrar el segmento de línea L_{i}' de una cualquiera de las líneas L_{1}', L_{2}' ... L_{n}' que sea máx próxima a (X_{2}', y_{2}') en la Fig. 7 identificada como L_{3}'.
A continuación, se hacen coincidir los elementos entre las imágenes K_{1} y K_{2}. En primer lugar, son identificados los píxeles o conjunto de píxeles Q_{1}, Q_{3} a lo largo de L3' que tienen los centros q_{1y} y q_{3} más próximos (x_{2}', y_{2}'). Las coordenadas en K_{2} correspondientes a las coordenadas más próximas de q_{0}, (x_{1}', y_{1}') de K_{1}, de acuerdo con la fase II, se consideran que están en alguna parte entre estos centros q_{1}, q_{3}.
En la etapa 150, las coordenadas (X_{1}, Y_{1}) del objeto O correspondientes a (x_{1}', y_{1}') son entonces obtenidas como sigue. Un rayo espacial P_{1} se define por el punto q_{0} (x_{1}', y_{1}') y el centro de proyección CP_{1} de la imagen K_{1}. A continuación, se define un plano S por los puntos q_{1}, q_{3} y el centro de proyección CP_{2} de la imagen K_{2}. El punto de intersección D del rayo P_{1} con el plano S proporciona las coordenadas (X_{1}, Y_{1}) del objeto O o su estrecha estimación.
Como alternativa, y como se ilustra en la Fig. 8, las coordenadas (X_{1}, Y_{1}) del objeto O correspondientes a (x_{1}', y_{1}') se obtienen como sigue. Un rayo espacial P_{1} se define por el punto (x_{1}', y_{1}') y el centro de proyección CP_{1} de la imagen K_{1}. A continuación la imagen K_{2} es interpolada para proporcionar las coordenadas del punto central q_{5} de la línea L_{3}' que tiene la misma coordenada y_{2}' que el punto cartografiado q_{r} (x_{2}', y_{2}'). El punto q_{5} se considera que se hace coincidir con el punto q_{0}. A continuación, un rayo espacial P_{2} se define por el punto q5 y el centro de proyección CP_{2} de la imagen K_{2}. A continuación pueden utilizarse procedimientos de triangulación para encontrar la intersección D' de los rayos P_{1}, P_{2}, o al menos el punto de distancia mínima entre P_{1} y P_{2}, y ello proporciona las coordenadas del punto (X_{1}, Y_{1}) o su estimación próxima.
Como otra alternativa, y como se ilustra en la Fig. 9, puede utilizarse un procedimiento a base de reconstrucción de epipolo para obtener las coordenadas del punto D'' (X_{1}, Y_{1}) del objeto O correspondiente a q_{0} (x_{1}', y_{1}'). Primeramente, las coordenadas de q_{0} (x_{1}', y_{1}') son cartografiadas sobre el punto q_{r} (x_{2}', y_{2}') sobre la imagen K_{2} de acuerdo con la correspondencia anteriormente obtenida con la iluminación estructurada en la Etapa I. A continuación, como antes, se busca la imagen K_{2} en la vecindad de (x_{2}', y_{2}') para encontrar el segmento de línea L_{i}' de cualquiera de las líneas L_{1}', L_{2}', .... L_{n}' que sea más próximo a (x_{2}', y_{2}'), esto es, L_{3}'. Un rayo espacial P_{1} se define por el punto q_{0} y el centro de proyección CP_{1} de la imagen K_{1}, y por tanto pasa a través del punto D''. Una línea epipolar EPL conecta CP_{1} con el centro de proyección CP_{2} de la imagen K_{2}, y las imágenes K_{1} y K_{2} en los epipolos EP_{1} y EP_{2}, respectivamente. La proyección del punto D'' sobre la imagen K_{2} es constreñida para situarse sobre la línea epipolar PP, la cual pasa a través de EP_{2}, y la relación entre D'' y PP se describe por la correspondiente matriz Fundamental, como es conocido en la técnica. A continuación, el locus de los puntos centrales LCP de L_{3}', encontrado utilizando cualquier procedimiento apropiado, como por ejemplo el procedimiento de cruce de curvas en punto cero, es entrecruzado por la línea epipolar EE para proporcionar la coordenadas del punto central q_{5}' correspondiente a q_{0}. El punto q_{5}' se considera que coincide con el punto q_{0}. A continuación pueden utilizarse procedimientos epipolares para determinar las coordenadas del punto D, (X_{1}, Y_{1}).
Opcionalmente, la primera etapa del procedimiento puede llevarse a cabo sin la necesidad de una rejilla A si el objeto O comprende un motivo de superficie apropiado estructurado, utilizando luz no estructurada. En este caso, solo es necesario obtener dos imágenes del objeto y cartografiar las coordenadas de una imagen sobre la otra imagen por medio de técnicas de coincidencia de motivos apropiadas sobre la base de la singularidad local de este motivo de superficie.
Con referencia a la Fig. 2, el procedimiento de la invención de acuerdo con esta forma de realización puede llevarse a cabo utilizando un sistema 200. El sistema 200 proporciona la iluminación requerida para la Etapa I y Etapa II utilizando un proyector P, y al menos dos imágenes se obtienen con dos cámaras C_{1} y C_{2}, en ángulos diferentes con respecto al objeto O. Típicamente estas imágenes se toman sustancialmente de forma simultánea. Como alternativa puede utilizarse una sola cámara que se desplace entre al menos dos posiciones en ángulos diferentes para proporcionar las dos imágenes. Un medio de microprocesador (no mostrado) como por ejemplo una computadora apropiada procesa las imágenes obtenidas por las cámaras C_{1} y C_{2}, típicamente por medio de un capturador de imágenes, de acuerdo con el procedimiento de la invención.
Hay muchas formas de iluminar el objeto, por ejemplo, puede utilizarse un cuerpo fotoemisor que incorpore una máscara, posibilitando selectivamente la máscara que o bien el motivo A o el motivo B sean iluminados sobre el objeto. La mascara puede ser una denominada máscara "pasiva", por ejemplo dos máscaras que definan unos motivos fijos A y B, respectivamente susceptibles de emplazamiento de forma selectiva sobre la trayectoria óptica de luz generada por el cuerpo fotoemisor. Dicha máscara pasiva puede consistir en un disco rotatorio, una de cuyas mitades comprenda el motivo A y la otra mitad el motivo B, y el disco es rotado en un ángulo de 180º para situar la mitad requerida en alineación con el cuerpo emisor.
Como alternativa, la máscara puede ser una máscara denominada "activa", consistente en un fotomodulador espacial (SLM) operativamente conectado a un módulo de control, y bajo el control de este último, el SLM proporciona el motivo A o el motivo B requeridos.
Como alternativa, el cuerpo fotoemisor mismo puede estar configurado para generar luz estructurada. Esto puede llevarse a cabo utilizando una matriz de elementos fotoemisores. Dicha matriz puede diseñarse de acuerdo con un motivo fijo A o B, o puede configurarse como un modulador fotoemisor apropiado, operativamente conectado a un módulo de control, para iluminar de forma selectiva el objeto con el motivo A o el motivo B.
Como alternativa, puede utilizarse una disposición de mancha por láser para proporcionar el motivo aleatorio.
En otras formas de realización, pueden utilizarse más de dos cámaras cada una de las cuales capte una imagen del objeto iluminado con el motivo aleatorio A, y cada una de las imágenes se correlaciona con las otras imágenes de forma similar a la anteriormente descrita, mutatis mutandis.
La relación espacial entre las cámaras C_{1}, C_{2}, el proyector P y el objeto O preferentemente no se modifica de manera sustancial desde el momento que el primero y el segundo conjunto de imágenes fueron adquiridas, y por tanto típicamente, los conjuntos de imágenes I_{1}, I_{2}, y K_{1}, K_{2}, son tomados en una sucesión muy rápida. No obstante, es posible que se produzca algún movimiento relativo sin que afecte a la precisión, típicamente cuando dicho movimiento es inferior a la mitad de la distancia entre las líneas del motivo de iluminación B con tiras.
Una segunda forma de realización de la invención se ilustra en la Fig. 10 y comprende todos los elementos de la primera forma de realización con las siguientes diferencias, mutatis mutandis.
En la segunda forma de realización, el segundo conjunto de imágenes comprende el mismo motivo estructurado singularmente codificado que se utiliza para iluminar el objeto. Así, el objeto O es iluminado con una iluminación estructurada, en la Etapa I, comprendiendo un motivo de píxeles aleatorio o cuasi aleatorio, por ejemplo el motivo O (Fig. 11a), de forma que preferentemente cada matriz de [nxm] píxeles del motivo es singular. Sin embargo, solo una imagen es captada por una cámara o elemento similar, proporcionando una imagen I_{3} del objeto O, con el motivo superpuesto sobre el objeto, como se ilustra en la Fig. 11b, siendo la otra "imagen" de este conjunto el motivo A mismo (Fig. 11a). Como en la primera forma de realización, el motivo A aparecerá distorsionado visto superpuesto sobre el objeto, con respecto al motivo original A. En esta forma de realización, más que encontrar la correspondencia entre dos imágenes tomadas por diferentes cámaras, la imagen I_{3} es correlacionada con el motivo original A. De forma similar a la primera forma de realización, sin embargo, el motivo A se divide en todas las posibles [nxm] matrices, las cuales pueden por consiguiente superponerse algunas veces unas sobre otras hasta cierto punto, y se intenta cartografiar cada píxel del motivo A sobre un emplazamiento correspondiente en I_{3}. Típicamente, dichas [nxm] matrices son [5 x 5] matrices, aunque el tamaño y la relación entre dimensiones de la matriz pueden variar dependiendo del tamaño y de otras características de la imagen I_{3}.
Así, de manera similar a la descrita para la primera forma de realización mutatis mutandis, la imagen I_{3} es descodificada de modo efectivo para proporcionar la correspondencia entre las coordenadas digamos, los puntos nodales de la rejilla A y de la imagen I_{3}.
En la Etapa II, una iluminación estructurada periódica como por ejemplo un motivo de iluminación B en tiras (Fig. 12a), por ejemplo, se proyecta sobre el objeto O, y es tomada una imagen K_{3}, como se ilustra en la Fig. 12b. Aquí, el segundo conjunto de imágenes comprende el segundo motivo B, y una imagen es tomada de B superpuesta sobre el objeto O. Cada parte de cada una de las tiras o líneas del motivo original B puede ser identificada como correspondiente a un número de líneas concreto en la otra imagen K_{3}, y cada punto central de cada dicha parte puede hacerse coincidir con una parte correspondiente en una línea en K_{3} que ha sido marcada con respecto a la parte de la línea del motivo original B, para proporcionar las coordenadas del objeto, de manera similar a la descrita para la primera forma de realización con respecto a las imágenes K_{1}, K_{2}, mutatis mutandis.
De acuerdo con esta forma de realización, el procedimiento de la invención puede llevarse a cabo utilizando un sistema 200', el cual proporciona la iluminación requerida para la etapa I y la etapa II, utilizando un proyector P, y comprende una cámara C, alineada en un ángulo diferente con respecto al objeto O respecto del proyector P. Un medio de microprocesador (no mostrado) como por ejemplo cualquier computadora apropiada procesa las imágenes obtenidas por la cámara C típicamente por medio de un captador de imágenes, junto con los motivos A y B, de acuerdo con el procedimiento de la invención.
La relación espacial entre la cámara C y el proyector P y el objeto O preferentemente no resulta modificada de forma sustancial desde el momento en que las imágenes I_{3} y K_{3} fueron obtenidas, y por tanto, típicamente, las imágenes I_{3} y K_{3} son tomadas en sucesión muy rápida. No obstante, es posible que algún movimiento relativo se produzca sin afectar a la precisión, típicamente cuando dicho movimiento es inferior a la distancia entre las líneas del motivo de iluminación B en tiras.
En las reivindicaciones del procedimiento que siguen, los caracteres y numerales romanos utilizados para designar las etapas de las reivindicaciones se ofrecen solo por motivos de comodidad y no implican ningún orden en particular para llevar a cabo las etapas.
Finalmente, debe destacarse que la expresión "que comprende(n)" tal como se utiliza a lo largo de las reivindicaciones adjuntas debe interpretarse como significativa de "que incluye(n) pero no se limita(n) a".

Claims (31)

1. Un procedimiento para la reconstrucción de la superficie en tres dimensiones de un objeto caracterizado por las etapas de:
a)
obtener un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre la superficie de aquél, y determinar una correspondencia de puntos de imágenes entre imágenes de dicho primer conjunto de imágenes;
b)
obtener un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre aquél, y marcar dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes en base a la correspondencia determinada en a);
c)
hacer coincidir determinados elementos entre imágenes de dicho segundo conjunto de imágenes en base al marcaje determinado en b); y
d)
determinar las coordenadas espaciales del objeto a partir de los elementos que se han hecho coincidir de dichas imágenes de dicho segundo conjunto de imágenes en b).
\vskip1.000000\baselineskip
2. El procedimiento de acuerdo con la reivindicación 1 en el que la etapa a) comprende las etapas de:
A)
obtener dicho primer conjunto de imágenes de dicho objeto, en el que dicho primer motivo estructurado se define por medio de un motivo estructurado de codificación única de luz estructurada iluminada sobre el objeto; y
B)
encontrar una correspondencia entre puntos de imágenes de entre dicho conjunto de imágenes mediante el cartografiado de las coordenadas de una imagen sobre al menos otra imagen en base a la codificación relacionada con el primer motivo estructurado.
\vskip1.000000\baselineskip
3. El procedimiento de acuerdo con la reivindicación 2, en el que dicho segundo motivo estructurado comprende un motivo estructurado periódico iluminado sobre el objeto.
4. El procedimiento de acuerdo con la reivindicación 3, en el que dicho primer conjunto de imágenes comprende al menos dos imágenes en ángulos diferentes con respecto a dicho objeto.
5. El procedimiento de acuerdo con la reivindicación 4, en el que dichas al menos dos imágenes son captadas como imágenes.
6. El procedimiento de acuerdo con la reivindicación 5, en el que dichas al menos dos imágenes son captadas sustancialmente de forma simultánea.
7. El procedimiento de acuerdo con la reivindicación 4, en el que una imagen de dicho primer conjunto de imágenes comprende dicho motivo estructurado codificado de forma singular y al menos otra imagen de dicho primer conjunto de imágenes es captada como imagen.
8. El procedimiento de la reivindicación 4, en el que dicho motivo estructurado codificado de forma singular comprende una formación de dos dimensiones que tiene una distribución aleatoria o pseudoaleatoria de elementos negros y blancos.
9. El procedimiento de acuerdo con la reivindicación 7, en el que una técnica de coincidencia de motivos se utiliza para encontrar una coincidencia de puntos de imágenes en la etapa a).
10. El procedimiento de acuerdo con la reivindicación 3, en el que dicho segundo conjunto de imágenes comprende al menos dos imágenes en ángulos diferentes con respecto a dicho objeto.
11. El procedimiento de acuerdo con la reivindicación 10, en el que dichas al menos dos imágenes son captadas como imágenes.
12. El procedimiento de acuerdo con la reivindicación 11, en el que dichas al menos dos imágenes son captadas sustancialmente de forma simultánea.
13. El procedimiento de acuerdo con la reivindicación 10, en el que una imagen de dicho segundo conjunto de imágenes comprende dicho motivo periódico, y al menos otra imagen de dicho conjunto de imágenes es captada como imagen.
14. El procedimiento de acuerdo con la reivindicación 10, en el que dicho motivo periódico comprende una primera pluralidad de tiras de una primera intensidad o color intercaladas con respecto a una segunda pluralidad de tiras de una segunda intensidad o color.
15. El procedimiento de acuerdo con la reivindicación 14, en el que dicha primera pluralidad de tiras comprende píxeles blancos y dicha segunda pluralidad de tiras comprende píxeles negros.
16. El procedimiento de acuerdo con la reivindicación 14, en el que:
i)
un primer elemento de una primera imagen de dicho segundo conjunto de imágenes está asociado de acuerdo con una primera técnica de asociación con un primer punto de imagen de dicho primer conjunto de imágenes;
ii)
se determina un segundo punto de imagen de una segunda imagen de dicho primer conjunto de imágenes que tiene correspondencia con dicho primer conjunto de imágenes; y
iii)
dicho segundo punto de imagen está asociado con un segundo elemento de una segunda imagen de un segundo conjunto de imágenes de acuerdo con una técnica de asociación, en el que dicho segundo elemento coincide con dicho primer elemento.
17. El procedimiento de acuerdo con la reivindicación 16, en el que de acuerdo con dicha primera técnica de asociación, dicho primer elemento es un elemento de imagen dentro de sustancialmente el mismo emplazamiento espacial que dicho primer punto de imagen con respecto a sus imágenes respectivas.
18. El procedimiento de acuerdo con la reivindicación 16, en el que de acuerdo con dicha segunda técnica de asociación, dicho segundo elemento es un elemento de imagen dentro de un emplazamiento espacial con relación a su imagen que está en o en íntima proximidad al emplazamiento de dicho segundo punto de imagen con respecto a su imagen.
19. El procedimiento de acuerdo con la reivindicación 16, en el que dicho primer elemento comprende el punto central de una fila de píxeles de dicha tira de dicha pluralidad de tiras comprendida en dicha primera imagen de dicho segundo conjunto de imágenes.
20. El procedimiento de acuerdo con la reivindicación 16, en el que dicho segundo elemento comprende el punto central de una fila de píxeles de dicha tira de dicha pluralidad de tiras comprendida en dicha segunda imagen de dicho segundo conjunto de imágenes.
21. El procedimiento de acuerdo con la reivindicación 1 en el que:
i)
un primer elemento en una primera imagen de dicho segundo conjunto de imágenes está asociado de acuerdo con una primera técnica de asociación con un primer punto de imagen de una primera imagen de dicho primer conjunto de imágenes;
ii)
se determina un segundo punto de imagen de una segunda imagen de dicho primer conjunto de imágenes que tiene correspondencia con dicho primer punto de imagen; y
iii)
dicho segundo punto de imagen es asociado con un segundo elemento de una segunda imagen de dicho segundo conjunto de imágenes de acuerdo con una segunda técnica de asociación, en el que dicho segundo elemento coincide con dicho primer elemento.
22. El procedimiento de acuerdo con la reivindicación 21, en el que de acuerdo con dicha primera técnica de asociación, dicho primer elemento es un elemento de imagen dentro sustancialmente del mismo emplazamiento espacial que dicho primer punto de imagen con respecto a sus imágenes respectivas.
23. El procedimiento de acuerdo con la reivindicación 21, en el que de acuerdo con dicha segunda técnica de asociación, dicho segundo elemento es un elemento de imagen dentro de un emplazamiento espacial con respecto a su imagen que está en o en íntima proximidad con el emplazamiento de dicho segundo punto de imagen con respecto a su imagen.
24. El procedimiento de acuerdo con la reivindicación 21, en el que dicho primer elemento comprende el punto central de una fila de píxeles de dicha tira de dicha primera pluralidad de tiras comprendidas en dicha primera imagen de dicho segundo conjunto de imágenes.
25. El procedimiento de acuerdo con la reivindicación 21, en el que dicho segundo elemento comprende el tercer punto de una fila de píxeles de dicha tira de dicha primera pluralidad de tiras comprendida en dicha segunda imagen de dicho segundo conjunto de imágenes.
\newpage
26. El procedimiento de acuerdo con la reivindicación 1, en el que la etapa d) se basa en técnicas de triangulación.
27. El procedimiento de acuerdo con la reivindicación 1, en el que la etapa d) se basa en técnicas de reconstrucción epipolar.
28. Un procedimiento para hacer coincidir unos puntos entre las imágenes de un primer conjunto de imágenes de un objeto caracterizado por las etapas de:
a)
obtener dicho primer conjunto de imágenes del objeto que tengan un primer motivo estructurado sobre aquél;
b)
obtener un segundo conjunto de imágenes del objeto que tengan un segundo motivo estructurado sobre su superficie, y determinar una correspondencia de puntos de imagen entre las imágenes de dicho segundo conjunto de imágenes;
c)
marcar unos elementos de dicho primer motivo estructurado entre imágenes de dicho primer conjunto de imágenes en base a la correspondencia determinada en d);
d)
hacer coincidir unos puntos comprendidos en unos elementos entre los elementos marcados en c).
29. Un sistema para la reconstrucción de la superficie en tres dimensiones de un objeto que comprende:
I)
un proyector adaptado para iluminar de manera selectiva dicho objeto con un primer motivo estructurado y un segundo motivo estructurado;
II)
al menos una cámara para obtener imágenes de dicho objeto cuando es iluminado con dicho primer motivo estructurado y un segundo motivo estructurado;
III)
un medio de microprocesador para determinar la topología de superficie en tres dimensiones de dicho objeto en base a dichas imágenes,
de acuerdo con el procedimiento de una cualquiera de las reivindicaciones 1 a 27.
30. Unas instrucciones de almacenaje sobre un medio legible por computadora para programar un medio de microprocesador de un sistema de acuerdo con lo definido en la reivindicación 29 para llevar a cabo un procedimiento de acuerdo con lo definido en una cualquiera de las reivindicaciones 1 a 27.
31. Una unidad de control para su uso en la reconstrucción de la superficie en tres dimensiones de un objeto, caracterizado por estar preprogramada dicha unidad de control para llevar a cabo
i)
un procesamiento de datos indicativos de un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre su superficie, y una determinación de una correspondencia de puntos de imagen entre las imágenes de dicho primer conjunto de imágenes;
ii)
la utilización de dicha correspondencia para procesar un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre él para hacer coincidir unos elementos de dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes;
iii)
el análisis de los elementos que se han hecho coincidir para determinar las coordenadas espaciales del objeto.
ES04745012T 2003-07-24 2004-07-22 Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. Active ES2313036T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US49058603P 2003-07-24 2003-07-24
US490586P 2003-07-24

Publications (1)

Publication Number Publication Date
ES2313036T3 true ES2313036T3 (es) 2009-03-01

Family

ID=34102988

Family Applications (1)

Application Number Title Priority Date Filing Date
ES04745012T Active ES2313036T3 (es) 2003-07-24 2004-07-22 Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto.

Country Status (8)

Country Link
US (1) US20070057946A1 (es)
EP (1) EP1649423B1 (es)
JP (1) JP2006528770A (es)
AT (1) ATE404952T1 (es)
CA (1) CA2529498A1 (es)
DE (1) DE602004015799D1 (es)
ES (1) ES2313036T3 (es)
WO (1) WO2005010825A2 (es)

Families Citing this family (111)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112005002690B4 (de) * 2004-11-01 2013-05-29 Cognitens Ltd. Verfahren und System zur optischen Kantenbestimmung
WO2006074310A2 (en) * 2005-01-07 2006-07-13 Gesturetek, Inc. Creating 3d images of objects by illuminating with infrared patterns
CN100427876C (zh) * 2005-05-26 2008-10-22 上海交通大学 料场测量的计算机视觉系统自动测量的方法
CN100414249C (zh) * 2005-05-26 2008-08-27 上海交通大学 料场测量的计算机自动测量的视觉系统
FR2889303B1 (fr) * 2005-07-26 2008-07-11 Airbus France Sas Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre
US8390821B2 (en) * 2005-10-11 2013-03-05 Primesense Ltd. Three-dimensional sensing using speckle patterns
US9330324B2 (en) 2005-10-11 2016-05-03 Apple Inc. Error compensation in three-dimensional mapping
EP1934945A4 (en) * 2005-10-11 2016-01-20 Apple Inc METHOD AND SYSTEM FOR RECONSTRUCTING AN OBJECT
US20110096182A1 (en) * 2009-10-25 2011-04-28 Prime Sense Ltd Error Compensation in Three-Dimensional Mapping
WO2007079805A1 (de) * 2006-01-08 2007-07-19 Hermann Tropf Erstellung eines abstandsbildes
DE102006001634B3 (de) * 2006-01-11 2007-03-01 Tropf, Hermann Erstellung eines Abstandsbildes
CN101501442B (zh) 2006-03-14 2014-03-19 普莱姆传感有限公司 三维传感的深度变化光场
KR101408959B1 (ko) * 2006-03-14 2014-07-02 프라임센스 엘티디. 삼차원 감지를 위한 깊이 가변 광 필드
DE102006049695A1 (de) * 2006-10-16 2008-04-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur
EP2084491A2 (en) 2006-11-21 2009-08-05 Mantisvision Ltd. 3d geometric modeling and 3d video content creation
US8090194B2 (en) 2006-11-21 2012-01-03 Mantis Vision Ltd. 3D geometric modeling and motion capture using both single and dual imaging
DE102006061712A1 (de) * 2006-12-28 2008-07-03 Tropf, Hermann Erstellung eines Abstandsbildes
US8350847B2 (en) 2007-01-21 2013-01-08 Primesense Ltd Depth mapping using multi-beam illumination
TW200834471A (en) * 2007-02-15 2008-08-16 Ind Tech Res Inst Image filling methods, and machine readable medium thereof
TWI433052B (zh) * 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US8150142B2 (en) * 2007-04-02 2012-04-03 Prime Sense Ltd. Depth mapping using projected patterns
US8172407B2 (en) * 2007-05-16 2012-05-08 Honda Motor Co., Ltd. Camera-projector duality: multi-projector 3D reconstruction
EP2163847B1 (en) * 2007-06-15 2013-10-16 Kabushiki Kaisha Toshiba Instrument for examining/measuring an object to be measured
US8494252B2 (en) 2007-06-19 2013-07-23 Primesense Ltd. Depth mapping using optical elements having non-uniform focal characteristics
EP2977719A1 (en) * 2007-08-17 2016-01-27 Renishaw plc Non-contact measurement apparatus and method
US8456517B2 (en) * 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
US20100110264A1 (en) * 2008-10-31 2010-05-06 Lucent Technologies, Inc. Image projection system
US8462207B2 (en) 2009-02-12 2013-06-11 Primesense Ltd. Depth ranging with Moiré patterns
US8786682B2 (en) * 2009-03-05 2014-07-22 Primesense Ltd. Reference image techniques for three-dimensional sensing
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US9582889B2 (en) 2009-07-30 2017-02-28 Apple Inc. Depth mapping based on pattern matching and stereoscopic information
GB0915904D0 (en) 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
US8830227B2 (en) 2009-12-06 2014-09-09 Primesense Ltd. Depth-based gain control
JP4783456B2 (ja) * 2009-12-22 2011-09-28 株式会社東芝 映像再生装置及び映像再生方法
US20110187878A1 (en) * 2010-02-02 2011-08-04 Primesense Ltd. Synchronization of projected illumination with rolling shutter of image sensor
US8786757B2 (en) * 2010-02-23 2014-07-22 Primesense Ltd. Wideband ambient light rejection
US8982182B2 (en) * 2010-03-01 2015-03-17 Apple Inc. Non-uniform spatial resource allocation for depth mapping
EP2568253B1 (en) * 2010-05-07 2021-03-10 Shenzhen Taishan Online Technology Co., Ltd. Structured-light measuring method and system
CN102939562B (zh) * 2010-05-19 2015-02-18 深圳泰山在线科技有限公司 目标投影方法以及系统
CN101913516B (zh) * 2010-08-03 2013-05-29 中冶焦耐(大连)工程技术有限公司 带式输送机胶带收卷卷筒
US9098931B2 (en) 2010-08-11 2015-08-04 Apple Inc. Scanning projectors and image capture modules for 3D mapping
EP2442067A1 (de) * 2010-10-14 2012-04-18 Baumer Innotec AG Vorrichtung und Verfahren zur dreidimensionalen Bilderfassung
US9066087B2 (en) 2010-11-19 2015-06-23 Apple Inc. Depth mapping using time-coded illumination
US9167138B2 (en) 2010-12-06 2015-10-20 Apple Inc. Pattern projection and imaging using lens arrays
DE102011010265A1 (de) * 2011-02-01 2012-08-02 Friedrich-Schiller-Universität Jena Verfahren zur dreidimensionalen Rekonstruktion von Objekten unter Verwendung von Streifenprojektionsmustern
US20140002610A1 (en) * 2011-03-15 2014-01-02 Board Of Trustees Of Michigan State University Real-time 3d shape measurement system
US9857868B2 (en) 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
US8840466B2 (en) 2011-04-25 2014-09-23 Aquifi, Inc. Method and system to create three-dimensional mapping in a two-dimensional game
DE102011101476B4 (de) 2011-05-11 2023-05-25 Cognex Ireland Ltd. Verfahren zur 3D-Messung von Objekten
US8686943B1 (en) 2011-05-13 2014-04-01 Imimtek, Inc. Two-dimensional method and system enabling three-dimensional user interaction with a device
WO2012160470A1 (en) * 2011-05-24 2012-11-29 Koninklijke Philips Electronics N.V. 3d scanner using structured lighting
KR101789683B1 (ko) 2011-06-13 2017-11-20 삼성전자주식회사 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치
US8869073B2 (en) * 2011-07-28 2014-10-21 Hewlett-Packard Development Company, L.P. Hand pose interaction
US9295532B2 (en) 2011-11-10 2016-03-29 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
US9349182B2 (en) 2011-11-10 2016-05-24 Carestream Health, Inc. 3D intraoral measurements using optical multiline method
DE102011121696A1 (de) * 2011-12-16 2013-06-20 Friedrich-Schiller-Universität Jena Verfahren zur 3D-Messung von tiefenlimitierten Objekten
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
JP5985661B2 (ja) 2012-02-15 2016-09-06 アップル インコーポレイテッド 走査深度エンジン
EP2817587B1 (de) * 2012-02-21 2018-12-19 Testo AG Messverfahren und messvorrichtung zur herstellung eines 3d-ortaufgelösten messergebnisses in einem nicht-sichtbaren spektralbereich
JP2013210254A (ja) * 2012-03-30 2013-10-10 Canon Inc 三次元計測装置、三次元計測方法及び三次元計測プログラム
US8934675B2 (en) 2012-06-25 2015-01-13 Aquifi, Inc. Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints
US8836768B1 (en) 2012-09-04 2014-09-16 Aquifi, Inc. Method and system enabling natural user interface gestures with user wearable glasses
DE102012022952A1 (de) * 2012-11-16 2014-05-22 Friedrich-Schiller-Universität Jena Verfahren und System zum berührungslosen Erfassen einer dreidimensionalen Oberfläche eines Objekts
US20140152771A1 (en) * 2012-12-01 2014-06-05 Og Technologies, Inc. Method and apparatus of profile measurement
US9129155B2 (en) 2013-01-30 2015-09-08 Aquifi, Inc. Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map
JP2016510108A (ja) 2013-02-13 2016-04-04 3シェイプ アー/エス 色を記録する焦点走査装置
US9298266B2 (en) 2013-04-02 2016-03-29 Aquifi, Inc. Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9798388B1 (en) 2013-07-31 2017-10-24 Aquifi, Inc. Vibrotactile system to augment 3D input systems
KR102159996B1 (ko) * 2013-12-16 2020-09-25 삼성전자주식회사 이벤트 필터링 장치 및 이를 이용한 동작 인식 장치
US9507417B2 (en) 2014-01-07 2016-11-29 Aquifi, Inc. Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects
US9619105B1 (en) 2014-01-30 2017-04-11 Aquifi, Inc. Systems and methods for gesture based interaction with viewpoint dependent user interfaces
KR102424135B1 (ko) * 2014-02-05 2022-07-25 크레아폼 인크. 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭
US10643343B2 (en) 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras
US10416760B2 (en) 2014-07-25 2019-09-17 Microsoft Technology Licensing, Llc Gaze-based object placement within a virtual reality environment
US9904055B2 (en) 2014-07-25 2018-02-27 Microsoft Technology Licensing, Llc Smart placement of virtual objects to stay in the field of view of a head mounted display
US9766460B2 (en) 2014-07-25 2017-09-19 Microsoft Technology Licensing, Llc Ground plane adjustment in a virtual reality environment
US9858720B2 (en) 2014-07-25 2018-01-02 Microsoft Technology Licensing, Llc Three-dimensional mixed-reality viewport
US10451875B2 (en) 2014-07-25 2019-10-22 Microsoft Technology Licensing, Llc Smart transparency for virtual objects
US10311638B2 (en) * 2014-07-25 2019-06-04 Microsoft Technology Licensing, Llc Anti-trip when immersed in a virtual reality environment
US9865089B2 (en) 2014-07-25 2018-01-09 Microsoft Technology Licensing, Llc Virtual reality environment with real world objects
CN104197861B (zh) * 2014-08-25 2017-03-01 深圳大学 基于结构光灰度向量的三维数字成像方法
ES2680587T3 (es) 2014-08-28 2018-09-10 Carestream Dental Technology Topco Limited Mediciones 3-D intraorales usando un procedimiento óptico de múltiples líneas
CN106796721B (zh) * 2014-09-11 2021-05-04 赛博光学公司 三维轮廓测量中根据多个相机和源的点云合并
DE102014113389A1 (de) 2014-09-17 2016-03-17 Pilz Gmbh & Co. Kg Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern
US9881235B1 (en) 2014-11-21 2018-01-30 Mahmoud Narimanzadeh System, apparatus, and method for determining physical dimensions in digital images
JP6484071B2 (ja) 2015-03-10 2019-03-13 アルプスアルパイン株式会社 物体検出装置
JP6484072B2 (ja) 2015-03-10 2019-03-13 アルプスアルパイン株式会社 物体検出装置
DE102015208285A1 (de) * 2015-05-05 2016-11-10 Friedrich-Schiller-Universität Jena Vorrichtung und verfahren zum räumlichen vermessen von oberflächen
KR101671736B1 (ko) * 2015-06-02 2016-11-03 한국생산기술연구원 탄소섬유강화플라스틱(cfrp) 부품에 대한 광학 검사 방법
JP6554342B2 (ja) * 2015-06-29 2019-07-31 国立大学法人 宮崎大学 計測システム及び計測方法
JP6566768B2 (ja) * 2015-07-30 2019-08-28 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN105184857B (zh) * 2015-09-13 2018-05-25 北京工业大学 基于点结构光测距的单目视觉重建中尺度因子确定方法
US10547830B2 (en) 2015-11-16 2020-01-28 Samsung Electronics Co., Ltd Apparatus for and method of illumination control for acquiring image information and depth information simultaneously
AU2017227599A1 (en) * 2016-03-01 2018-08-30 Magic Leap, Inc. Depth sensing systems and methods
CN106643562B (zh) * 2016-10-27 2019-05-03 天津大学 基于时域空域混合编码的结构光条纹投射方法
CN108151671B (zh) * 2016-12-05 2019-10-25 先临三维科技股份有限公司 一种三维数字成像传感器、三维扫描系统及其扫描方法
CN106802138B (zh) * 2017-02-24 2019-09-24 先临三维科技股份有限公司 一种三维扫描系统及其扫描方法
CN108985119A (zh) * 2017-05-31 2018-12-11 华为技术有限公司 结构光解码的方法和设备
JP6879168B2 (ja) * 2017-11-01 2021-06-02 オムロン株式会社 3次元測定装置、3次元測定方法及びプログラム
WO2019243046A1 (en) 2018-06-18 2019-12-26 Lumileds Holding B.V. Lighting device comprising led and grating
US11995851B2 (en) * 2018-10-04 2024-05-28 Isak Du Preez Optical surface encoder
CN110044927B (zh) * 2019-04-23 2020-02-21 华中科技大学 一种空间编码光场对曲面玻璃表面缺陷的检测方法
US11150088B2 (en) * 2019-05-13 2021-10-19 Lumileds Llc Depth sensing using line pattern generators
CN113748313B (zh) * 2019-05-22 2023-11-21 欧姆龙株式会社 三维测量系统及三维测量方法
WO2020262389A1 (ja) * 2019-06-28 2020-12-30 キヤノン株式会社 計測装置、撮像装置、計測システム、制御方法及びプログラム
CN111192357A (zh) * 2019-12-05 2020-05-22 中国科学院高能物理研究所 微尺度颗粒物中元素三维成像的方法和系统
CN112414301B (zh) * 2020-10-22 2021-09-03 光华临港工程应用技术研发(上海)有限公司 一种用于线结构光三维测量的设备
CN112767537B (zh) * 2021-01-07 2023-06-16 华侨大学 一种基于rgb编码结构光的三维重建方法
JP2022126066A (ja) * 2021-02-18 2022-08-30 トヨタ自動車株式会社 車載センサシステム、及び車載センサシステムのデータ生成方法
CN113188453B (zh) * 2021-04-30 2022-11-01 东北电力大学 一种用于膜结构非接触位移、应变测量的散斑产生装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2996067B2 (ja) * 1993-08-06 1999-12-27 村田機械株式会社 三次元計測装置
WO1996041304A1 (en) * 1995-06-07 1996-12-19 The Trustees Of Columbia University In The City Of New York Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus
IT1296825B1 (it) * 1997-12-02 1999-08-02 Uni Degli Studi Brescia Procedimento per la misura di profili a tre dimensioni mediante proiezione di luce strutturata
JP2001091232A (ja) * 1999-09-24 2001-04-06 Sony Corp 3次元形状計測装置および方法、並びに記録媒体
JP2003269928A (ja) * 2002-03-12 2003-09-25 Nec Corp 3次元形状計測方法および装置ならびにプログラム
JP2004037272A (ja) * 2002-07-03 2004-02-05 Ricoh Co Ltd 光学的形状測定装置
WO2004011876A1 (en) * 2002-07-25 2004-02-05 Solutionix Corporation Apparatus and method for automatically arranging three dimensional scan data using optical marker

Also Published As

Publication number Publication date
WO2005010825A3 (en) 2005-06-09
JP2006528770A (ja) 2006-12-21
WO2005010825A2 (en) 2005-02-03
CA2529498A1 (en) 2005-02-03
ATE404952T1 (de) 2008-08-15
EP1649423B1 (en) 2008-08-13
DE602004015799D1 (de) 2008-09-25
EP1649423A2 (en) 2006-04-26
US20070057946A1 (en) 2007-03-15

Similar Documents

Publication Publication Date Title
ES2313036T3 (es) Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto.
US10902668B2 (en) 3D geometric modeling and 3D video content creation
ES2801395T3 (es) Sistema y método para la medición tridimensional de la forma de objetos materiales
US10119808B2 (en) Systems and methods for estimating depth from projected texture using camera arrays
JP2011504230A (ja) 三角法を用いた物体の光学的測定方法
US8090194B2 (en) 3D geometric modeling and motion capture using both single and dual imaging
ES2887202T3 (es) Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes, y programa
ES2708274T3 (es) Sistema y método de enfoque de iluminación de estadio
US7456842B2 (en) Color edge based system and method for determination of 3D surface topology
US20130038696A1 (en) Ray Image Modeling for Fast Catadioptric Light Field Rendering
US20120293626A1 (en) Three-dimensional distance measurement system for reconstructing three-dimensional image using code line
JP2007171092A (ja) 三次元計測用マーカとこれを用いた三次元計測方法
WO2017214735A1 (en) Systems and methods for obtaining a structured light reconstruction of a 3d surface
Zhang et al. Development of an omni-directional 3D camera for robot navigation
JP2021110758A (ja) 校正対象物体を有するイメージングシステム
ES2689907T3 (es) Procedimiento para la generación de informaciones de imágenes
Wang et al. Implementation and experimental study on fast object modeling based on multiple structured stripes
ES2251643T3 (es) Metodo y sistema par amejorar la lectura de codigos de barras.
Wei et al. Colorful 3-D imaging using an infrared Dammann grating
ES2904556T3 (es) Caracterización de la superficie intraoral en 3D
Kofman et al. Hand-held 3D scanner for surface-shape measurement without sensor pose tracking or surface markers: a compact hand-held 3D scanner simultaneously projecting multiple light lines is presented, enabling 3D surface-shape measurement without requiring sensor tracking or surface markers
Drouin et al. Active 3D imaging systems
KR101275749B1 (ko) 3차원 깊이정보 획득 방법 및 그 장치
ES2777524T3 (es) Método de crear un modelo de oclusión dental 3D
RU164082U1 (ru) Устройство контроля линейных размеров трехмерных объектов