ES2313036T3 - Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. - Google Patents
Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. Download PDFInfo
- Publication number
- ES2313036T3 ES2313036T3 ES04745012T ES04745012T ES2313036T3 ES 2313036 T3 ES2313036 T3 ES 2313036T3 ES 04745012 T ES04745012 T ES 04745012T ES 04745012 T ES04745012 T ES 04745012T ES 2313036 T3 ES2313036 T3 ES 2313036T3
- Authority
- ES
- Spain
- Prior art keywords
- images
- image
- structured
- procedure according
- motif
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2513—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/145—Illumination specially adapted for pattern recognition, e.g. using gratings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/147—Details of sensors, e.g. sensor lenses
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Vascular Medicine (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Physical Vapour Deposition (AREA)
Abstract
Un procedimiento para la reconstrucción de la superficie en tres dimensiones de un objeto caracterizado por las etapas de: a) obtener un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre la superficie de aquél, y determinar una correspondencia de puntos de imágenes entre imágenes de dicho primer conjunto de imágenes; b) obtener un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre aquél, y marcar dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes en base a la correspondencia determinada en a); c) hacer coincidir determinados elementos entre imágenes de dicho segundo conjunto de imágenes en base al marcaje determinado en b); y d) determinar las coordenadas espaciales del objeto a partir de los elementos que se han hecho coincidir de dichas imágenes de dicho segundo conjunto de imágenes en b).
Description
Procedimiento y sistema para la reconstrucción
de la superficie tridimensional de un objeto.
La presente invención se refiere a un sistema y
a un procedimiento para la reconstrucción de la superficie
tridimensional de un objeto, en particular basada parcialmente al
menos en técnicas de iluminación estructurada. La invención se
refiere también al marcaje de elementos entre dos imágenes de un
objeto o escena.
La determinación de una forma tridimensional
(3D) de un objeto es de considerable importancia en muchos campos.
Por ejemplo, en el campo de la medición dimensional de objetos
fabricados, la medición precisa de una pluralidad de dimensiones y
/ o de las coordenadas de superficie predeterminadas de dichos
objetos puede proporcionar una herramienta importante para la
determinación de la precisión del procedimiento de fabricación.
Los sistemas y procedimientos para dicha
determinación en 3D, particularmente en aplicaciones industriales,
han seguido dos líneas principales: la mecánica y la óptica. Los
sistemas mecánicos aunque proporcionan datos precisos en 3D de un
objeto, se basan en el contacto mecánico entre una sonda y el
objeto, y solo miden cada vez un punto de la superficie, lo que da
como resultado una velocidad de adquisición de datos muy lenta, y a
menudo poco práctica.
Los sistemas ópticos pueden basarse en uno
cualquiera entre una pluralidad de metodologías diferentes. En una
categoría, se utiliza un sistema de triangulación para la
determinación de la localización espacial en 3D para determinados
puntos situados sobre el objeto sobre el cual se reflejan unos haces
de luz proyectados. En otra categoría, se utilizan con la misma
finalidad técnicas de epipolo. En ambos casos, los sistemas de
líneas de barrido proyectan una sola línea de luz sobre un objeto, y
la reflexión de la línea proyectada es leída por una cámara que
está en un determinado ángulo con respecto al eje de proyección del
aparato proyector. Esto proporciona un contorno sobre la imagen
desde el cual puede ser triangulada la posición de la sección del
objeto (donde la línea fue proyectada). En dichos sistemas, la línea
de luz es progresivamente barrida sobre el objeto, y de esta manera
se determina la forma total en 3D. Sin embargo, este procedimiento
se resiente también del defecto de un tiempo de adquisición largo,
lo que también introduce errores si hay cualquier movimiento
desconocido entre la cámara y el objeto durante este tiempo.
Los sistemas de líneas de barrido mejorados
pueden proyectar una pluralidad de líneas de barrido simultáneamente
sobre un objeto, y las reflexiones de todas las líneas son captadas
por una cámara. Aunque el tiempo de adquisición es rápido es
difícil obtener una coincidencia entre las líneas de la imagen
tomadas por la cámara y la rejilla de iluminación, porque hay una
ambigüedad en cuanto a cuáles líneas de la rejilla de iluminación
que se corresponde con una línea reflejada concreta. Esto es
particularmente problemático cuando el objeto es en sí mismo
complejo y consta de bordes afilados o superficies en pendiente
como a menudo es el caso en artículos confeccionados.
Se conocen diversos procedimientos para resolver
el problema de la ambigüedad. El estudio "Estrategias de
Codificación de Motivos en Sistemas de Luz Estructuradas"
["Pattern Codification Strategies in Structured Light
Systems"] de J. Salvi et al (publicado en Abril de 2004)
proporciona una panorámica general de dichos procedimientos. En una
estrategia de multiplexión de una sola vez descrita en el documento
indicado, un procedimiento de codificación temporal conocido como
Procedimiento de Código Wray emplea diversas frecuencias espaciales
de motivos binarios para iluminar un objeto. Típicamente, en primer
lugar se utilizan dos tiras, luminosa y oscura, para iluminar
completamente el área de interés sobre el objeto, y la reflexión
derivada de él es registrada sobre una imagen. A continuación el
objeto es de nuevo iluminado, pero con 4 tiras, dos luminosas y dos
oscuras. El procedimiento se repite nuevamente doblando cada vez el
número de tiras, iluminando la misma área del objeto, y registrando
reflexiones de éste en un conjunto separado de imágenes. Cualquier
línea sobre el objeto puede ser relacionada con una tira original
concreta a partir del código observado único en esa localización a
partir de la escala de los grises que fue previamente utilizada
para iluminar el objeto.
Sin embargo, dicho procedimiento requiere
múltiples etapas de adquisición de datos, y también presenta el
problema de un tiempo de adquisición de datos relativamente grande
para obtener la estructura en 3D de un objeto.
También son conocidos determinados
procedimientos de base espacial para resolver el problema de la
ambigüedad, y algunos son analizados en la referida publicación
"Estrategias de Modificación de Motivos en Sistemas de Luz
Estructuradas" ["Pattern Codification Strategies in Structured
Light Systems"]. Típicamente, una palabra clave que marca un
determinado punto de un motivo se obtiene a partir de una vecindad
de puntos alrededor de aquél. Dado que la vecindad espacial no
puede siempre ser recuperada en la imagen, la etapa de
descodificación del procedimiento puede resultar problemática, y
pueden producirse errores. También típicamente, el color o
intensidad de los píxeles o grupos de píxeles adyacentes son
características visuales que pueden agruparse en la vecindad
espacial. En un procedimiento de base espacial, un sistema de
formación de imágenes en 3D, comercializado por el presente
Cesionario bajo el nombre Optigo 200, ilumina un objeto deseado,
esto es, un objeto respecto del cual se desea determinar su
estructura en 3D, con una rejilla aleatoria de píxeles negros y
blancos. Dos o más cámaras situadas en ángulos diferentes con
respecto al objeto toman simultáneamente cada una una fotografía
del objeto con la rejilla aleatoria superpuesta sobre él, y las
imágenes del motivo de rejilla captadas por cada cámara son
correlacionadas entre sí. En dichos procedimientos de base espacial,
se utiliza un único motivo de codificación espacial para resolver
el problema de la ambigüedad, y los procedimientos utilizan
entonces la correspondencia de píxeles entre las imágenes así
encontradas para encontrar las coordenadas de la superficie del
objeto que está siendo investigado.
Como antecedente de interés general, el
documento US 6,510,244 se refiere a un procedimiento para imágenes
de un objeto en 3D, en el que un motivo de líneas en forma de
rejilla es iluminado sobre un objeto, y su forma se adquiere sobre
la base de la distancia relativa entre las líneas y / o las
intersecciones de las líneas del motivo. También como antecedente
de interés, el documento US 6,252,623 se refiere a un procedimiento
y a un aparato de formación de imágenes, en el cual el objeto es
iluminado con un motivo repetitivo de bandas de diferentes colores
para potenciar la precisión de la imagen obtenida mediante la
reducción de la diafonía entre las barras coloreadas de la imagen
captada.
En la presente memoria, el término
"correspondencia" se refiere al cartografiado punto a punto
entre imágenes diferentes de un objeto, típicamente a nivel de
píxel, por ejemplo, en base a una codificación tipo vecindad.
El término "marcaje" se utiliza en la
presente memoria para referirse a la identificación adecuada de
motivos como por ejemplo los motivos de líneas unidimensionales o
los motivos de tiras unidimensionales entre imágenes diferentes de
un objeto.
El término "coincidencia" se refiere al
cartografiado de subpíxel a subpíxel entre imágenes diferentes de
un objeto.
El término "imagen", además del uso
habitual, se utiliza también en la presente memoria para incluir un
motivo original que se proyecta sobre un objeto.
En la presente invención, se proporciona una
metodología para reconstruir la estructura de superficie en 3D de
un objeto. El término "objeto" incluye cualquier objeto de dos
o tres dimensiones o un conjunto de objetos incluyendo una
escena.
El procedimiento se basa en la obtención de una
coincidencia singular de cada punto reflejado sobre un objeto con
un motivo de iluminación que utiliza un sistema de dos etapas,
siendo posible dicha coincidencia al nivel de subpíxel. En la
primera etapa, se obtiene un primer conjunto de imágenes, y se
utiliza una técnica de codificación espacial para obtener una
cartografiado de correspondencia de coordenadas a partir de una
primera imagen hasta una segunda imagen de un objeto. Las técnicas
de codificación de vecindad son utilizadas típicamente para la
determinación de esta coincidencia. En una forma de realización, una
rejilla aleatoria u otra luz estructurada se utiliza para iluminar
el objeto y las imágenes son obtenidas en ángulos diferentes con
respecto al objeto. En otras formas de realización, las
características de superficie del objeto pueden ser suficientes para
posibilitar que se lleve a cabo el cartografiado mencionado a
partir de las imágenes obtenidas utilizando una luz no
estructurada.
En la segunda etapa, se utiliza una segunda
iluminación estructurada, que utiliza típicamente una rejilla en
tiras, para obtener un segundo conjunto de imágenes, comprendiendo
típicamente dos imágenes adicionales del objeto, y el cartografiado
obtenido por la primera etapa proporciona un marcaje adecuada de la
rejilla entre estas dos imágenes del segundo conjunto. Unos
procedimientos de triangulación o de epipolo, o cualquier otro
procedimiento apropiado, puede entonces ser utilizado para obtener
las coordenadas en 3D de la superficie que está siendo
reconstruida.
Así, la presente invención se refiere a un
procedimiento para la reconstrucción de la superficie en 3D de un
objeto que comprende las etapas de:
- a)
- la obtención de un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre su superficie, y la determinación de la correspondencia de puntos de imagen entre imágenes de dicho primer conjunto de imágenes;
- b)
- la obtención de un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre él, y el marcaje de dicho segundo motivo estructurado entre imágenes de dicho conjunto de imágenes en base a la correspondencia determinada en a);
- c)
- la coincidencia de elementos entre las imágenes de dicho segundo conjunto de imágenes en base al marcaje determinado en b); y
- d)
- la determinación de las coordenadas espaciales del objeto a partir de los elementos adaptados de dichas imágenes de dicho conjunto de imágenes en b).
Típicamente, la etapa a) comprende las etapas
de:
- -
- obtener de dicho primer conjunto de imágenes de dicho objeto, en la que dicho primer motivo estructurado se define por medio de un motivo estructurado singularmente codificado de luz estructurada utilizada para iluminar el objeto; y
- -
- encontrar la correspondencia entre los punto de imagen de las imágenes de dicho primer conjunto de imágenes mediante el cartografiado de las coordenadas de una imagen sobre al menos otra imagen en base a la codificación relacionada con el primer motivo estructurado.
\vskip1.000000\baselineskip
El primer conjunto de imágenes típicamente
comprende dos imágenes en diferentes ángulos con respecto a dicho
objeto. En una primera forma de realización de la invención, las dos
imágenes son captadas como imágenes sustancialmente de forma
simultánea, ya sea utilizando dos cámaras, o una sola cámara que se
desplaza entre dos posiciones con respecto al objeto. En una
segunda forma de realización, una imagen de dicho primer conjunto de
imágenes comprende dicho motivo estructurado especialmente
codificado y al menos otra imagen de dicho primer conjunto de
imágenes es captada como imagen, y por tanto solo es necesaria una
única cámara fija.
Típicamente, el motivo estructurado
especialmente codificado comprende un código de grises aleatorio o
pseudoaleatorio de dos dimensiones, esto es, una formación de dos
dimensiones con una distribución aleatoria o pseudoaleatoria de
elementos de blanco y negro. Puede utilizarse una técnica de
coincidencia de motivos para encontrar la correspondencia de puntos
de imagen en la etapa a).
Típicamente, el segundo motivo estructurado
comprende un motivo estructurado periódico iluminado sobre el
objeto. El segundo conjunto de imágenes típicamente comprende dos
imágenes en ángulos diferentes con respecto a dicho objeto. En una
primera forma de realización de la invención, las dos imágenes son
captadas como imágenes, ya sea utilizando dos cámaras, típicamente
de forma simultánea, o una sola cámara que es desplazada entre dos
posiciones con respecto al objeto. En una segunda forma de
realización, una imagen de dicho primer conjunto de imágenes
comprende dicho motivo estructurado especialmente codificado y al
menos otra imagen de dicho primer conjunto de imágenes es captada
como imagen, y por tanto solo es necesaria una cámara fija
única.
Así, la segunda forma de realización
genéricamente requiere un preconocimiento del motivo que es
proyectado sobre el objeto, y esto requiere la calibración del
proyector además de la calibración de las cámaras. En la primera
forma de realización, solo se requiere la calibración de las
cámaras.
La relación entre el primer conjunto de imágenes
y el objeto es sustancialmente similar a la relación entre el
segundo conjunto de imágenes y el objeto, aunque en general son
aceptables pequeñas variaciones.
El motivo periódico típicamente comprende una
primera pluralidad de tiras de una primera intensidad o color
intercalada con respecto a una segunda pluralidad de tiras de una
segunda intensidad o color. En un ejemplo, la primera pluralidad de
tiras comprende píxeles blancos y dicha segunda pluralidad de tiras
comprende píxeles negros.
En particular, en la segunda etapa del
procedimiento pueden llevarse a cabo las siguientes etapas:
- un primer elemento en una primera imagen de dicho segundo conjunto de imágenes está asociado de acuerdo con una primera técnica de asociación con un primer punto de imagen de una primera imagen de dicho primer conjunto de imágenes;
- se determina un segundo punto de imagen de una segunda imagen de dicho primer conjunto de imágenes que tiene correspondencia con dicho primer punto de imagen; y
- dicho segundo punto de imagen está asociado con al menos un segundo elemento de una segunda imagen de dicho segundo conjunto de imágenes de acuerdo con una segunda técnica de asociación, en el que dicho al menos un segundo elemento coincide con dicho primer elemento.
\vskip1.000000\baselineskip
De acuerdo con dicha primera técnica de
asociación, dicho primer elemento es un elemento de imagen dentro
de un emplazamiento espacial que es sustancialmente el mismo que
dicho primer punto de imagen con respecto a sus imágenes
respectivas.
De acuerdo con dicha segunda técnica de
asociación, dicho al menos un segundo elemento es un elemento de
imagen dentro de un emplazamiento espacial con respecto a su imagen
que está en o en íntima proximidad con el emplazamiento de dicho
segundo punto de imagen con respecto a su imagen.
El primer elemento típicamente comprende el
punto central de una fila de píxeles de una tira de la primera
pluralidad de tiras comprendida en la primera imagen del segundo
conjunto de imágenes.
El segundo elemento típicamente comprende el
punto central de una fila de píxeles de una tira de la primera
pluralidad de tiras comprendida en la segunda imagen de dicho
segundo conjunto de imágenes.
La etapa d) puede basarse en técnicas de
triangulación, o en técnicas de reconstrucción epipolar, o en
cualquier otra técnica apropiada.
\newpage
La presente invención se refiere también a un
procedimiento para hacer coincidir puntos entre imágenes de un
primer conjunto de imágenes de un objeto y comprende las etapas
de:
- a)
- obtener dicho primer conjunto de imágenes del objeto que tiene sobre él un primer motivo estructurado;
- b)
- obtener un segundo conjunto de imágenes del objeto que tiene un segundo motivo estructurado sobre su superficie, y determinar la correspondencia de los puntos de imagen entre imágenes de dicho segundo conjunto de imágenes;
- c)
- marcar los elementos de dicho primer motivo estructurado entre imágenes de dicho primer conjunto de imágenes en base a la correspondencia determinada en b);
- d)
- hacer coincidir los puntos comprendidos entre los elementos existentes entre los elementos marcados en c).
La presente invención se refiere también a un
sistema para la reconstrucción de la superficie en tres dimensiones
de un objeto y que comprende:
- i)
- un proyector adaptado para iluminar selectivamente dicho objeto con un primer motivo estructurado y un segundo motivo estructurado;
- ii)
- al menos una cámara para obtener imágenes de dicho objeto cuando es iluminado con dicho primer motivo estructurado y un segundo motivo estructurado;
- iii)
- un medio de microprocesador para determinar la topología de la superficie en tres dimensiones de dicho objeto en base a dichas imágenes.
El medio de microprocesador, típicamente una
computadora, está adaptado para determinar dicha tipología de
acuerdo con el procedimiento de la invención.
El procedimiento de la invención puede
incorporarse en un medio legible por computadora para dar
instrucciones a una computadora apropiada para ejecutar el
procedimiento.
La presente invención se refiere también a una
unidad de control para su uso en la reconstrucción de la superficie
en tres dimensiones de un objeto, estando la unidad de control
preprogramada para llevar a cabo
- i)
- el procesamiento de los datos indicativos de un primer conjunto de imágenes del objeto que tiene un primer motivo estructurado sobre su superficie, y la determinación de la correspondencia de los puntos de imagen entre las imágenes de dicho primer conjunto de imágenes,
- ii)
- la utilización de dicha correspondencia para el procesamiento de un segundo conjunto de imágenes del objeto que tiene sobre él un segundo motivo estructurado para cartografiar elementos de dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes;
- iii)
- el análisis de los elementos que se ha hecho coincidir para determinar las coordenadas espaciales del objeto.
Así, la presente invención se aplica a un
procedimiento de correspondencia para proporcionar un marcaje
correcto de línea a línea proporcionando un marcaje rápido y
correcto, y utilizando únicamente dos conjuntos de imágenes del
objeto, y esto puede proporcionar una reconstrucción precisa en 3D
de una superficie. En particular, la primera etapa del
procedimiento proporciona un medio efectivo de correspondencia, en
una sola etapa de adquisición de datos, y esta correspondencia
puede entonces utilizarse para llevar a cabo el marcaje de línea a
línea, posibilitando que se lleve a cabo la reconstrucción en 3D
con un nivel de precisión de subpíxel.
Con el fin de comprender la invención y apreciar
cómo puede llevarse a la práctica, a continuación se describirá una
forma de realización preferente a modo solo de ejemplo no
limitativo, con referencia a los dibujos que se acompañan, en los
cuales:
La Fig. 1 es una ilustración esquemática del
procedimiento de acuerdo con una forma de realización de la
invención.
La Fig. 2 es una ilustración esquemática de los
elementos de una primera forma de realización del sistema de la
invención.
La Fig. 3 ilustra un motivo de píxeles
aleatorio o cuasi aleatorio utilizado con la forma de realización
de la Fig. 2 o de la Fig. 10.
La Fig. 4 ilustra unas imágenes obtenidas con el
sistema de la Fig. 2 cuando el objeto está iluminado con el motivo
de la Fig. 3.
La Fig. 5 ilustra un motivo de líneas utilizado
con la forma de realización de la Fig. 2 o de la Fig. 10.
La Fig. 6 ilustra unas imágenes obtenidas con el
sistema de la Fig. 2 cuando el objeto está iluminado con el
motivo de la Fig. 5.
La Fig. 7 ilustra un procedimiento para obtener
las coordenadas de un punto de un objeto utilizando imágenes
obtenidas con el sistema de la Fig. 2 cuando el objeto está
iluminado con el motivo de la Fig. 5.
La Fig. 8 ilustra un procedimiento de
triangulación para obtener las coordenadas de un punto sobre un
objeto utilizando imágenes obtenidas con el sistema de la Fig. 2
cuando el objeto está iluminado con el motivo de la Fig. 5.
La Fig. 9 ilustra un procedimiento basado en
epipolo para obtener las coordenadas de un punto sobre un objeto
utilizando las imágenes obtenidas con el sistema de la Fig. 2 cuando
el objeto está iluminado con el motivo de la
Fig. 5.
Fig. 5.
La Fig. 10 es una ilustración esquemática de los
elementos de una segunda forma de realización del sistema de la
invención.
La Fig. 11a y la Fig. 11b ilustran un motivo de
píxeles aleatorio o cuasi aletatorio proyectado, y la imagen
recibida, respectivamente, por el proyector y la cámara por la forma
de realización de la Fig. 10.
La Fig. 12a y la Fig. 12b ilustran el motivo de
líneas proyectado, y la imagen recibida, respectivamente, por el
proyector y la cámara de la forma de realización de la Fig. 10.
\vskip1.000000\baselineskip
En la Fig. 1 se ilustra una forma de realización
del procedimiento de la invención, designada genéricamente con la
referencia numeral 100. En una primera etapa, Etapa I, del
procedimiento, y también con referencia a las Figs. 2, 3 y 4, un
objeto O está iluminado con una iluminación estructurada, de forma
que puede concentrarse una codificación singular (motivo luminoso)
en una sola iluminación. Como se ilustra esquemáticamente en la
Fig. 3, dicha iluminación estructurada típicamente comprende una
codificación espacial en forma de un motivo de píxeles aleatorio o
cuasi aleatorio, A, de forma que preferentemente cada matriz de
[nxm] píxeles del motivo es singular. En esta forma
de realización el motivo de píxeles A es esencialmente una escala de
grises en dos dimensiones en el que los píxeles están coloreados en
blanco o en negro. La distribución de los píxeles en blanco o en
negro puede ser aleatoria. Como una alternativa, la distribución
puede ser "cuasi aleatoria" esto es, específicamente diseñada
para que para cualquier matriz de [n por m] píxeles
dentro de la rejilla (motivo), haya una permutación singular de
píxeles en blanco y negro que no se encuentre en ninguna otra parte
en la rejilla A. En la práctica, genéricamente es suficiente
proporcionar una singularidad local, mejor que una singularidad
global para la rejilla A, de forma que determinas partes del motivo
dentro de la rejilla pueden de hecho repetirse dentro de la
rejilla, pero a cierta distancia entre sí.
En la etapa 110, las imágenes del objeto O están
dispuestas mediante la captación simultánea de dos imágenes del
objeto O, esto es I_{1} e I_{2}, respectivamente, con el motivo
A superpuesto sobre el objeto, según se ilustra de forma
esquemática en la Fig. 4.
En la etapa 120, estas imágenes pueden a
continuación se procesadas para identificar cada parte de la imagen
I_{2}, como correspondiente a una parte de la imagen I_{1}, de
acuerdo con la distribución singular de los píxeles en blanco y
negro, de acuerdo con lo descrito más adelante en la presente
memoria. Cualquier procedimiento de descodificación de
reconocimiento de motivos o de coincidencia de motivos apropiado
puede utilizarse con este fin. Cuando se observa superpuesto sobre
el objeto, el motivo A aparecerá distorsinado de acuerdo con la
topografía del objeto O, y así mismo el tipo y extensión de esta
"distorsión" generalmente variará con el ángulo de visión con
respecto al objeto O. Cada imagen I_{1}, I_{2}, comprenderá un
motivo, A_{1}, A_{2}, los cuales aparecerán distorsinados con
respecto al motivo original A, y en general diferente una de otra,
dado que, como es sabido, la proyección de una entidad en 3D como
puede ser una curva, por ejemplo, en planos en 2D produce dos curvas
diferentes en estos planos.
La primera imagen I_{1} puede considerarse
como una imagen codificada del objeto O, y consiste en una
pluralidad de píxeles en blanco y negro dentro de una matriz
rectangular global, y esta matriz se divide en todas las posibles
matrices locales [nxm], las cuales pueden de estar forma
superponerse algunas veces entre sí hasta cierto punto, de forma
que a cada píxel de la primera imagen I_{1} se le pueda asignar
una matriz [nxm] centrada sobre él. Por supuesto, los píxeles de
los bordes y las esquinas de la imagen pueden tener solo una parte
de dicha matriz asociada con ellos, y el procedimiento siguiente
puede aplicarse a dichas matrices, mutatis mutandis. Por
ejemplo, dichas matrices [nxm] son [5 x 5] matrices, aunque el
tamaño y la relación entre dimensiones de las matrices puede variar
dependiendo del tamaño y de otras características de la imagen
I1.
Un procedimiento de "descodificación"
ejemplar con respecto a la segunda imagen se ejecuta como sigue, y
se basa en técnicas de codificación de vecindad. Tomando como
ejemplo la matriz M_{1} en la imagen I_{1}, por ejemplo como
una matriz [5 x 5] centrada sobre un píxel con unas coordenadas
(x_{1}, y_{1}) en la imagen I_{1}, se dirige una búsqueda en
la otra imagen, I_{2}, para encontrar el emplazamiento de una
matriz similar dentro de la cual su motivo de píxeles en blanco y
negro se correlacione del mejor modo con el motivo de píxeles de la
matriz M_{1}. Cuando esta matriz, M_{2}, se encuentra, las
coordenadas de su centro, (x_{2}, y_{2}) son anotadas. Estas
coordenadas centrales pueden referirse a un píxel o, como una
alternativa, pueden emplearse determinados procedimientos apropiados
para proporcionar un nivel de precisión de subpíxel para estas
coordenadas. Esta operación se repite para cada píxel (y así para
cada matriz posible [nxm] de píxeles) en la imagen I_{1},
cartografiando de manera efectiva con ello las coordenadas de los
centros de pixeles en la imagen I_{1} con respecto a los de la
imagen I_{2}. De esta manera, cada parte de la imagen I_{1}
puede cartografiarse de manera efectiva con respecto a la imagen
I_{2}.
Cuando la rejilla A comprenda solo una
singularidad local y por tanto haya una repetición del motivo dentro
de la rejilla, es posible no obstante encontrar la correspondencia
entre las dos imágenes y por tanto cartografiar cada matriz desde
la imagen I_{2} hasta la imagen I_{2}. Esto puede llevarse a
cabo, por ejemplo, mediante la asociación de cada matriz en
I_{1}, digamos, por ejemplo, M_{1}, con una pluralidad de otras
matrices M_{1n} que estén situadas en íntima proximidad a, esto
es, en la vecindad de, M_{1}. Si hay una pluralidad de matrices
M_{2}' en la segunda imagen M_{2} que se correlacione con
M_{1}, entonces la matriz concreta de las matrices M_{2}' que
tenga en su vecindad las matrices M_{2n} que estén correlacionadas
con dichas referidas matrices M_{1n} se escoge como la matriz
correspondiente a M_{1}.
Como una alternativa, mejor que utilizar una
rejilla aleatoria en una escala de grises, es posible utilizar en
su lugar una rejilla aleatoria en base a una escala de colores, por
ejemplo de acuerdo con lo descrito en la referencia anteriormente
mencionada "Estrategias de Codificación de Motivos en Sistemas de
Luz Estructuradas" ["Pattern Codification Strategies in
Structured Light Systems"], cuyo contenido se incorpora en su
totalidad en la presente memoria.
En la etapa 130 de la etapa II del
procedimiento, y con referencia a la Fig. 5, un segundo motivo
estructurado, se proyecta sobre el objeto O y se toman dos imágenes
adicionales, comprendiendo las imágenes K_{1}, K_{2}, como se
ilustra en la Fig. 6. El segundo motivo estructurado es ahora un
motivo periódico, típicamente un motivo de iluminación B en tiras
constituido por una formación de tiras separadas, esto es,
comprendiendo sustancialmente tiras paralelas de píxeles blancos
separados por tiras de píxeles negros. Como una alternativa, el
motivo B puede estar compuesto por cualquier combinación deseada de
colores.
En la etapa 140, cada parte de cada una de las
tiras o líneas L_{1}, L_{2}, ... L_{n} en una imagen o
imagen K_{1} puede ser identificada y marcada como correspondiente
con un número de línea concreto L_{1}', L_{2}' ... L_{n}' en
la otra imagen o imagen K_{2}, por ejemplo, como sigue.
Con referencia a la Fig. 7, y tomando una línea
L_{3} en la imagen K_{1}, por ejemplo, sus puntos centrales
q_{n} se encuentran para cada píxel o conjunto de píxeles a lo
largo de la extensión de la línea L_{3}, y hay diversos
procedimientos conocidos para encontrar con exactitud los puntos
centrales, por ejemplo el procedimiento del cruce de curvas en
punto cero para un punto central de este tipo, q_{0},
correspondiente al píxel n_{0} sus coordenadas se determinan,
digamos, (x_{1}', y_{1}'). A continuación estas coordenadas son
cartografiadas en una imagen K_{2} de acuerdo con la
correspondencia anteriormente obtenida con la iluminación
estructurada en la Etapa I, esto es, con el emplazamiento q_{r}
(x_{2}', y_{2}'). A continuación, en la etapa de marcaje, la
imagen K_{2} se busca en la vecindad de (x_{2}', y_{2}') para
encontrar el segmento de línea L_{i}' de una cualquiera de las
líneas L_{1}', L_{2}' ... L_{n}' que sea máx próxima a
(X_{2}', y_{2}') en la Fig. 7 identificada como L_{3}'.
A continuación, se hacen coincidir los elementos
entre las imágenes K_{1} y K_{2}. En primer lugar, son
identificados los píxeles o conjunto de píxeles Q_{1}, Q_{3} a
lo largo de L3' que tienen los centros q_{1y} y q_{3} más
próximos (x_{2}', y_{2}'). Las coordenadas en K_{2}
correspondientes a las coordenadas más próximas de q_{0},
(x_{1}', y_{1}') de K_{1}, de acuerdo con la fase II, se
consideran que están en alguna parte entre estos centros q_{1},
q_{3}.
En la etapa 150, las coordenadas (X_{1},
Y_{1}) del objeto O correspondientes a (x_{1}', y_{1}') son
entonces obtenidas como sigue. Un rayo espacial P_{1} se define
por el punto q_{0} (x_{1}', y_{1}') y el centro de proyección
CP_{1} de la imagen K_{1}. A continuación, se define un plano S
por los puntos q_{1}, q_{3} y el centro de proyección CP_{2}
de la imagen K_{2}. El punto de intersección D del rayo P_{1}
con el plano S proporciona las coordenadas (X_{1}, Y_{1}) del
objeto O o su estrecha estimación.
Como alternativa, y como se ilustra en la Fig.
8, las coordenadas (X_{1}, Y_{1}) del objeto O correspondientes
a (x_{1}', y_{1}') se obtienen como sigue. Un rayo espacial
P_{1} se define por el punto (x_{1}', y_{1}') y el centro de
proyección CP_{1} de la imagen K_{1}. A continuación la imagen
K_{2} es interpolada para proporcionar las coordenadas del punto
central q_{5} de la línea L_{3}' que tiene la misma coordenada
y_{2}' que el punto cartografiado q_{r} (x_{2}', y_{2}'). El
punto q_{5} se considera que se hace coincidir con el punto
q_{0}. A continuación, un rayo espacial P_{2} se define por el
punto q5 y el centro de proyección CP_{2} de la imagen K_{2}. A
continuación pueden utilizarse procedimientos de triangulación para
encontrar la intersección D' de los rayos P_{1}, P_{2}, o al
menos el punto de distancia mínima entre P_{1} y P_{2}, y ello
proporciona las coordenadas del punto (X_{1}, Y_{1}) o su
estimación próxima.
Como otra alternativa, y como se ilustra en la
Fig. 9, puede utilizarse un procedimiento a base de reconstrucción
de epipolo para obtener las coordenadas del punto D'' (X_{1},
Y_{1}) del objeto O correspondiente a q_{0} (x_{1}',
y_{1}'). Primeramente, las coordenadas de q_{0} (x_{1}',
y_{1}') son cartografiadas sobre el punto q_{r} (x_{2}',
y_{2}') sobre la imagen K_{2} de acuerdo con la correspondencia
anteriormente obtenida con la iluminación estructurada en la Etapa
I. A continuación, como antes, se busca la imagen K_{2} en la
vecindad de (x_{2}', y_{2}') para encontrar el segmento de línea
L_{i}' de cualquiera de las líneas L_{1}', L_{2}', ....
L_{n}' que sea más próximo a (x_{2}', y_{2}'), esto es,
L_{3}'. Un rayo espacial P_{1} se define por el punto q_{0} y
el centro de proyección CP_{1} de la imagen K_{1}, y por tanto
pasa a través del punto D''. Una línea epipolar EPL conecta CP_{1}
con el centro de proyección CP_{2} de la imagen K_{2}, y las
imágenes K_{1} y K_{2} en los epipolos EP_{1} y EP_{2},
respectivamente. La proyección del punto D'' sobre la imagen
K_{2} es constreñida para situarse sobre la línea epipolar PP, la
cual pasa a través de EP_{2}, y la relación entre D'' y PP se
describe por la correspondiente matriz Fundamental, como es
conocido en la técnica. A continuación, el locus de los puntos
centrales LCP de L_{3}', encontrado utilizando cualquier
procedimiento apropiado, como por ejemplo el procedimiento de cruce
de curvas en punto cero, es entrecruzado por la línea epipolar EE
para proporcionar la coordenadas del punto central q_{5}'
correspondiente a q_{0}. El punto q_{5}' se considera que
coincide con el punto q_{0}. A continuación pueden utilizarse
procedimientos epipolares para determinar las coordenadas del punto
D, (X_{1}, Y_{1}).
Opcionalmente, la primera etapa del
procedimiento puede llevarse a cabo sin la necesidad de una rejilla
A si el objeto O comprende un motivo de superficie apropiado
estructurado, utilizando luz no estructurada. En este caso, solo es
necesario obtener dos imágenes del objeto y cartografiar las
coordenadas de una imagen sobre la otra imagen por medio de
técnicas de coincidencia de motivos apropiadas sobre la base de la
singularidad local de este motivo de superficie.
Con referencia a la Fig. 2, el procedimiento de
la invención de acuerdo con esta forma de realización puede
llevarse a cabo utilizando un sistema 200. El sistema 200
proporciona la iluminación requerida para la Etapa I y Etapa II
utilizando un proyector P, y al menos dos imágenes se obtienen con
dos cámaras C_{1} y C_{2}, en ángulos diferentes con respecto
al objeto O. Típicamente estas imágenes se toman sustancialmente de
forma simultánea. Como alternativa puede utilizarse una sola cámara
que se desplace entre al menos dos posiciones en ángulos diferentes
para proporcionar las dos imágenes. Un medio de microprocesador (no
mostrado) como por ejemplo una computadora apropiada procesa las
imágenes obtenidas por las cámaras C_{1} y C_{2}, típicamente
por medio de un capturador de imágenes, de acuerdo con el
procedimiento de la invención.
Hay muchas formas de iluminar el objeto, por
ejemplo, puede utilizarse un cuerpo fotoemisor que incorpore una
máscara, posibilitando selectivamente la máscara que o bien el
motivo A o el motivo B sean iluminados sobre el objeto. La mascara
puede ser una denominada máscara "pasiva", por ejemplo dos
máscaras que definan unos motivos fijos A y B, respectivamente
susceptibles de emplazamiento de forma selectiva sobre la
trayectoria óptica de luz generada por el cuerpo fotoemisor. Dicha
máscara pasiva puede consistir en un disco rotatorio, una de cuyas
mitades comprenda el motivo A y la otra mitad el motivo B, y el
disco es rotado en un ángulo de 180º para situar la mitad requerida
en alineación con el cuerpo emisor.
Como alternativa, la máscara puede ser una
máscara denominada "activa", consistente en un fotomodulador
espacial (SLM) operativamente conectado a un módulo de control, y
bajo el control de este último, el SLM proporciona el motivo A o el
motivo B requeridos.
Como alternativa, el cuerpo fotoemisor mismo
puede estar configurado para generar luz estructurada. Esto puede
llevarse a cabo utilizando una matriz de elementos fotoemisores.
Dicha matriz puede diseñarse de acuerdo con un motivo fijo A o B, o
puede configurarse como un modulador fotoemisor apropiado,
operativamente conectado a un módulo de control, para iluminar de
forma selectiva el objeto con el motivo A o el motivo B.
Como alternativa, puede utilizarse una
disposición de mancha por láser para proporcionar el motivo
aleatorio.
En otras formas de realización, pueden
utilizarse más de dos cámaras cada una de las cuales capte una
imagen del objeto iluminado con el motivo aleatorio A, y cada una
de las imágenes se correlaciona con las otras imágenes de forma
similar a la anteriormente descrita, mutatis mutandis.
La relación espacial entre las cámaras C_{1},
C_{2}, el proyector P y el objeto O preferentemente no se
modifica de manera sustancial desde el momento que el primero y el
segundo conjunto de imágenes fueron adquiridas, y por tanto
típicamente, los conjuntos de imágenes I_{1}, I_{2}, y K_{1},
K_{2}, son tomados en una sucesión muy rápida. No obstante, es
posible que se produzca algún movimiento relativo sin que afecte a
la precisión, típicamente cuando dicho movimiento es inferior a la
mitad de la distancia entre las líneas del motivo de iluminación B
con tiras.
Una segunda forma de realización de la invención
se ilustra en la Fig. 10 y comprende todos los elementos de la
primera forma de realización con las siguientes diferencias,
mutatis mutandis.
En la segunda forma de realización, el segundo
conjunto de imágenes comprende el mismo motivo estructurado
singularmente codificado que se utiliza para iluminar el objeto.
Así, el objeto O es iluminado con una iluminación estructurada, en
la Etapa I, comprendiendo un motivo de píxeles aleatorio o cuasi
aleatorio, por ejemplo el motivo O (Fig. 11a), de forma que
preferentemente cada matriz de [nxm] píxeles del motivo es singular.
Sin embargo, solo una imagen es captada por una cámara o elemento
similar, proporcionando una imagen I_{3} del objeto O, con el
motivo superpuesto sobre el objeto, como se ilustra en la Fig. 11b,
siendo la otra "imagen" de este conjunto el motivo A mismo
(Fig. 11a). Como en la primera forma de realización, el motivo A
aparecerá distorsionado visto superpuesto sobre el objeto, con
respecto al motivo original A. En esta forma de realización, más
que encontrar la correspondencia entre dos imágenes tomadas por
diferentes cámaras, la imagen I_{3} es correlacionada con el
motivo original A. De forma similar a la primera forma de
realización, sin embargo, el motivo A se divide en todas las
posibles [nxm] matrices, las cuales pueden por consiguiente
superponerse algunas veces unas sobre otras hasta cierto punto, y
se intenta cartografiar cada píxel del motivo A sobre un
emplazamiento correspondiente en I_{3}. Típicamente, dichas [nxm]
matrices son [5 x 5] matrices, aunque el tamaño y la relación entre
dimensiones de la matriz pueden variar dependiendo del tamaño y de
otras características de la imagen I_{3}.
Así, de manera similar a la descrita para la
primera forma de realización mutatis mutandis, la imagen
I_{3} es descodificada de modo efectivo para proporcionar la
correspondencia entre las coordenadas digamos, los puntos nodales de
la rejilla A y de la imagen I_{3}.
En la Etapa II, una iluminación estructurada
periódica como por ejemplo un motivo de iluminación B en tiras
(Fig. 12a), por ejemplo, se proyecta sobre el objeto O, y es tomada
una imagen K_{3}, como se ilustra en la Fig. 12b. Aquí, el
segundo conjunto de imágenes comprende el segundo motivo B, y una
imagen es tomada de B superpuesta sobre el objeto O. Cada parte de
cada una de las tiras o líneas del motivo original B puede ser
identificada como correspondiente a un número de líneas concreto en
la otra imagen K_{3}, y cada punto central de cada dicha parte
puede hacerse coincidir con una parte correspondiente en una línea
en K_{3} que ha sido marcada con respecto a la parte de la línea
del motivo original B, para proporcionar las coordenadas del
objeto, de manera similar a la descrita para la primera forma de
realización con respecto a las imágenes K_{1}, K_{2}, mutatis
mutandis.
De acuerdo con esta forma de realización, el
procedimiento de la invención puede llevarse a cabo utilizando un
sistema 200', el cual proporciona la iluminación requerida para la
etapa I y la etapa II, utilizando un proyector P, y comprende una
cámara C, alineada en un ángulo diferente con respecto al objeto O
respecto del proyector P. Un medio de microprocesador (no mostrado)
como por ejemplo cualquier computadora apropiada procesa las
imágenes obtenidas por la cámara C típicamente por medio de un
captador de imágenes, junto con los motivos A y B, de acuerdo con
el procedimiento de la invención.
La relación espacial entre la cámara C y el
proyector P y el objeto O preferentemente no resulta modificada de
forma sustancial desde el momento en que las imágenes I_{3} y
K_{3} fueron obtenidas, y por tanto, típicamente, las imágenes
I_{3} y K_{3} son tomadas en sucesión muy rápida. No obstante,
es posible que algún movimiento relativo se produzca sin afectar a
la precisión, típicamente cuando dicho movimiento es inferior a la
distancia entre las líneas del motivo de iluminación B en tiras.
En las reivindicaciones del procedimiento que
siguen, los caracteres y numerales romanos utilizados para designar
las etapas de las reivindicaciones se ofrecen solo por motivos de
comodidad y no implican ningún orden en particular para llevar a
cabo las etapas.
Finalmente, debe destacarse que la expresión
"que comprende(n)" tal como se utiliza a lo largo de
las reivindicaciones adjuntas debe interpretarse como significativa
de "que incluye(n) pero no se limita(n) a".
Claims (31)
1. Un procedimiento para la reconstrucción de la
superficie en tres dimensiones de un objeto caracterizado por
las etapas de:
- a)
- obtener un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre la superficie de aquél, y determinar una correspondencia de puntos de imágenes entre imágenes de dicho primer conjunto de imágenes;
- b)
- obtener un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre aquél, y marcar dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes en base a la correspondencia determinada en a);
- c)
- hacer coincidir determinados elementos entre imágenes de dicho segundo conjunto de imágenes en base al marcaje determinado en b); y
- d)
- determinar las coordenadas espaciales del objeto a partir de los elementos que se han hecho coincidir de dichas imágenes de dicho segundo conjunto de imágenes en b).
\vskip1.000000\baselineskip
2. El procedimiento de acuerdo con la
reivindicación 1 en el que la etapa a) comprende las etapas de:
- A)
- obtener dicho primer conjunto de imágenes de dicho objeto, en el que dicho primer motivo estructurado se define por medio de un motivo estructurado de codificación única de luz estructurada iluminada sobre el objeto; y
- B)
- encontrar una correspondencia entre puntos de imágenes de entre dicho conjunto de imágenes mediante el cartografiado de las coordenadas de una imagen sobre al menos otra imagen en base a la codificación relacionada con el primer motivo estructurado.
\vskip1.000000\baselineskip
3. El procedimiento de acuerdo con la
reivindicación 2, en el que dicho segundo motivo estructurado
comprende un motivo estructurado periódico iluminado sobre el
objeto.
4. El procedimiento de acuerdo con la
reivindicación 3, en el que dicho primer conjunto de imágenes
comprende al menos dos imágenes en ángulos diferentes con respecto
a dicho objeto.
5. El procedimiento de acuerdo con la
reivindicación 4, en el que dichas al menos dos imágenes son
captadas como imágenes.
6. El procedimiento de acuerdo con la
reivindicación 5, en el que dichas al menos dos imágenes son
captadas sustancialmente de forma simultánea.
7. El procedimiento de acuerdo con la
reivindicación 4, en el que una imagen de dicho primer conjunto de
imágenes comprende dicho motivo estructurado codificado de forma
singular y al menos otra imagen de dicho primer conjunto de
imágenes es captada como imagen.
8. El procedimiento de la reivindicación 4, en
el que dicho motivo estructurado codificado de forma singular
comprende una formación de dos dimensiones que tiene una
distribución aleatoria o pseudoaleatoria de elementos negros y
blancos.
9. El procedimiento de acuerdo con la
reivindicación 7, en el que una técnica de coincidencia de motivos
se utiliza para encontrar una coincidencia de puntos de imágenes en
la etapa a).
10. El procedimiento de acuerdo con la
reivindicación 3, en el que dicho segundo conjunto de imágenes
comprende al menos dos imágenes en ángulos diferentes con respecto
a dicho objeto.
11. El procedimiento de acuerdo con la
reivindicación 10, en el que dichas al menos dos imágenes son
captadas como imágenes.
12. El procedimiento de acuerdo con la
reivindicación 11, en el que dichas al menos dos imágenes son
captadas sustancialmente de forma simultánea.
13. El procedimiento de acuerdo con la
reivindicación 10, en el que una imagen de dicho segundo conjunto de
imágenes comprende dicho motivo periódico, y al menos otra imagen
de dicho conjunto de imágenes es captada como imagen.
14. El procedimiento de acuerdo con la
reivindicación 10, en el que dicho motivo periódico comprende una
primera pluralidad de tiras de una primera intensidad o color
intercaladas con respecto a una segunda pluralidad de tiras de una
segunda intensidad o color.
15. El procedimiento de acuerdo con la
reivindicación 14, en el que dicha primera pluralidad de tiras
comprende píxeles blancos y dicha segunda pluralidad de tiras
comprende píxeles negros.
16. El procedimiento de acuerdo con la
reivindicación 14, en el que:
- i)
- un primer elemento de una primera imagen de dicho segundo conjunto de imágenes está asociado de acuerdo con una primera técnica de asociación con un primer punto de imagen de dicho primer conjunto de imágenes;
- ii)
- se determina un segundo punto de imagen de una segunda imagen de dicho primer conjunto de imágenes que tiene correspondencia con dicho primer conjunto de imágenes; y
- iii)
- dicho segundo punto de imagen está asociado con un segundo elemento de una segunda imagen de un segundo conjunto de imágenes de acuerdo con una técnica de asociación, en el que dicho segundo elemento coincide con dicho primer elemento.
17. El procedimiento de acuerdo con la
reivindicación 16, en el que de acuerdo con dicha primera técnica de
asociación, dicho primer elemento es un elemento de imagen dentro
de sustancialmente el mismo emplazamiento espacial que dicho primer
punto de imagen con respecto a sus imágenes respectivas.
18. El procedimiento de acuerdo con la
reivindicación 16, en el que de acuerdo con dicha segunda técnica de
asociación, dicho segundo elemento es un elemento de imagen dentro
de un emplazamiento espacial con relación a su imagen que está en o
en íntima proximidad al emplazamiento de dicho segundo punto de
imagen con respecto a su imagen.
19. El procedimiento de acuerdo con la
reivindicación 16, en el que dicho primer elemento comprende el
punto central de una fila de píxeles de dicha tira de dicha
pluralidad de tiras comprendida en dicha primera imagen de dicho
segundo conjunto de imágenes.
20. El procedimiento de acuerdo con la
reivindicación 16, en el que dicho segundo elemento comprende el
punto central de una fila de píxeles de dicha tira de dicha
pluralidad de tiras comprendida en dicha segunda imagen de dicho
segundo conjunto de imágenes.
21. El procedimiento de acuerdo con la
reivindicación 1 en el que:
- i)
- un primer elemento en una primera imagen de dicho segundo conjunto de imágenes está asociado de acuerdo con una primera técnica de asociación con un primer punto de imagen de una primera imagen de dicho primer conjunto de imágenes;
- ii)
- se determina un segundo punto de imagen de una segunda imagen de dicho primer conjunto de imágenes que tiene correspondencia con dicho primer punto de imagen; y
- iii)
- dicho segundo punto de imagen es asociado con un segundo elemento de una segunda imagen de dicho segundo conjunto de imágenes de acuerdo con una segunda técnica de asociación, en el que dicho segundo elemento coincide con dicho primer elemento.
22. El procedimiento de acuerdo con la
reivindicación 21, en el que de acuerdo con dicha primera técnica
de asociación, dicho primer elemento es un elemento de imagen
dentro sustancialmente del mismo emplazamiento espacial que dicho
primer punto de imagen con respecto a sus imágenes respectivas.
23. El procedimiento de acuerdo con la
reivindicación 21, en el que de acuerdo con dicha segunda técnica
de asociación, dicho segundo elemento es un elemento de imagen
dentro de un emplazamiento espacial con respecto a su imagen que
está en o en íntima proximidad con el emplazamiento de dicho segundo
punto de imagen con respecto a su imagen.
24. El procedimiento de acuerdo con la
reivindicación 21, en el que dicho primer elemento comprende el
punto central de una fila de píxeles de dicha tira de dicha primera
pluralidad de tiras comprendidas en dicha primera imagen de dicho
segundo conjunto de imágenes.
25. El procedimiento de acuerdo con la
reivindicación 21, en el que dicho segundo elemento comprende el
tercer punto de una fila de píxeles de dicha tira de dicha primera
pluralidad de tiras comprendida en dicha segunda imagen de dicho
segundo conjunto de imágenes.
\newpage
26. El procedimiento de acuerdo con la
reivindicación 1, en el que la etapa d) se basa en técnicas de
triangulación.
27. El procedimiento de acuerdo con la
reivindicación 1, en el que la etapa d) se basa en técnicas de
reconstrucción epipolar.
28. Un procedimiento para hacer coincidir unos
puntos entre las imágenes de un primer conjunto de imágenes de un
objeto caracterizado por las etapas de:
- a)
- obtener dicho primer conjunto de imágenes del objeto que tengan un primer motivo estructurado sobre aquél;
- b)
- obtener un segundo conjunto de imágenes del objeto que tengan un segundo motivo estructurado sobre su superficie, y determinar una correspondencia de puntos de imagen entre las imágenes de dicho segundo conjunto de imágenes;
- c)
- marcar unos elementos de dicho primer motivo estructurado entre imágenes de dicho primer conjunto de imágenes en base a la correspondencia determinada en d);
- d)
- hacer coincidir unos puntos comprendidos en unos elementos entre los elementos marcados en c).
29. Un sistema para la reconstrucción de la
superficie en tres dimensiones de un objeto que comprende:
- I)
- un proyector adaptado para iluminar de manera selectiva dicho objeto con un primer motivo estructurado y un segundo motivo estructurado;
- II)
- al menos una cámara para obtener imágenes de dicho objeto cuando es iluminado con dicho primer motivo estructurado y un segundo motivo estructurado;
- III)
- un medio de microprocesador para determinar la topología de superficie en tres dimensiones de dicho objeto en base a dichas imágenes,
de acuerdo con el procedimiento de una
cualquiera de las reivindicaciones 1 a 27.
30. Unas instrucciones de almacenaje sobre un
medio legible por computadora para programar un medio de
microprocesador de un sistema de acuerdo con lo definido en la
reivindicación 29 para llevar a cabo un procedimiento de acuerdo
con lo definido en una cualquiera de las reivindicaciones 1 a
27.
31. Una unidad de control para su uso en la
reconstrucción de la superficie en tres dimensiones de un objeto,
caracterizado por estar preprogramada dicha unidad de control
para llevar a cabo
- i)
- un procesamiento de datos indicativos de un primer conjunto de imágenes del objeto que tenga un primer motivo estructurado sobre su superficie, y una determinación de una correspondencia de puntos de imagen entre las imágenes de dicho primer conjunto de imágenes;
- ii)
- la utilización de dicha correspondencia para procesar un segundo conjunto de imágenes del objeto que tenga un segundo motivo estructurado sobre él para hacer coincidir unos elementos de dicho segundo motivo estructurado entre imágenes de dicho segundo conjunto de imágenes;
- iii)
- el análisis de los elementos que se han hecho coincidir para determinar las coordenadas espaciales del objeto.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US49058603P | 2003-07-24 | 2003-07-24 | |
US490586P | 2003-07-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2313036T3 true ES2313036T3 (es) | 2009-03-01 |
Family
ID=34102988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES04745012T Active ES2313036T3 (es) | 2003-07-24 | 2004-07-22 | Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. |
Country Status (8)
Country | Link |
---|---|
US (1) | US20070057946A1 (es) |
EP (1) | EP1649423B1 (es) |
JP (1) | JP2006528770A (es) |
AT (1) | ATE404952T1 (es) |
CA (1) | CA2529498A1 (es) |
DE (1) | DE602004015799D1 (es) |
ES (1) | ES2313036T3 (es) |
WO (1) | WO2005010825A2 (es) |
Families Citing this family (111)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE112005002690B4 (de) * | 2004-11-01 | 2013-05-29 | Cognitens Ltd. | Verfahren und System zur optischen Kantenbestimmung |
WO2006074310A2 (en) * | 2005-01-07 | 2006-07-13 | Gesturetek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
CN100427876C (zh) * | 2005-05-26 | 2008-10-22 | 上海交通大学 | 料场测量的计算机视觉系统自动测量的方法 |
CN100414249C (zh) * | 2005-05-26 | 2008-08-27 | 上海交通大学 | 料场测量的计算机自动测量的视觉系统 |
FR2889303B1 (fr) * | 2005-07-26 | 2008-07-11 | Airbus France Sas | Procede de mesure d'une anomalie de forme sur un panneau d'une structure d'aeronef et systeme de mise en oeuvre |
US8390821B2 (en) * | 2005-10-11 | 2013-03-05 | Primesense Ltd. | Three-dimensional sensing using speckle patterns |
US9330324B2 (en) | 2005-10-11 | 2016-05-03 | Apple Inc. | Error compensation in three-dimensional mapping |
EP1934945A4 (en) * | 2005-10-11 | 2016-01-20 | Apple Inc | METHOD AND SYSTEM FOR RECONSTRUCTING AN OBJECT |
US20110096182A1 (en) * | 2009-10-25 | 2011-04-28 | Prime Sense Ltd | Error Compensation in Three-Dimensional Mapping |
WO2007079805A1 (de) * | 2006-01-08 | 2007-07-19 | Hermann Tropf | Erstellung eines abstandsbildes |
DE102006001634B3 (de) * | 2006-01-11 | 2007-03-01 | Tropf, Hermann | Erstellung eines Abstandsbildes |
CN101501442B (zh) | 2006-03-14 | 2014-03-19 | 普莱姆传感有限公司 | 三维传感的深度变化光场 |
KR101408959B1 (ko) * | 2006-03-14 | 2014-07-02 | 프라임센스 엘티디. | 삼차원 감지를 위한 깊이 가변 광 필드 |
DE102006049695A1 (de) * | 2006-10-16 | 2008-04-24 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum berührungslosen Erfassen einer dreidimensionalen Kontur |
EP2084491A2 (en) | 2006-11-21 | 2009-08-05 | Mantisvision Ltd. | 3d geometric modeling and 3d video content creation |
US8090194B2 (en) | 2006-11-21 | 2012-01-03 | Mantis Vision Ltd. | 3D geometric modeling and motion capture using both single and dual imaging |
DE102006061712A1 (de) * | 2006-12-28 | 2008-07-03 | Tropf, Hermann | Erstellung eines Abstandsbildes |
US8350847B2 (en) | 2007-01-21 | 2013-01-08 | Primesense Ltd | Depth mapping using multi-beam illumination |
TW200834471A (en) * | 2007-02-15 | 2008-08-16 | Ind Tech Res Inst | Image filling methods, and machine readable medium thereof |
TWI433052B (zh) * | 2007-04-02 | 2014-04-01 | Primesense Ltd | 使用投影圖案之深度製圖 |
US8150142B2 (en) * | 2007-04-02 | 2012-04-03 | Prime Sense Ltd. | Depth mapping using projected patterns |
US8172407B2 (en) * | 2007-05-16 | 2012-05-08 | Honda Motor Co., Ltd. | Camera-projector duality: multi-projector 3D reconstruction |
EP2163847B1 (en) * | 2007-06-15 | 2013-10-16 | Kabushiki Kaisha Toshiba | Instrument for examining/measuring an object to be measured |
US8494252B2 (en) | 2007-06-19 | 2013-07-23 | Primesense Ltd. | Depth mapping using optical elements having non-uniform focal characteristics |
EP2977719A1 (en) * | 2007-08-17 | 2016-01-27 | Renishaw plc | Non-contact measurement apparatus and method |
US8456517B2 (en) * | 2008-07-09 | 2013-06-04 | Primesense Ltd. | Integrated processor for 3D mapping |
US20100110264A1 (en) * | 2008-10-31 | 2010-05-06 | Lucent Technologies, Inc. | Image projection system |
US8462207B2 (en) | 2009-02-12 | 2013-06-11 | Primesense Ltd. | Depth ranging with Moiré patterns |
US8786682B2 (en) * | 2009-03-05 | 2014-07-22 | Primesense Ltd. | Reference image techniques for three-dimensional sensing |
US8717417B2 (en) | 2009-04-16 | 2014-05-06 | Primesense Ltd. | Three-dimensional mapping and imaging |
US9582889B2 (en) | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
GB0915904D0 (en) | 2009-09-11 | 2009-10-14 | Renishaw Plc | Non-contact object inspection |
US8830227B2 (en) | 2009-12-06 | 2014-09-09 | Primesense Ltd. | Depth-based gain control |
JP4783456B2 (ja) * | 2009-12-22 | 2011-09-28 | 株式会社東芝 | 映像再生装置及び映像再生方法 |
US20110187878A1 (en) * | 2010-02-02 | 2011-08-04 | Primesense Ltd. | Synchronization of projected illumination with rolling shutter of image sensor |
US8786757B2 (en) * | 2010-02-23 | 2014-07-22 | Primesense Ltd. | Wideband ambient light rejection |
US8982182B2 (en) * | 2010-03-01 | 2015-03-17 | Apple Inc. | Non-uniform spatial resource allocation for depth mapping |
EP2568253B1 (en) * | 2010-05-07 | 2021-03-10 | Shenzhen Taishan Online Technology Co., Ltd. | Structured-light measuring method and system |
CN102939562B (zh) * | 2010-05-19 | 2015-02-18 | 深圳泰山在线科技有限公司 | 目标投影方法以及系统 |
CN101913516B (zh) * | 2010-08-03 | 2013-05-29 | 中冶焦耐(大连)工程技术有限公司 | 带式输送机胶带收卷卷筒 |
US9098931B2 (en) | 2010-08-11 | 2015-08-04 | Apple Inc. | Scanning projectors and image capture modules for 3D mapping |
EP2442067A1 (de) * | 2010-10-14 | 2012-04-18 | Baumer Innotec AG | Vorrichtung und Verfahren zur dreidimensionalen Bilderfassung |
US9066087B2 (en) | 2010-11-19 | 2015-06-23 | Apple Inc. | Depth mapping using time-coded illumination |
US9167138B2 (en) | 2010-12-06 | 2015-10-20 | Apple Inc. | Pattern projection and imaging using lens arrays |
DE102011010265A1 (de) * | 2011-02-01 | 2012-08-02 | Friedrich-Schiller-Universität Jena | Verfahren zur dreidimensionalen Rekonstruktion von Objekten unter Verwendung von Streifenprojektionsmustern |
US20140002610A1 (en) * | 2011-03-15 | 2014-01-02 | Board Of Trustees Of Michigan State University | Real-time 3d shape measurement system |
US9857868B2 (en) | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US9030528B2 (en) | 2011-04-04 | 2015-05-12 | Apple Inc. | Multi-zone imaging sensor and lens array |
US8840466B2 (en) | 2011-04-25 | 2014-09-23 | Aquifi, Inc. | Method and system to create three-dimensional mapping in a two-dimensional game |
DE102011101476B4 (de) | 2011-05-11 | 2023-05-25 | Cognex Ireland Ltd. | Verfahren zur 3D-Messung von Objekten |
US8686943B1 (en) | 2011-05-13 | 2014-04-01 | Imimtek, Inc. | Two-dimensional method and system enabling three-dimensional user interaction with a device |
WO2012160470A1 (en) * | 2011-05-24 | 2012-11-29 | Koninklijke Philips Electronics N.V. | 3d scanner using structured lighting |
KR101789683B1 (ko) | 2011-06-13 | 2017-11-20 | 삼성전자주식회사 | 디스플레이 장치 및 그의 제어 방법, 그리고 리모컨 장치 |
US8869073B2 (en) * | 2011-07-28 | 2014-10-21 | Hewlett-Packard Development Company, L.P. | Hand pose interaction |
US9295532B2 (en) | 2011-11-10 | 2016-03-29 | Carestream Health, Inc. | 3D intraoral measurements using optical multiline method |
US9349182B2 (en) | 2011-11-10 | 2016-05-24 | Carestream Health, Inc. | 3D intraoral measurements using optical multiline method |
DE102011121696A1 (de) * | 2011-12-16 | 2013-06-20 | Friedrich-Schiller-Universität Jena | Verfahren zur 3D-Messung von tiefenlimitierten Objekten |
US8854433B1 (en) | 2012-02-03 | 2014-10-07 | Aquifi, Inc. | Method and system enabling natural user interface gestures with an electronic system |
JP5985661B2 (ja) | 2012-02-15 | 2016-09-06 | アップル インコーポレイテッド | 走査深度エンジン |
EP2817587B1 (de) * | 2012-02-21 | 2018-12-19 | Testo AG | Messverfahren und messvorrichtung zur herstellung eines 3d-ortaufgelösten messergebnisses in einem nicht-sichtbaren spektralbereich |
JP2013210254A (ja) * | 2012-03-30 | 2013-10-10 | Canon Inc | 三次元計測装置、三次元計測方法及び三次元計測プログラム |
US8934675B2 (en) | 2012-06-25 | 2015-01-13 | Aquifi, Inc. | Systems and methods for tracking human hands by performing parts based template matching using images from multiple viewpoints |
US8836768B1 (en) | 2012-09-04 | 2014-09-16 | Aquifi, Inc. | Method and system enabling natural user interface gestures with user wearable glasses |
DE102012022952A1 (de) * | 2012-11-16 | 2014-05-22 | Friedrich-Schiller-Universität Jena | Verfahren und System zum berührungslosen Erfassen einer dreidimensionalen Oberfläche eines Objekts |
US20140152771A1 (en) * | 2012-12-01 | 2014-06-05 | Og Technologies, Inc. | Method and apparatus of profile measurement |
US9129155B2 (en) | 2013-01-30 | 2015-09-08 | Aquifi, Inc. | Systems and methods for initializing motion tracking of human hands using template matching within bounded regions determined using a depth map |
JP2016510108A (ja) | 2013-02-13 | 2016-04-04 | 3シェイプ アー/エス | 色を記録する焦点走査装置 |
US9298266B2 (en) | 2013-04-02 | 2016-03-29 | Aquifi, Inc. | Systems and methods for implementing three-dimensional (3D) gesture based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9798388B1 (en) | 2013-07-31 | 2017-10-24 | Aquifi, Inc. | Vibrotactile system to augment 3D input systems |
KR102159996B1 (ko) * | 2013-12-16 | 2020-09-25 | 삼성전자주식회사 | 이벤트 필터링 장치 및 이를 이용한 동작 인식 장치 |
US9507417B2 (en) | 2014-01-07 | 2016-11-29 | Aquifi, Inc. | Systems and methods for implementing head tracking based graphical user interfaces (GUI) that incorporate gesture reactive interface objects |
US9619105B1 (en) | 2014-01-30 | 2017-04-11 | Aquifi, Inc. | Systems and methods for gesture based interaction with viewpoint dependent user interfaces |
KR102424135B1 (ko) * | 2014-02-05 | 2022-07-25 | 크레아폼 인크. | 2개의 카메라로부터의 곡선의 세트의 구조형 광 매칭 |
US10643343B2 (en) | 2014-02-05 | 2020-05-05 | Creaform Inc. | Structured light matching of a set of curves from three cameras |
US10416760B2 (en) | 2014-07-25 | 2019-09-17 | Microsoft Technology Licensing, Llc | Gaze-based object placement within a virtual reality environment |
US9904055B2 (en) | 2014-07-25 | 2018-02-27 | Microsoft Technology Licensing, Llc | Smart placement of virtual objects to stay in the field of view of a head mounted display |
US9766460B2 (en) | 2014-07-25 | 2017-09-19 | Microsoft Technology Licensing, Llc | Ground plane adjustment in a virtual reality environment |
US9858720B2 (en) | 2014-07-25 | 2018-01-02 | Microsoft Technology Licensing, Llc | Three-dimensional mixed-reality viewport |
US10451875B2 (en) | 2014-07-25 | 2019-10-22 | Microsoft Technology Licensing, Llc | Smart transparency for virtual objects |
US10311638B2 (en) * | 2014-07-25 | 2019-06-04 | Microsoft Technology Licensing, Llc | Anti-trip when immersed in a virtual reality environment |
US9865089B2 (en) | 2014-07-25 | 2018-01-09 | Microsoft Technology Licensing, Llc | Virtual reality environment with real world objects |
CN104197861B (zh) * | 2014-08-25 | 2017-03-01 | 深圳大学 | 基于结构光灰度向量的三维数字成像方法 |
ES2680587T3 (es) | 2014-08-28 | 2018-09-10 | Carestream Dental Technology Topco Limited | Mediciones 3-D intraorales usando un procedimiento óptico de múltiples líneas |
CN106796721B (zh) * | 2014-09-11 | 2021-05-04 | 赛博光学公司 | 三维轮廓测量中根据多个相机和源的点云合并 |
DE102014113389A1 (de) | 2014-09-17 | 2016-03-17 | Pilz Gmbh & Co. Kg | Verfahren und Vorrichtung zum Identifizieren von Strukturelementen eines projizierten Strukturmusters in Kamerabildern |
US9881235B1 (en) | 2014-11-21 | 2018-01-30 | Mahmoud Narimanzadeh | System, apparatus, and method for determining physical dimensions in digital images |
JP6484071B2 (ja) | 2015-03-10 | 2019-03-13 | アルプスアルパイン株式会社 | 物体検出装置 |
JP6484072B2 (ja) | 2015-03-10 | 2019-03-13 | アルプスアルパイン株式会社 | 物体検出装置 |
DE102015208285A1 (de) * | 2015-05-05 | 2016-11-10 | Friedrich-Schiller-Universität Jena | Vorrichtung und verfahren zum räumlichen vermessen von oberflächen |
KR101671736B1 (ko) * | 2015-06-02 | 2016-11-03 | 한국생산기술연구원 | 탄소섬유강화플라스틱(cfrp) 부품에 대한 광학 검사 방법 |
JP6554342B2 (ja) * | 2015-06-29 | 2019-07-31 | 国立大学法人 宮崎大学 | 計測システム及び計測方法 |
JP6566768B2 (ja) * | 2015-07-30 | 2019-08-28 | キヤノン株式会社 | 情報処理装置、情報処理方法、プログラム |
CN105184857B (zh) * | 2015-09-13 | 2018-05-25 | 北京工业大学 | 基于点结构光测距的单目视觉重建中尺度因子确定方法 |
US10547830B2 (en) | 2015-11-16 | 2020-01-28 | Samsung Electronics Co., Ltd | Apparatus for and method of illumination control for acquiring image information and depth information simultaneously |
AU2017227599A1 (en) * | 2016-03-01 | 2018-08-30 | Magic Leap, Inc. | Depth sensing systems and methods |
CN106643562B (zh) * | 2016-10-27 | 2019-05-03 | 天津大学 | 基于时域空域混合编码的结构光条纹投射方法 |
CN108151671B (zh) * | 2016-12-05 | 2019-10-25 | 先临三维科技股份有限公司 | 一种三维数字成像传感器、三维扫描系统及其扫描方法 |
CN106802138B (zh) * | 2017-02-24 | 2019-09-24 | 先临三维科技股份有限公司 | 一种三维扫描系统及其扫描方法 |
CN108985119A (zh) * | 2017-05-31 | 2018-12-11 | 华为技术有限公司 | 结构光解码的方法和设备 |
JP6879168B2 (ja) * | 2017-11-01 | 2021-06-02 | オムロン株式会社 | 3次元測定装置、3次元測定方法及びプログラム |
WO2019243046A1 (en) | 2018-06-18 | 2019-12-26 | Lumileds Holding B.V. | Lighting device comprising led and grating |
US11995851B2 (en) * | 2018-10-04 | 2024-05-28 | Isak Du Preez | Optical surface encoder |
CN110044927B (zh) * | 2019-04-23 | 2020-02-21 | 华中科技大学 | 一种空间编码光场对曲面玻璃表面缺陷的检测方法 |
US11150088B2 (en) * | 2019-05-13 | 2021-10-19 | Lumileds Llc | Depth sensing using line pattern generators |
CN113748313B (zh) * | 2019-05-22 | 2023-11-21 | 欧姆龙株式会社 | 三维测量系统及三维测量方法 |
WO2020262389A1 (ja) * | 2019-06-28 | 2020-12-30 | キヤノン株式会社 | 計測装置、撮像装置、計測システム、制御方法及びプログラム |
CN111192357A (zh) * | 2019-12-05 | 2020-05-22 | 中国科学院高能物理研究所 | 微尺度颗粒物中元素三维成像的方法和系统 |
CN112414301B (zh) * | 2020-10-22 | 2021-09-03 | 光华临港工程应用技术研发(上海)有限公司 | 一种用于线结构光三维测量的设备 |
CN112767537B (zh) * | 2021-01-07 | 2023-06-16 | 华侨大学 | 一种基于rgb编码结构光的三维重建方法 |
JP2022126066A (ja) * | 2021-02-18 | 2022-08-30 | トヨタ自動車株式会社 | 車載センサシステム、及び車載センサシステムのデータ生成方法 |
CN113188453B (zh) * | 2021-04-30 | 2022-11-01 | 东北电力大学 | 一种用于膜结构非接触位移、应变测量的散斑产生装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2996067B2 (ja) * | 1993-08-06 | 1999-12-27 | 村田機械株式会社 | 三次元計測装置 |
WO1996041304A1 (en) * | 1995-06-07 | 1996-12-19 | The Trustees Of Columbia University In The City Of New York | Apparatus and methods for determining the three-dimensional shape of an object using active illumination and relative blurring in two images due to defocus |
IT1296825B1 (it) * | 1997-12-02 | 1999-08-02 | Uni Degli Studi Brescia | Procedimento per la misura di profili a tre dimensioni mediante proiezione di luce strutturata |
JP2001091232A (ja) * | 1999-09-24 | 2001-04-06 | Sony Corp | 3次元形状計測装置および方法、並びに記録媒体 |
JP2003269928A (ja) * | 2002-03-12 | 2003-09-25 | Nec Corp | 3次元形状計測方法および装置ならびにプログラム |
JP2004037272A (ja) * | 2002-07-03 | 2004-02-05 | Ricoh Co Ltd | 光学的形状測定装置 |
WO2004011876A1 (en) * | 2002-07-25 | 2004-02-05 | Solutionix Corporation | Apparatus and method for automatically arranging three dimensional scan data using optical marker |
-
2004
- 2004-07-22 EP EP04745012A patent/EP1649423B1/en not_active Not-in-force
- 2004-07-22 AT AT04745012T patent/ATE404952T1/de not_active IP Right Cessation
- 2004-07-22 ES ES04745012T patent/ES2313036T3/es active Active
- 2004-07-22 US US10/559,384 patent/US20070057946A1/en not_active Abandoned
- 2004-07-22 CA CA002529498A patent/CA2529498A1/en not_active Abandoned
- 2004-07-22 JP JP2006520984A patent/JP2006528770A/ja active Pending
- 2004-07-22 WO PCT/IL2004/000672 patent/WO2005010825A2/en active IP Right Grant
- 2004-07-22 DE DE602004015799T patent/DE602004015799D1/de active Active
Also Published As
Publication number | Publication date |
---|---|
WO2005010825A3 (en) | 2005-06-09 |
JP2006528770A (ja) | 2006-12-21 |
WO2005010825A2 (en) | 2005-02-03 |
CA2529498A1 (en) | 2005-02-03 |
ATE404952T1 (de) | 2008-08-15 |
EP1649423B1 (en) | 2008-08-13 |
DE602004015799D1 (de) | 2008-09-25 |
EP1649423A2 (en) | 2006-04-26 |
US20070057946A1 (en) | 2007-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2313036T3 (es) | Procedimiento y sistema para la reconstruccion de la superficie tridimensional de un objeto. | |
US10902668B2 (en) | 3D geometric modeling and 3D video content creation | |
ES2801395T3 (es) | Sistema y método para la medición tridimensional de la forma de objetos materiales | |
US10119808B2 (en) | Systems and methods for estimating depth from projected texture using camera arrays | |
JP2011504230A (ja) | 三角法を用いた物体の光学的測定方法 | |
US8090194B2 (en) | 3D geometric modeling and motion capture using both single and dual imaging | |
ES2887202T3 (es) | Dispositivo de procesamiento de imágenes, método de procesamiento de imágenes, y programa | |
ES2708274T3 (es) | Sistema y método de enfoque de iluminación de estadio | |
US7456842B2 (en) | Color edge based system and method for determination of 3D surface topology | |
US20130038696A1 (en) | Ray Image Modeling for Fast Catadioptric Light Field Rendering | |
US20120293626A1 (en) | Three-dimensional distance measurement system for reconstructing three-dimensional image using code line | |
JP2007171092A (ja) | 三次元計測用マーカとこれを用いた三次元計測方法 | |
WO2017214735A1 (en) | Systems and methods for obtaining a structured light reconstruction of a 3d surface | |
Zhang et al. | Development of an omni-directional 3D camera for robot navigation | |
JP2021110758A (ja) | 校正対象物体を有するイメージングシステム | |
ES2689907T3 (es) | Procedimiento para la generación de informaciones de imágenes | |
Wang et al. | Implementation and experimental study on fast object modeling based on multiple structured stripes | |
ES2251643T3 (es) | Metodo y sistema par amejorar la lectura de codigos de barras. | |
Wei et al. | Colorful 3-D imaging using an infrared Dammann grating | |
ES2904556T3 (es) | Caracterización de la superficie intraoral en 3D | |
Kofman et al. | Hand-held 3D scanner for surface-shape measurement without sensor pose tracking or surface markers: a compact hand-held 3D scanner simultaneously projecting multiple light lines is presented, enabling 3D surface-shape measurement without requiring sensor tracking or surface markers | |
Drouin et al. | Active 3D imaging systems | |
KR101275749B1 (ko) | 3차원 깊이정보 획득 방법 및 그 장치 | |
ES2777524T3 (es) | Método de crear un modelo de oclusión dental 3D | |
RU164082U1 (ru) | Устройство контроля линейных размеров трехмерных объектов |