ES2683364T3 - Método para monitorizar dimensiones lineales de objetos tridimensionales - Google Patents

Método para monitorizar dimensiones lineales de objetos tridimensionales Download PDF

Info

Publication number
ES2683364T3
ES2683364T3 ES12887908.7T ES12887908T ES2683364T3 ES 2683364 T3 ES2683364 T3 ES 2683364T3 ES 12887908 T ES12887908 T ES 12887908T ES 2683364 T3 ES2683364 T3 ES 2683364T3
Authority
ES
Spain
Prior art keywords
camera
projection unit
coordinates
image
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES12887908.7T
Other languages
English (en)
Inventor
Andrei Vladimirovich Klimov
Aleksandr Georgievich LOMAKIN
Sergey Vladimirovich Sukhovey
Gleb Aleksandrovich GUSEV
Artem Leonidovich Yukhin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Artec Europe SARL
Original Assignee
Artec Europe SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Artec Europe SARL filed Critical Artec Europe SARL
Application granted granted Critical
Publication of ES2683364T3 publication Critical patent/ES2683364T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

El método para medición 3D del objeto usando retroiluminación estructurada consiste en proyectar una imagen predeterminada que tiene al menos dos líneas que no se cruzan a lo largo de uno de los ejes longitudinales sobre el objeto controlado, grabar la luz emitida por la unidad de proyección y reflejada desde el objeto usando al menos dos cámaras instaladas a distancias diferentes de la unidad de proyección formando ángulos de triangulación diferentes entre el haz central de la unidad de proyección y los haces centrales de las cámaras, posteriormente identificar cada línea proyectada por la unidad de proyección y formada por la luz reflejada recibida por cada cámara comparando las coordenadas de las líneas recibidas por las cámaras, con el ángulo de triangulación entre el haz central de la unidad de proyección y el haz central de la primera cámara ubicada a la distancia mínima de la unidad de proyección asumida igual al arcotangente de la ratio entre la distancia entre las bandas proyectadas y la profundidad focal de la lente de esta cámara, determinar las coordenadas longitudinales de los centros de línea y coordenadas verticales como el cociente de la coordenada longitudinal por la tangente del ángulo de triangulación entre el haz central de la unidad de proyección y el haz central de la primera cámara en la imagen de la primera cámara, y usar el valor de coordenada vertical obtenido usando la segunda cámara ubicada en un ángulo de triangulación más grande que el de la primera cámara para ajustar la coordenada vertical, por lo que las posiciones de la mismas líneas en la imagen de la segunda cámara se identifican como las más cercanas a las coordenadas longitudinales calculadas como el producto de la coordenada vertical anterior determinada usando la primera cámara y la tangente del ángulo de triangulación de segunda cámara, tras lo que se determinan los valores ajustados de las coordenadas longitudinales y verticales para estas líneas.

Description

5
10
15
20
25
30
35
40
45
50
55
DESCRIPCION
Metodo para monitorizar dimensiones lineales de objetos tridimensionales Campo de la invencion
La invencion atane a instrumentos de medicion y se puede usar para mediciones 3D con una precision adecuada y exponer contornos de objetos tridimensionales al observar un patron proyectado conocido en diversos angulos de triangulacion.
Descripcion del estado de la tecnica
Un metodo conocido previamente para controlar dimensiones lineales de objetos tridimensionales basado en tres coordenadas consiste en formar una retroiluminacion estructurada de sondeo sobre la superficie del objeto controlado proyectando en la superficie del objeto controlado un haz de luz, caracterizado por intensidad espacial modulada, grabar la imagen del patron de retroiluminacion de sondeo distorsionado por la topograffa de la superficie del objeto controlado y determinar la altura de la topograffa de superficie del objeto controlado con un ordenador electronico digital que mide la altura topografica sobre la base del valor de distorsion del patron de retroiluminacion de sondeo, y calcular las otras dos coordenadas sobre la base de la posicion de las distorsiones de patron retroiluminacion en la imagen grabada (WO 99/58930).
Las desventajas del metodo conocido son una alta tasa de errores provocados por el hecho de que cuando a la superficie de objeto controlado se dirige radiacion optica modulada a lo largo de una de las coordenadas a traves de un filtro de trasparencia con una estructura regular no variada, es imposible prever o tener en cuenta por adelantado las distorsiones de imagen provocadas por diferentes propiedades reflectantes de la superficie y rebajes profundos, que no pueden ser identificados sin informacion anterior acerca de la macroestructura de la superficie de objeto controlado.
Las tecnicas anteriores incluyen un metodo para controlar dimensiones lineales de objetos tridimensionales sobre la base de tres coordenadas cartesianas y un dispositivo que las implementa. El metodo consiste en proyectar un sistema de bandas multicolor creadas por modulacion espacial de la intensidad de radiacion optica de sondeo a lo largo de una de las coordenadas.
El sistema se caracteriza por bandas alternas y crea una retroiluminacion estructurada. Como resultado, la parte entera de la superficie de objeto controlado en el campo de vision del fotodetector y la imagen distorsionada de la retroiluminacion estructurada “superpuesta” en la superficie son grabadas en un fotograma. Las dimensiones controladas son evaluadas sobre la base del grado al que se distorsiona la imagen de la banda establecida y en la posicion de las bandas en el sistema cartesiano (WO 00/ 70303).
La limitacion del metodo usado previamente y de los dispositivos que lo usan es de pobre precision relacionada con la imposibilidad de interpretacion no ambigua de las holguras en la imagen de las bandas distorsionadas por el contorno de la superficie de objeto controlado, o por orificios pasantes, o por un bajo valor de reflectancia espectral dependiendo del color de algun area de la superficie de objeto controlado. Si el objeto controlado es un total de componentes locales, p. ej. un set de alabes de turbina, la reconstruccion de la topologfa de dicho objeto y el subsiguiente control de sus dimensiones lineales usando el metodo anterior son imposibles.
El metodo usado previamente para medicion optica de la forma de superficie implica colocar la superficie en el campo de iluminacion del sistema de proyeccion optico y simultaneamente en el campo de vision del dispositivo para grabar imagenes de la superficie anterior, que proyecta un set de imagenes con una estructura conocida del flujo de luz a la superficie medida usando el sistema optico de proyeccion anterior, grabar el set de las imagenes correspondientes de la superficie observada en un angulo diferente del angulo de proyeccion de set de imagenes, y determinar la forma de la superficie medida sobre la base de las imagenes grabadas. En este caso, se proyectan al menos tres distribuciones periodicas de la intensidad de luz alternadamente a la superficie mencionada anteriormente, estas distribuciones son un set de bandas cuya intensidad vana transversalmente siguiendo el principio sinusoidal y que difieren en el cambio de este set de bandas en la direccion perpendicular a las bandas en un valor controlado dentro de una banda, y las imagenes grabadas son procesadas para recibir una distribucion preliminar de fases que contiene las fases correspondientes a puntos sobre la superficie. Ademas, una distribucion complementaria de la intensidad de luz es proyectada momentaneamente sobre la superficie anterior, haciendo posible determinar el numero de la banda desde el anterior set de bandas para cada punto de la superficie anterior, se graba una imagen adicional de la superficie anterior; se obtiene la distribucion de fases resultante para cada punto visible de la superficie anterior, sobre la base de la imagen anterior del objeto, iluminado por la distribucion preliminar de fases, y la imagen anterior del objeto iluminado por la distribucion complementaria de fases. Y sobre la base de la distribucion resultante de fases anterior, se obtienen coordenadas absolutas de los puntos de superficie anterior usando los datos de calibracion preliminares. Cuando se realizan mediciones usando los metodos anteriores, se asume que se graba una imagen de cada punto de la superficie bajo las condiciones cuando esta iluminada unicamente con un haz directo emitido por la unidad de proyeccion, y la iluminacion de esta imagen de punto de objeto grabada se considera proporcional al brillo del haz enfocado en este punto directamente desde la unidad de proyeccion (RU n.° 2148793).
5
10
15
20
25
30
35
40
45
50
55
Las limitaciones de esto metodo consisten en la complejidad del dispositivo que lo usa y la duracion de proceso que requiere considerable tiempo para las mediciones y que deja lugar a errores en caso de oscilaciones mecanicas de las posiciones de equipos (unidad de proyeccion y camara).
Las tecnicas anteriores incluyen un metodo y un dispositivo para control remoto y reconocimiento de superficies de objeto tridimensional usando el metodo de retroiluminacion estructurada que implica una fuente de radiacion optica y - instalado en secuencia siguiendo el curso de radiacion - un filtro de trasparencia que permite la posibilidad de formar una estructura de lmea no periodica de las bandas, un sistema optico afocal para proyectar la imagen de filtro de trasparencia sobre la superficie controlada, una lente de recepcion que forma la imagen de la ilustracion de estructura de lmea que aparece en la superficie de objeto controlado distorsionada por el contorno de la superficie de objeto controlado, una fotograbadora que digitaliza la imagen formada por la lente de recepcion, y una unidad electronica digital informatica que convierte las imagenes digitales grabadas por la fotograbadora para coordinar valores en la superficie controlada; el dispositivo se provee de N-1 fuentes de radiacion adicionales, cada una de ellas diferente de las otras en el intervalo espectral de radiacion, N-1 filtros de trasparencia, cada uno de ellos diferente en al menos una banda de los otros, N-1 lentes instaladas despues de los filtros de trasparencia, N-1 espejos instalados en un angulo de 45 grados con el eje optico de cada una de las N-1 lentes antes del segundo componente del sistema optico afocal, segundos N-1 espejos instalados por detras de la lente de recepcion en un angulo de 45 grados con el eje optico de lente de recepcion, N-1 lentes de recepcion secundarias, cada una de ellas instaladas por detras de cada uno de los segundos N-1 espejos y, conjuntamente con la lente de recepcion, formar la imagen de las ilustraciones de la estructura de lmea que aparece en la superficie de objeto controlado distorsionada por el contorno de la superficie de objeto controlado, N-1 fotograbadoras, cada una de ellas tiene un intervalo de sensibilidad espectral que coincide con el intervalo de radiacion espectral de una de las N-1 fuentes de radiacion, N-1 unidades digitales electronicas informatica; la unidad electronica de adicion de imagen se implementa con el numero de entradas igual al numero de las unidades digitales electronicas informaticas, con cada una de la entrada de unidad electronica de adicion de imagen conectada a la salida de cada unidad digital electronica informatica, y el numero N se determina segun la formula N=Log2(L), donde L es el numero de parejas de las celdas de resolucion de muestra de fotograbadora (RU n.° 2199718).
Las limitaciones de este metodo tambien consisten en la complejidad del dispositivo que lo usa y la duracion de proceso que requiere considerable tiempo para las mediciones y que deja lugar a errores en caso de oscilaciones mecanicas de las posiciones de equipos (unidad de proyeccion y camara).
Las tecnicas anteriores incluyen un metodo para controlar dimensiones lineales de objetos tridimensionales sobre la base de tres coordenadas cartesianas y un dispositivo que las usa, en el que dos camaras se ubican en la derecha y en la izquierda de la unidad de proyeccion, formando asf una pareja estereoscopica parecida a la vision humana.
La unidad de proyeccion proyecta una imagen de bandas sobre el objeto. Se reciben imagenes desde ambas camaras derecha e izquierda, y entonces se comparan las dos imagenes usando metodos de correlacion, es decir, cada banda de la imagen derecha se empareja con una banda similar en la imagen izquierda buscando a traves de todas las bandas en la imagen izquierda (US 6377700, prototipo).
La limitacion de este metodo es el largo tiempo necesario para buscar a traves de todas las posibles parejas de bandas y el largo tiempo de ejecucion del algoritmo de correlacion.
Descripcion de la invencion
El objeto de esta invencion es por lo tanto crear un metodo eficaz y eficiente para controlar dimensiones lineales de objetos tridimensionales, asf como expandir la variedad de metodos para controlar dimensiones lineales de objetos tridimensionales.
El resultado tecnico que asegura que se logra el objeto consiste en simplificacion y completa automatizacion del proceso de controlar dimensiones lineales de objetos tridimensionales, reduccion de la duracion de proceso de medicion y eliminacion casi completa de errores en caso de oscilaciones mecanicas que surgen en posiciones de los equipos (unidad de proyeccion y camaras) en relacion al objeto de medicion, ya que la unidad de proyeccion y las camaras se ejecutan como herramienta portatil en un unico alojamiento.
El alcance de la invencion es que el metodo de llevar a cabo mediciones 3D de un objeto usando retroiluminacion estructurada asume que la unidad de proyeccion se usa para proyectar sobre el objeto controlado una imagen conocida que tiene al menos dos lmeas que no se cruzan a lo largo de uno de los ejes longitudinales, entonces la luz proyectada reflejada desde el objeto es grabada usando al menos dos camaras ubicadas a distancias diferentes desde la unidad de proyeccion con formacion de angulos de triangulacion diferentes entre el haz proyectado central y los haces centrales de las camaras, y cada lmea proyectada por la unidad de proyeccion y formada por la luz reflejada recibida por cada camara se identifica al comparar las coordenadas de las lmeas recibidas por las camaras, con el angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara ubicada a una distancia minima de la unidad de proyeccion establecida igual al arcotangente de la ratio de la distancia entre las bandas proyectadas y la profundidad focal de esta lente de camara, las coordenadas longitudinales de los centros de lmea y las coordenadas verticales se determinan en la imagen de la primera camara como el cociente de la coordenada
5
10
15
20
25
30
35
40
45
50
55
longitudinal por la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara, y para ajustar la coordenada vertical se usa su valor obtenido usando la segunda camara ubicada en un angulo de triangulacion mayor que la primera camara, por lo que la ubicacion de las mismas lmeas se identifica en la segunda imagen de camara como la mas cercana a las coordenadas longitudinales calculada como el producto de la coordenada vertical anterior determinada usando la primera camara y la tangente del angulo de triangulacion de segunda camara, y entonces para estas lmeas se determinan los valores ajustados de las coordenadas longitudinales y verticales.
El metodo preferible para determinar las coordenadas longitudinales de los centros de lmea en la primera imagen de camara es tomar los pfxeles mas brillantes en su anchura. Se asume la distancia entre la camara y la unidad de proyeccion como el producto de la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara y la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la camara. El valor de coordenada vertical obtenido usando las camaras tercera, cuarta y subsiguientes se usa para ajuste adicional de la coordenada vertical.
En ciertos dispositivos que usan el metodo, se ubican camaras en uno o en ambos lados de la unidad de proyeccion. Las coordenadas preferiblemente se miden y determinan usando un procesador informatico, y se saca una imagen 3D a la pantalla de ordenador.
Figuras de dibujos
La figura 1 muestra la disposicion de la unidad de proyeccion y la camara cuando se proyecta un haz, la figura 2 muestra el diagrama de una lmea proyectada sobre un objeto tridimensional, la figura 3 muestra el diagrama de dos lmeas proyectadas sobre un objeto tridimensional, la figura 4 muestra la disposicion de la unidad de proyeccion y la camara cuando se proyectan dos haces, la figura 5 muestra las posibles imagenes de banda proyectadas por la unidad de proyeccion y recibidas por las camaras (5a - imagen de las bandas en la unidad de proyeccion, 5c - contorno de la imagen de bandas en la unidad de proyeccion, 5b - imagen de las bandas en la camara, 5d - contorno de la imagen de bandas en la camara), la figura 6 - lmeas correspondientes a las bandas emitidas desde la unidad de proyeccion como lmeas rectas paralelas, la figura 7 - lmeas adicionales correspondientes a las bandas emitidas desde la unidad de proyeccion, la figura 8 - lmeas correspondientes a bandas proyectadas a dos camaras, la figura 9 muestra el diagrama de sistema (unidad) de proyeccion, la figura 10 - un dispositivo alternativo con camaras ubicadas en ambos lados de la unidad de proyeccion y la correspondiente superposicion de los campos de vision de las camaras, la figura 11 - una disposicion alternativa con tres camaras en un lado de la unidad de proyeccion y la correspondiente superposicion de los campos de vision de las camaras.
Realizacion preferible de la invencion
La figura 1 muestra un dispositivo que comprende una unidad de proyeccion 1 que proyecta la imagen predeterminada sobre el objeto y la camara 2 que graba y transmite al ordenador (no se muestra) la luz emitida por unidad de proyeccion 1 y reflejada desde el objeto, en un cierto angulo de triangulacion a (angulo entre el haz central de la unidad de proyeccion 3 y el haz central 4 de la camara 1.
La distancia L entre la camara y la unidad de proyeccion se llama la base. La base se puede elegir de la siguiente manera.
L = s*tg a, donde s es la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara (m).
En el caso mas simple, la unidad de proyeccion 1 proyecta una banda horizontal 3 que coincide con el haz central de la unidad de proyeccion en la figura 1. La figura 2 es una vista desde la camara 2. La figura 2 muestra la manera que se distorsiona la banda 3 debido a la curvatura del objeto mostrado como planos 5 y 6, y en la imagen de la camara 2 se ve un trazo 7 de la banda reflejada 3. La figura 1 muestra una vista lateral de la misma configuracion que en la figura 2, y la banda 3 cruza el plano 5 y el plano 6 a distancias diferentes Z1 y Z2 de la camara y puntos de interseccion 8 y 9 tienen coordenadas diferentes Y1 e Y2. En un caso general, de esto se obtiene la ratio Z = y/tg a para obtener la coordenada Z usando la coordenada Y. Entonces usualmente se usa esta banda para escanear la superficie a lo largo del eje Y en la figura 2 para obtener mediciones 3D del objeto en el campo de vision de la camara con el mayor grado de detalle posible.
Si la camara 2 ve unicamente una banda proyectada por la unidad de proyeccion 1 por fotograma, para obtener dichas mediciones esta banda tendna que ser desplazada la distancia mas pequena posible y tendnan que recibirse tantas imagenes como fuera posible desde la camara 2. Esto requiere invariablemente un monton de tiempo. La camara comun permisible 2 tiene una tasa de fotogramas de 25 fps y una resolucion de 1 MP, es decir, 1.000 pfxeles a lo largo del eje de coordenada Y y 1.000 pfxeles a lo largo del eje de coordenada X. Se tienen 1.000 pfxeles en la banda a lo largo del eje de coordenada X, es decir, 1.000 mediciones. Para obtener el mismo numero de mediciones a lo largo de ambos ejes, se tiene que proyectar la banda 1.000 veces desplazandola un pixel a lo largo del eje de coordenada Y, recibir 1.000 fotogramas desde la camara 2 para este proposito, lo que lleva 40 segundos. Si se debe disminuir el numero de imagenes y obtener mas mediciones de una imagen de la camara 2, segun el metodo, se deben proyectar
5
10
15
20
25
30
35
40
45
50
dos bandas, como en la figura 3, o mas, en lugar de unicamente una banda, pero surgen ambiguedades en la identificacion de bandas. En la figura 3 la banda 7 esta combinada con la banda 11 en el punto 12 para una camara (2). Esta ambiguedad da como resultado un error al determinar la coordenada Z. Una coordenada Y puede corresponder a dos coordenadas Z1 y Z2 en la imagen de camara. En la figura 4 desde la unidad de proyeccion 1 se emiten dos haces que representan las bandas. Los puntos 13 y 14 en la figura 4 son puntos de ambiguedad.
La ambiguedad debe ser resuelta cuando se proyectan varias bandas. Para este proposito se introducen los siguientes terminos y algoritmos: T - intervalo entre las bandas, Tz - el volumen medido usualmente definido por la profundidad focal de las lentes usadas en la unidad de proyeccion y la camara 2. La profundidad focal Tz es la distancia a lo largo del eje Z dentro de la que se puede observar una imagen suficientemente contrastada de las bandas proyectadas, es decir, se puede ver donde empieza y finaliza la banda. La profundidad focal Tz puede ser el valor de referencia de la lente de camara.
La profundidad focal Tz de la lente de camara para cada caso espedfico puede ser determinada, por ejemplo, de la siguiente manera: Tz= 2DC/(f/s)2
donde: D es la abertura de lente de camara (m2), C es el tamano de pixel de camara (pm), f es la distancia focal de lente de camara (m), s es la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara (m).
En la imagen de la camara 2 una banda proyectada usualmente tiene la anchura de (ocupa) varios pfxeles de la distribucion CCD de la camara 2, debido al hecho de que las bandas pueden ser desenfocadas por la lente o que el objeto puede disipar luz por reflexion, las bandas no tienen coordenada Y definida claramente.
El algoritmo de determinacion de subpfxel se usa para determinar la coordenada Y. El algoritmo de determinacion de subpfxel consiste en lo siguiente:
La unidad de proyeccion 1 proyecta la imagen de bandas paralelas en la figura 5 con el mmimo y maximo nivel de brillo 15. En la camara 2, se observan bandas 17 con brillo variable de pfxeles ligeramente emborronados debido al desenfoque de las lentes, ruido de pixel de camara 2 y otras distorsiones. Se puede asumir el pixel mas brillante como el centro de lmea o hacer una aproximacion (por software) de los valores de pixel, usando, por ejemplo, una curva parabolica o sinusoidal 18, para determinar la coordenada Y del centro de lmea en la imagen de la camara 2 a fracciones de un pixel.
Opciones disponibles para resolver ambiguedades cuando se proyectan simultaneamente varias lmeas:
Se puede hacer una conclusion basada en la figura 3 y la figura 4 de que el area a lo largo de la coordenada Z entre los puntos 13 y 14 es un area donde se mantiene ausencia de ambiguedad en la definicion de la banda proyectada en imagen de la camara 2. Por consiguiente, se debe intentar hacer el area de medicion Tz menor o igual a esta distancia.
La figura 6 y la figura 7 muestran lmeas correspondientes a bandas emitidas desde la unidad de proyeccion 1 como lmeas rectas paralelas al haz central 3 de la unidad de proyeccion 1.
A partir de estos dibujos se puede entender que existe la relacion tg a = T/Tz entre angulo a, intervalo T y area de medicion Tz, asf como que existe la relacion tg a = AY/Z entre AY y angulo a.
Es obvio que cuanto mayor es el angulo a, mas grande es el cambio de la banda AY observado en la imagen de la camara 2, con la banda proyectada como lmea 19 en la imagen de camara, lo que permite determinar con mayor precision la coordenada Z, es decir, nuestro sistema tiene mayor sensibilidad a mediciones a lo largo del eje Z. Ademas, cuanto mayor es el angulo, menor es el dominio de determinacion Tz. Esto es obvio si se compara el valor Tz en la figura 6 con el valor Tz en la figura 7.
Con el valor mmimo del angulo de triangulacion la camara percibe claramente la lmea proyectada y la coordenada longitudinal Y, pero la precision de percepcion de la coordenada vertical Z esta en su mmimo. Con el valor mas grande del angulo de triangulacion de banda las bandas en la imagen empiezan a combinarse, y es diffcil determinar la coordenada longitudinal Y, pero la precision de percepcion de la coordenada vertical Z esta en su maximo. Esto estipula el uso de al menos dos camaras instaladas en angulos de triangulacion diferentes.
El dispositivo en la figura 9 comprende el sistema de proyeccion (unidad) 1 que consiste en una fuente de luz - lampara 29, lente de condensador 30, corredera 31 que contiene un dibujo de bandas paralelas horizontales, y lente 32. El dispositivo tambien incluye tres camaras 22, 23, 33. Para asegurar que las camaras estan tan cerca de la unidad de proyeccion 1 como sea posible, la primera camara 22 tiene que ser colocada demasiado cerca de la unidad de proyeccion y las dimensiones de camara pueden superar las dimensiones de la base (distancia base) L que corresponde al angulo elegido a.
Para resolver este problema, se sugiere usar un espejo semitransparente 34 o un prisma en el camino de los haces de la camara 22 y el sistema de proyeccion, que hace posible espaciar aun mas la camara y la unidad de proyeccion.
5
10
15
20
25
30
35
40
45
50
55
Segunda solucion para colocar camaras tan cerca de la unidad de proyeccion como sea posible:
Colocar las camaras 22 y 23 en la derecha y la izquierda de la unidad de proyeccion 1. La figura 10 muestra distancias de base L1 y L2 ubicadas en un lado de la unidad de proyeccion que corresponde a los angulos de triangulacion. En este caso la superposicion resultante de los campos de vision de las camaras 35 sera incompleta, lo que reducira el area de medicion del objeto, pero esta solucion es tecnicamente mas simple de implementar que la que requiere instalacion y ajuste de un espejo o prisma semitransparente.
El tercer metodo se muestra en la figura 11. Las camaras se ubican en un lado de la unidad de proyeccion 1. Esto hace posible lograr mayor superposicion de los campos de vision de las camaras 35.
Generalmente, el metodo para medicion 3D de un objeto con retroiluminacion estructurada se implementa de la siguiente manera. Usando la unidad de proyeccion 1, sobre el objeto controlado se proyecta una imagen predeterminada con al menos dos lmeas que no se cruzan a lo largo de uno de sus ejes longitudinales. La luz de la unidad de proyeccion 1 reflejada desde el objeto se graba con al menos dos camaras ubicadas a distancias diferentes desde la unidad de proyeccion formando asf angulos de triangulacion diferentes entre el haz central de la unidad de proyeccion y los haces centrales de las camaras. En la imagen de la primera camara 2 se determinan las coordenadas longitudinales de los centros de lmea como los pfxeles mas brillantes.
Entonces se identifica cada lmea proyectada por la unidad de proyeccion 1 y formada por la luz reflejada recibida por cada camara comparando las coordenadas de las lmeas percibidas por las camaras. Para este proposito el angulo de triangulacion entre el haz central de la unidad de proyeccion 1 y el haz central de la primera camara 22, colocado a una distancia minima de la unidad de proyeccion 1 y un angulo mmimo a1, se escoge y establece igual al arcotangente de la ratio de la distancia entre las bandas proyectadas y la profundidad focal Tz de esta lente de camara.
Tales condiciones impuestas en la posicion relativa de la unidad de proyeccion 1 y la camara 22 permiten la maxima ausencia de ambiguedad a la hora de identificar cada banda proyectada. El intervalo T en la figura 8 entre las bandas proyectadas 20 y 21 y el angulo a1 entre la primera camara 22 y la unidad de proyeccion 1 se eligen sobre la base de la ratio de a1 = arctang(T/Tz). Esto hace posible diferenciar entre todas las bandas proyectadas en la imagen de la primera camara. Las proyecciones de banda sobre la imagen desde la camara 22 se representan como 24 y 25.
Las coordenadas longitudinales de los centros de lmea y las coordenadas verticales se determinan en la imagen de la primera camara como el cociente de la coordenada longitudinal Y1 por la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara.
Usando el algoritmo de busqueda de centro de lmea - el algoritmo de determinacion de subpfxel - y sobre la base de la relacion Z=Y1/tga1 (Y1 - coordenadas en la imagen de la primera camara), las coordenadas Z de todas las bandas proyectadas se calcula con un cierto error a, que principalmente depende del angulo de triangulacion a1, del numero de pfxeles en la distribucion CCD de la camara, y el ruido de pixel de la camara seleccionada.
El error de anchura de imagen de lmea a (empezando con la segunda camara) no superara T/ Cos a2.
Para ajustar la coordenada vertical Z, se usa su valor obtenido con la segunda camara ubicada en un angulo de triangulacion mayor a2 que el de la primera camara, por lo que la posicion de las mismas lmeas se identifica en la segunda imagen de camara como las lmeas mas cercanas a las coordenadas longitudinales calculadas como el producto de la coordenada vertical Z anterior determinado usando la primera camara y la tangente del angulo de triangulacion de la segunda camara. Asf, para ajustar la coordenada Z de las bandas proyectadas, se usa la segunda camara 23 ubicada en un angulo de triangulacion mayor a2 que la unidad de proyeccion a2 > a1. Las bandas 20 y 21 proyectadas por la unidad de proyeccion 1 sobre la imagen desde la segunda camara 23 se ve como 26 y 27. Por claridad, las bandas 26 y 27 se representan con un ligero cambio, mientras que de hecho se combinan en la imagen de la segunda camara y son diffciles de identificar. Pero si la coordenada Z obtenida antes segun la formula Z=Y1/tga1 para la banda 20 es proyectada segun la formula Y2=Z*tga2 sobre la imagen desde la camara 23, la curva de ruido 28 se vuelve visible, lo que ayudara a identificar la posicion de la banda 20 sobre la imagen de la camara 23. Para cada banda se debe seguir el mismo procedimiento para diferenciarla de las otras. El centro de cada lmea tiene que ser determinado nuevamente con ajuste basado en la imagen desde la camara 23, asf como calcular una nueva coordenada Z mas precisa. El angulo a2 se escoge de modo que no se supere T/Cos a2.
Entonces, de manera similar al procedimiento descrito para determinar coordenadas usando la primera camara, la segunda camara se usa para determinar los valores ajustados de las coordenadas longitudinales y verticales para estas lmeas.
El valor de coordenada vertical obtenido usando las camaras tercera, cuarta y subsiguientes se usa para ajuste adicional de la coordenada vertical. Para ajuste adicional de las coordenadas Z de las bandas proyectadas se pueden usar camaras adicionales con angulos de triangulacion grandes para lograr la precision requerida de la definicion de coordenada Z de la banda. Cada subsiguiente camara con un angulo de triangulacion grande debe cumplir las condiciones proporcionadas anteriormente para camaras con un angulo de triangulacion pequeno. En algunos casos, se ubican al menos dos camaras en diferentes lados de la unidad de proyeccion, pero las imagenes y angulos de triangulacion de todas las camaras tienen que ser ubicados en un lado del haz central de la unidad de proyeccion, que
6
se puede asegurar usando un espejo semitransparente posicionado cruzando los haces centrales de la unidad de proyeccion y, preferiblemente, de la primera camara en la figura 9.
Las coordenadas se miden y determinan usando un procesador informatico, y se saca una imagen 3D a la pantalla de ordenador.
5 El resultado tecnico consiste en simplificacion y completa automatizacion del proceso de controlar dimensiones lineales de objetos tridimensionales, reduccion de la duracion de proceso de medicion y eliminacion casi completa de errores en caso de oscilaciones mecanicas que surgen en posiciones de los equipos (unidad de proyeccion y camaras) en relacion al objeto de medicion, ya que la unidad de proyeccion y camaras se ejecutan como herramienta portatil en un unico alojamiento.
10 Aplicabilidad industrial
Esta invencion se implementa con equipos de uso general ampliamente usados en la industria.

Claims (7)

  1. 5
    10
    15
    20
    25
    30
    REIVINDICACIONES
    1. El metodo para medicion 3D del objeto usando retroiluminacion estructurada consiste en proyectar una imagen predeterminada que tiene al menos dos lmeas que no se cruzan a lo largo de uno de los ejes longitudinales sobre el objeto controlado, grabar la luz emitida por la unidad de proyeccion y reflejada desde el objeto usando al menos dos camaras instaladas a distancias diferentes de la unidad de proyeccion formando angulos de triangulacion diferentes entre el haz central de la unidad de proyeccion y los haces centrales de las camaras, posteriormente identificar cada lmea proyectada por la unidad de proyeccion y formada por la luz reflejada recibida por cada camara comparando las coordenadas de las lmeas recibidas por las camaras, con el angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara ubicada a la distancia minima de la unidad de proyeccion asumida igual al arcotangente de la ratio entre la distancia entre las bandas proyectadas y la profundidad focal de la lente de esta camara, determinar las coordenadas longitudinales de los centros de lmea y coordenadas verticales como el cociente de la coordenada longitudinal por la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la primera camara en la imagen de la primera camara, y usar el valor de coordenada vertical obtenido usando la segunda camara ubicada en un angulo de triangulacion mas grande que el de la primera camara para ajustar la coordenada vertical, por lo que las posiciones de la mismas lmeas en la imagen de la segunda camara se identifican como las mas cercanas a las coordenadas longitudinales calculadas como el producto de la coordenada vertical anterior determinada usando la primera camara y la tangente del angulo de triangulacion de segunda camara, tras lo que se determinan los valores ajustados de las coordenadas longitudinales y verticales para estas lmeas.
  2. 2. El metodo de la reivindicacion 1, donde determinar las coordenadas longitudinales de los centros de lmea en la imagen de la primera camara se hace tomando los pfxeles mas brillantes en su anchura.
  3. 3. El metodo de cualquiera de las reivindicaciones 1 y 2, en donde se asume que la distancia entre la camara y la unidad de proyeccion es el producto de la distancia desde la unidad de proyeccion al punto de interseccion de los haces centrales de la unidad de proyeccion y la camara y la tangente del angulo de triangulacion entre el haz central de la unidad de proyeccion y el haz central de la camara.
  4. 4. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde el valor de coordenada vertical obtenido usando las camaras tercera, cuarta y subsiguientes se usa ademas para ajustar la coordenada vertical.
  5. 5. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde las camaras se colocan en un lado de la unidad de proyeccion.
  6. 6. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde las camaras se colocan en dos lados de la unidad de proyeccion.
  7. 7. El metodo segun cualquiera de las reivindicaciones 1, 2, 4 en donde medir y determinar las coordenadas se hace usando un procesador informatico, con la salida de imagen 3D a la pantalla de ordenador.
ES12887908.7T 2012-11-07 2012-11-07 Método para monitorizar dimensiones lineales de objetos tridimensionales Active ES2683364T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/RU2012/000909 WO2014074003A1 (ru) 2012-11-07 2012-11-07 Способ контроля линейных размеров трехмерных объектов

Publications (1)

Publication Number Publication Date
ES2683364T3 true ES2683364T3 (es) 2018-09-26

Family

ID=50684964

Family Applications (1)

Application Number Title Priority Date Filing Date
ES12887908.7T Active ES2683364T3 (es) 2012-11-07 2012-11-07 Método para monitorizar dimensiones lineales de objetos tridimensionales

Country Status (9)

Country Link
US (1) US10648789B2 (es)
EP (1) EP2918967B1 (es)
JP (1) JP6161714B2 (es)
CN (1) CN104903680B (es)
ES (1) ES2683364T3 (es)
HK (1) HK1215968A1 (es)
PL (1) PL2918967T3 (es)
TR (1) TR201811449T4 (es)
WO (1) WO2014074003A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016099321A1 (ru) * 2014-12-19 2016-06-23 Андрей Владимирович КЛИМОВ Способ контроля линейных размеров трехмерных объектов
CN108024832A (zh) * 2015-09-28 2018-05-11 富士胶片株式会社 投影映射装置
CN106595519B (zh) * 2016-12-07 2019-09-20 西安知象光电科技有限公司 一种基于激光mems投影的柔性三维轮廓测量方法及装置
LU100021B1 (en) 2017-01-13 2018-07-30 Adapttech Ltd Socket fitting system
US10122997B1 (en) 2017-05-03 2018-11-06 Lowe's Companies, Inc. Automated matrix photo framing using range camera input
JP6308637B1 (ja) * 2017-05-08 2018-04-11 国立大学法人福井大学 特徴量を用いた3次元計測方法およびその装置
JP6999298B2 (ja) * 2017-06-26 2022-01-18 株式会社ミツトヨ 画像測定装置
JP6606234B1 (ja) * 2018-07-13 2019-11-13 Dmg森精機株式会社 測定装置
DE102018007797A1 (de) * 2018-10-02 2019-04-11 Daimler Ag Vorrichtung und Verfahren zur Bestimmung einer Position eines Fahrzeugs relativ zu einem Lademodul
WO2020262389A1 (ja) * 2019-06-28 2020-12-30 キヤノン株式会社 計測装置、撮像装置、計測システム、制御方法及びプログラム
JP2022030051A (ja) * 2020-08-06 2022-02-18 Towa株式会社 切断装置、及び、切断品の製造方法
KR20230128521A (ko) * 2020-12-31 2023-09-05 샤이닝 쓰리디 테크 컴퍼니., 리미티드. 3차원 스캐닝 기기, 방법 및 장치, 저장 매체 및 프로세서

Family Cites Families (87)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2934263C3 (de) * 1979-08-24 1982-03-25 Fa. Carl Zeiss, 7920 Heidenheim Verfahren und Vorrichtung zur automatischen Messung der Scheitelbrechwerte in den Hauptschnitten torischer Brillengläser
US4547674A (en) * 1982-10-12 1985-10-15 Diffracto Ltd. Optical triangulation gear inspection
JPH01278019A (ja) * 1988-04-28 1989-11-08 Canon Inc リソグラフィ用マスクの構造体
US4948258A (en) * 1988-06-27 1990-08-14 Harbor Branch Oceanographic Institute, Inc. Structured illumination surface profiling and ranging systems and methods
DE4130237A1 (de) * 1991-09-11 1993-03-18 Zeiss Carl Fa Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von objektoberflaechen
JP2767340B2 (ja) * 1991-12-26 1998-06-18 ファナック株式会社 物体の3次元位置・姿勢計測方式
JP3781438B2 (ja) * 1993-02-24 2006-05-31 與語 照明 3次元表面形状測定装置
US6028672A (en) * 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
US5548392A (en) * 1995-01-31 1996-08-20 Kabushikikaisha Wacom Optical position detector having scale pattern spot-illuminated to increase resolution
DE69726506T2 (de) * 1996-01-10 2004-11-04 Kabushiki Kaisha Topcon Anordnungsbeurteilungsvorrichtung und system
JP2910698B2 (ja) * 1996-10-15 1999-06-23 日本電気株式会社 三次元構造推定方法及び装置
US6858826B2 (en) * 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US6175415B1 (en) * 1997-02-19 2001-01-16 United Technologies Corporation Optical profile sensor
BE1011076A3 (nl) * 1997-03-28 1999-04-06 Ruymen Marc Werkwijze en inrichting voor het detecteren van onregelmatigheden in een produkt.
JP3914638B2 (ja) * 1997-09-09 2007-05-16 シーケーディ株式会社 形状計測装置
US6549288B1 (en) 1998-05-14 2003-04-15 Viewpoint Corp. Structured-light, triangulation-based three-dimensional digitizer
US6377700B1 (en) * 1998-06-30 2002-04-23 Intel Corporation Method and apparatus for capturing stereoscopic images using image sensors
US6393141B1 (en) * 1998-09-10 2002-05-21 Warner-Lambert Company Apparatus for surface image sensing and surface inspection of three-dimensional structures
CA2253085A1 (en) * 1998-11-06 2000-05-06 Industrial Metrics Inc. Methods and system for measuring three dimensional spatial coordinates and for external camera calibration necessary for that measurement
RU2148793C1 (ru) 1999-02-19 2000-05-10 Филиппов Евгений Иванович Способ измерения формы и пространственного положения поверхности объекта
CA2267519A1 (en) * 1999-04-13 2000-10-13 Inspeck Inc. Optical full human body 3d digitizer
CA2373284A1 (en) 1999-05-14 2000-11-23 3D Metrics, Incorporated Color structured light 3d-imaging system
JP3553451B2 (ja) * 2000-02-18 2004-08-11 独立行政法人 科学技術振興機構 光干渉断層像観測装置
CA2306515A1 (en) * 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
JP3867512B2 (ja) * 2000-06-29 2007-01-10 富士ゼロックス株式会社 画像処理装置および画像処理方法、並びにプログラム
JP4298155B2 (ja) * 2000-11-17 2009-07-15 本田技研工業株式会社 距離測定装置、及び距離測定方法
RU2184933C1 (ru) * 2001-02-21 2002-07-10 Климов Андрей Владимирович Устройство для бесконтактного контроля линейных размеров трехмерных объектов
WO2002086420A1 (en) * 2001-04-19 2002-10-31 Dimensional Photonics, Inc. Calibration apparatus, system and method
US6897966B2 (en) * 2001-05-25 2005-05-24 Poster-Miller, Inc. Non-contacting mensuration system
WO2003032252A2 (en) * 2001-10-09 2003-04-17 Dimensional Photonics, Inc. Device for imaging a three-dimensional object
RU2199718C1 (ru) 2001-12-11 2003-02-27 А4 Визион С.А. Устройство для бесконтактного контроля и распознавания поверхностей трехмерных объектов
JP2003269928A (ja) * 2002-03-12 2003-09-25 Nec Corp 3次元形状計測方法および装置ならびにプログラム
US7009717B2 (en) * 2002-08-14 2006-03-07 Metris N.V. Optical probe for scanning the features of an object and methods therefor
JP2003148936A (ja) * 2002-10-30 2003-05-21 Nippon Avionics Co Ltd 光切断法による対象物の三次元計測方法
US7146036B2 (en) * 2003-02-03 2006-12-05 Hewlett-Packard Development Company, L.P. Multiframe correspondence estimation
US20040222987A1 (en) * 2003-05-08 2004-11-11 Chang Nelson Liang An Multiframe image processing
US8224064B1 (en) * 2003-05-21 2012-07-17 University Of Kentucky Research Foundation, Inc. System and method for 3D imaging using structured light illumination
JP3738291B2 (ja) * 2003-06-09 2006-01-25 住友大阪セメント株式会社 三次元形状測定装置
CA2435935A1 (en) * 2003-07-24 2005-01-24 Guylain Lemelin Optical 3d digitizer with enlarged non-ambiguity zone
US7747067B2 (en) * 2003-10-08 2010-06-29 Purdue Research Foundation System and method for three dimensional modeling
WO2005096126A1 (ja) * 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha 画像入出力装置
US7375826B1 (en) * 2004-09-23 2008-05-20 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration (Nasa) High speed three-dimensional laser scanner with real time processing
JP4734552B2 (ja) * 2005-03-15 2011-07-27 名古屋市 路面の3次元形状の計測方法及びその装置
JP4230525B2 (ja) * 2005-05-12 2009-02-25 有限会社テクノドリーム二十一 3次元形状計測方法およびその装置
JP2007093412A (ja) * 2005-09-29 2007-04-12 Fujinon Corp 3次元形状測定装置
US8197070B2 (en) * 2006-01-24 2012-06-12 Seiko Epson Corporation Color-based feature identification
US20090268214A1 (en) * 2006-05-26 2009-10-29 Miljenko Lucic Photogrammetric system and techniques for 3d acquisition
US7495208B2 (en) * 2006-06-01 2009-02-24 Czarnek And Orkin Laboratories, Inc. Portable optical wound scanner
EP2048472B1 (en) * 2006-07-31 2018-02-21 Hoya Corporation Lens shape measurement device and method, method of producing eyeglass lens, and method of producing eyeglasses
US8036452B2 (en) * 2007-08-10 2011-10-11 Leica Geosystems Ag Method and measurement system for contactless coordinate measurement on an object surface
US7768656B2 (en) 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
US20090103783A1 (en) * 2007-10-19 2009-04-23 Artec Ventures System and Method for Biometric Behavior Context-Based Human Recognition
US8550444B2 (en) * 2007-10-23 2013-10-08 Gii Acquisition, Llc Method and system for centering and aligning manufactured parts of various sizes at an optical measurement station
DE102007058590B4 (de) * 2007-12-04 2010-09-16 Sirona Dental Systems Gmbh Aufnahmeverfahren für ein Bild eines Aufnahmeobjekts und Aufnahmevorrichtung
US7986321B2 (en) * 2008-01-02 2011-07-26 Spatial Integrated Systems, Inc. System and method for generating structured light for 3-dimensional image rendering
JP5317169B2 (ja) * 2008-06-13 2013-10-16 洋 川崎 画像処理装置、画像処理方法およびプログラム
WO2010015086A1 (en) * 2008-08-06 2010-02-11 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
JP4827939B2 (ja) * 2009-02-18 2011-11-30 シャープ株式会社 画像読取装置及び画像形成装置並びに画像処理装置
AU2010218298A1 (en) * 2009-02-27 2011-10-13 Body Surface Translations, Inc. Estimating physical parameters using three dimensional representations
CN201707037U (zh) * 2009-04-23 2011-01-12 浙江师范大学 一种光学三维成像仪
US8243289B2 (en) * 2009-05-29 2012-08-14 Perceptron, Inc. System and method for dynamic windowing
US8031345B2 (en) * 2009-05-29 2011-10-04 Perceptron, Inc. Hybrid sensor
US7995218B2 (en) * 2009-05-29 2011-08-09 Perceptron, Inc. Sensor system and reverse clamping mechanism
EP2261597B1 (en) * 2009-06-11 2014-10-29 MICROTEC S.r.l. Method and apparatus for detecting the three-dimensional structure of a log
WO2011013079A1 (en) * 2009-07-30 2011-02-03 Primesense Ltd. Depth mapping based on pattern matching and stereoscopic information
GB0915904D0 (en) * 2009-09-11 2009-10-14 Renishaw Plc Non-contact object inspection
DE102009044983A1 (de) * 2009-09-24 2011-03-31 Carl Zeiss Microimaging Gmbh Mikroskop
WO2011054083A1 (en) * 2009-11-04 2011-05-12 Technologies Numetrix Inc. Device and method for obtaining three-dimensional object surface data
CN101726264A (zh) * 2009-12-30 2010-06-09 深圳先进技术研究院 一种针对投射条纹图像的残差滤波方法
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus
JP5801796B2 (ja) * 2010-03-31 2015-10-28 Hoya株式会社 レンズ形状測定装置
CN102859318B (zh) * 2010-04-26 2016-01-20 株式会社尼康 轮廓测量装置
CA2797302C (en) * 2010-04-28 2019-01-15 Ryerson University System and methods for intraoperative guidance feedback
EP2400261A1 (de) * 2010-06-21 2011-12-28 Leica Geosystems AG Optisches Messverfahren und Messsystem zum Bestimmen von 3D-Koordinaten auf einer Messobjekt-Oberfläche
WO2012023256A2 (en) * 2010-08-19 2012-02-23 Canon Kabushiki Kaisha Three-dimensional measurement apparatus, method for three-dimensional measurement, and computer program
JP5671281B2 (ja) * 2010-08-20 2015-02-18 キヤノン株式会社 位置姿勢計測装置、位置姿勢計測装置の制御方法及びプログラム
EP3064895B1 (en) * 2010-09-07 2020-04-15 Dai Nippon Printing Co., Ltd. Linear illumination device
DE102010040386A1 (de) * 2010-09-08 2012-03-08 Sirona Dental Systems Gmbh Dentale Röntgeneinrichtung mit Bilderfassungseinheit zur Oberflächenerfassung und Verfahren zur Erzeugung einer Röntgenaufnahme eines Patienten
JP5267891B2 (ja) * 2010-09-30 2013-08-21 横河電機株式会社 シートに形成されたパターンの位置および形状測定装置および塗工パターン測定装置
US8849015B2 (en) * 2010-10-12 2014-09-30 3D Systems, Inc. System and apparatus for haptically enabled three-dimensional scanning
DE102011011360A1 (de) * 2011-02-16 2012-08-16 Steinbichler Optotechnik Gmbh Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
US9170098B2 (en) * 2011-07-13 2015-10-27 Faro Technologies, Inc. Device and method using a spatial light modulator to find 3D coordinates of an object
US8922647B2 (en) * 2011-08-03 2014-12-30 The Boeing Company Projection aided feature measurement using uncalibrated camera
WO2013058710A1 (en) * 2011-10-18 2013-04-25 Nanyang Technological University Apparatus and method for 3d surface measurement
EP2728306A1 (en) * 2012-11-05 2014-05-07 Hexagon Technology Center GmbH Method and device for determining three-dimensional coordinates of an object
WO2015008820A1 (ja) * 2013-07-19 2015-01-22 株式会社ニコン 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、及び記録媒体
US10643343B2 (en) * 2014-02-05 2020-05-05 Creaform Inc. Structured light matching of a set of curves from three cameras

Also Published As

Publication number Publication date
HK1215968A1 (zh) 2016-09-30
US20190234725A1 (en) 2019-08-01
PL2918967T3 (pl) 2018-10-31
TR201811449T4 (tr) 2018-09-21
CN104903680A (zh) 2015-09-09
US10648789B2 (en) 2020-05-12
WO2014074003A1 (ru) 2014-05-15
EP2918967B1 (en) 2018-05-16
CN104903680B (zh) 2019-01-08
EP2918967A1 (en) 2015-09-16
JP2015534091A (ja) 2015-11-26
JP6161714B2 (ja) 2017-07-12
EP2918967A4 (en) 2016-07-27

Similar Documents

Publication Publication Date Title
ES2683364T3 (es) Método para monitorizar dimensiones lineales de objetos tridimensionales
US10907955B2 (en) Three-dimensional imager
US10455216B2 (en) Three-dimensional imager
US10571668B2 (en) Catadioptric projector systems, devices, and methods
US8670114B2 (en) Device and method for measuring six degrees of freedom
US9686532B2 (en) System and method of acquiring three-dimensional coordinates using multiple coordinate measurement devices
CN106595519B (zh) 一种基于激光mems投影的柔性三维轮廓测量方法及装置
US7876455B2 (en) Three-dimensional shape measuring method and apparatus for the same
US9454818B2 (en) Method for measuring three orientational degrees of freedom of a cube-corner retroreflector
CN103292740B (zh) 一种三维扫描仪测量方法及其装置
WO2000033026A1 (en) Apparatus and method to measure three-dimensional data
US20180240241A1 (en) Three-dimensional imager
CN108303040B (zh) 基于平面复眼和同轴结构光的三维测量系统及使用方法
US11350077B2 (en) Handheld three dimensional scanner with an autoaperture
JP2004537732A (ja) 干渉縞を投影し絶対位相写像を評価することによる三次元画像法
JP2006220603A (ja) 撮像装置
RU125335U1 (ru) Устройство контроля линейных размеров трехмерных объектов
CN114111626B (zh) 一种基于同轴投影的光场相机三维测量装置及系统
JP2006308452A (ja) 3次元形状計測方法および装置
ES2543038B2 (es) Método y sistema de localización espacial mediante marcadores luminosos para cualquier ambiente
ES2824873A1 (es) Metodo y sistema para el seguimiento espacial de objetos
Lewin et al. A 3D camera for improved facial recognition