ES2831013T3 - Sistema y método para la medición multicuadro de la superficie de la forma de objetos - Google Patents

Sistema y método para la medición multicuadro de la superficie de la forma de objetos Download PDF

Info

Publication number
ES2831013T3
ES2831013T3 ES08831094T ES08831094T ES2831013T3 ES 2831013 T3 ES2831013 T3 ES 2831013T3 ES 08831094 T ES08831094 T ES 08831094T ES 08831094 T ES08831094 T ES 08831094T ES 2831013 T3 ES2831013 T3 ES 2831013T3
Authority
ES
Spain
Prior art keywords
measured
images
scanning devices
view
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES08831094T
Other languages
English (en)
Inventor
Nikolay Lapa
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Artec Europe SARL
Original Assignee
Artec Europe SARL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Artec Europe SARL filed Critical Artec Europe SARL
Application granted granted Critical
Publication of ES2831013T3 publication Critical patent/ES2831013T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • G01C11/025Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures by scanning the object

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Un método para medir la superficie de un objeto (104), que comprende: capturar, por cada uno de al menos dos dispositivos de escaneo (140a-140e; 150a-150b), al menos una imagen tridimensional, 3D, de al menos una parte de una superficie del objeto (104) a medir, en donde cada dispositivo de escaneo (140b; 150b) incluye un objeto de referencia (106b) posicionado sobre el mismo; capturar, mediante al menos uno de los dispositivos de escaneo (140a; 150a), al menos una imagen 3D de al menos una parte de una superficie del objeto de referencia (106b) en otro dispositivo de escaneo (140b; 150b); transformar, a través de una técnica de transformación de coordenadas, usando la al menos una imagen 3D de la al menos parte de la superficie del objeto de referencia (106b), las imágenes 3D capturadas de las partes de la superficie del objeto (104) a medir en un sistema de coordenadas común; y fusionar las imágenes 3D capturadas de las partes de la superficie del objeto (104) a medir en el sistema de coordenadas común.

Description

DESCRIPCIÓN
Sistema y método para la medición multicuadro de la superficie de la forma de objetos
Antecedentes de la invención
Campo de la invención
La divulgación se refiere a la medición de la superficie tridimensional ("3D") de objetos materiales.
Discusión de los antecedentes
Existen dispositivos y métodos conocidos para realizar mediciones sin contacto de una forma de superficie 3D de un objeto material, tal como mediante el uso de un método de triangulación de luz estructurada o estereoscópica. El método de triangulación de luz estructurada para medir la forma de la superficie de objetos materiales utiliza la proyección de luz estructurada sobre la superficie del objeto que es, generalmente, una ("luz estructurada") modulada en amplitud, modulada en el tiempo y/o modulada en longitud de onda. Una imagen de luz estructurada proyectada sobre la superficie de un objeto (en lo sucesivo denominada "la imagen") es capturada por una cámara en una dirección diferente de la dirección en la que se proyecta la luz estructurada. La imagen se analiza entonces para calcular la forma de la superficie del objeto.
Los escáneres 3D utilizan estos métodos de triangulación para medir la forma de la superficie de un objeto completo. Sin embargo, los escáneres 3D normalmente solo pueden medir una parte de la superficie del objeto a la vez, y normalmente es necesario hacer una serie de escaneos desde varios ángulos y luego fusionar las imágenes 3D resultantes para medir la forma de toda la superficie. Para evitar errores notables al fusionar la serie de escaneos, es necesario conocer el punto y la dirección desde donde se realizó cada escaneo con una precisión no menor que la precisión de cada escaneo. El documento WO2007/030026A1 describe un escáner 3D portátil de mano para escanear una escena usando un sensor de posición y orientación que está dispuesto para detectar la posición y orientación del escáner durante el escaneo de la escena y generar información representativa de posición y orientación. El documento WO 2006/094409A1 describe un sistema para escaneo 3D y digitalización de la geometría de la superficie de un objeto fijando objetivos adicionales como características de posicionamiento en el objeto y usando los reflejos de un patrón láser proyectado en la superficie de los objetos para calcular la posición y orientación. El documento US6081273 describe un sistema con una o más cámaras, un aparato de calibración, una interfaz gráfica y software para construir un modelo de objeto de realidad virtual. El documento US2003/0025788A1 describe que la primera y la segunda cámara tienen una relación física fija entre sí. Solo se analizan las segundas imágenes adquiridas por la segunda cámara para determinar las posiciones correspondientes de la segunda cámara mientras se adquieren las primeras imágenes.
Anteriormente se han intentado varias soluciones para lograr este nivel de precisión, que incluyen: 1) fijar el escáner 3D en su lugar y usar una mesa giratoria precisa para montar el objeto, 2) usar un dispositivo de precisión para mover el escáner alrededor del objeto, 3) identificar la posición y orientación del escáner mediante el uso de una serie de sensores (por ejemplo, sensores de radio, ópticos o magnéticos) colocados alrededor del objeto para determinar la posición de un emisor instalado dentro del escáner 3D, y 4) usando varios escáneres 3D montados sobre una estructura rígida distribuida sobre el objeto.
Sin embargo, cada una de las soluciones intentadas anteriormente adolece de una serie de deficiencias: altos costos, volumen, no portabilidad, tiempos de escaneo prolongados, incapacidad para escanear objetos en movimiento y ciertas limitaciones de la aplicación (por ejemplo, no pueden usarse para escanear objetos sensibles que no puede moverse ni tocar, como exhibiciones de museo).
Resumen
Se proporciona un sistema y un método para la medición de la superficie de la forma de objetos materiales en multicuadros, de acuerdo con las reivindicaciones independientes. El sistema y el método incluyen capturar una pluralidad de imágenes de partes de la superficie del objeto que se está midiendo y fusionar las imágenes capturadas en un sistema de referencia común. En un aspecto, la forma y/o textura de un objeto de forma compleja puede medirse usando al menos dos escáneres 3D, cada uno de los cuales incluye una posición del objeto de referencia en el mismo, capturando múltiples imágenes desde diferentes posiciones y perspectivas y luego fusionando las imágenes en un sistema de coordenadas común para alinear las imágenes fusionadas. La alineación se logra capturando imágenes tanto de una parte de la superficie del objeto como también de una superficie de referencia que tiene características conocidas (por ejemplo, forma y/o textura).
Dibujos
Las características y los objetos mencionados anteriormente de la presente divulgación serán más evidentes con referencia a la siguiente descripción tomada junto con los dibujos adjuntos en donde los números de referencia similares denotan elementos similares y en los cuales:
La Figura 1 es una vista en perspectiva de diagrama de bloques de un sistema para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con uno o más ejemplos no reivindicados de la presente divulgación.
La Figura 2 es un diagrama de flujo operativo de un método para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con uno o más ejemplos no reivindicados de la presente divulgación.
La Figura 3 es una vista en perspectiva de diagrama de bloques de un sistema para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con uno o más ejemplos no reivindicados de la presente divulgación.
Las Figuras 4A-4B son vistas en perspectiva de un diagrama de bloques de un sistema para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con uno o más ejemplos no reivindicados de la presente divulgación.
La Figura 5 es una vista en perspectiva de diagrama de bloques de un sistema para la medición multicuadro de la superficie de la forma de los objetos materiales de acuerdo con uno o más ejemplos no reivindicados de la presente divulgación.
La Figura 6 es una representación en diagrama de bloques de un sistema para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con una o más modalidades de la presente divulgación.
La Figura 7 es una representación en diagrama de bloques de un sistema para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con una o más modalidades de la presente divulgación.
Descripción detallada
En general, la presente divulgación incluye un sistema y método para la medición multicuadro de la superficie de la forma de objetos materiales de acuerdo con uno o más ejemplos y modalidades no reivindicados de la presente divulgación. Ciertos ejemplos y modalidades no reivindicadas de la presente divulgación se discutirán ahora con referencia a las figuras mencionadas anteriormente, en donde los números de referencia similares se refieren a componentes similares.
Con referencia ahora a la Figura 1, una ilustración de diagrama de bloques de un sistema 100 para la medición multicuadro de la superficie de la forma de objetos materiales se muestra generalmente de acuerdo con uno o más ejemplos no reivindicados. El sistema 100 incluye un dispositivo de escaneo 102 para escanear la superficie de un objeto 104. El dispositivo de escaneo 102 puede comprender un escáner 3D para capturar una imagen de un objeto, un escáner fotométrico o una cámara para capturar características fotométricas del objeto 104 (por ejemplo, textura de imagen 2D, color, brillo, etc.), otro tipo de dispositivo de captura de imágenes o una combinación de los mismos. En adelante, por motivos de brevedad, los escaneos que se realizan en relación con la determinación de las mediciones 3D (por ejemplo, la forma) de la superficie del objeto 104 se denominarán "escaneo de superficie", y los escaneos que se realizan en relación con la determinación de las características fotométricas, la textura u otras medidas 2D del objeto 104 se denominarán "escaneo de textura". Además, el término imagen, tal como se utiliza aquí, cuando se utilice por sí mismo, se referirá a una imagen 3D, una imagen 2D, otro tipo de imagen o cualquier combinación de cualquiera de los tipos de imágenes anteriores. El objeto 104 se coloca junto a un objeto de referencia 106. El dispositivo de escaneo 102 incluye un campo de visión 108 que incluye al menos parcialmente una parte del objeto 104 y una parte del objeto de referencia 106. El campo de visión 108 es preferiblemente cónico, pero también puede comprender otros campos de forma.
Con más referencia a la Figura 2, se ilustra un diagrama de flujo operativo para el proceso empleado por el sistema 100 para la medición multicuadro de la superficie de la forma del objeto 104. Inicialmente, en el paso 200, el dispositivo de escaneo 102 se coloca en una relación deseada con respecto al objeto 104. El dispositivo de escaneo 102 luego captura una imagen de al menos una parte del objeto 104 en el paso 202, mientras que el dispositivo de escaneo 102 también captura una imagen de al menos una parte del objeto de referencia 106 en el paso 204. La imagen del objeto 104 capturada por el dispositivo de escaneo 102 incluye al menos una imagen en 3D del objeto 104 y opcionalmente también incluye una imagen en 2D u otro tipo de imagen del objeto 104. En una o más modalidades, la imagen del objeto de referencia 106 capturada por el dispositivo de escaneo 102 es al menos una de una imagen 3D o una imagen 2D. Los pasos 202 y 204 pueden realizarse por separado o alternativamente como parte del mismo paso de captura de imagen o alternativamente en la secuencia inversa. El objeto de referencia 106 incluye ciertas características de referencia tales como, pero sin limitarse a, un patrón codificado y/o una determinada forma. El objeto 104 se mantiene inmóvil en relación con el objeto de referencia 106 (por ejemplo, al montar el objeto 104 sobre el objeto de referencia 106 o viceversa) mientras se captura la imagen. El objeto 104 y el objeto de referencia 106 también pueden moverse entre sí durante el escaneo.
Entonces se determina en el paso 206 si el escaneo está completo y la imagen deseada del objeto 104 ha sido capturada en su totalidad. Si la captura de la imagen no está completa, entonces el campo de visión 108 del dispositivo de escaneo 102 se ajusta con respecto al objeto 104 en el paso 208 para capturar una imagen de otra parte del objeto 104. Por ejemplo, la posición de todo el dispositivo de escaneo 102 puede moverse o puede ajustarse el campo de visión 108 de la cámara. A continuación, el proceso vuelve a los pasos 202/204 para realizar otra captura de imagen de al menos una parte del objeto 104 y al menos una parte del objeto de referencia 106. Los pasos anteriores se repiten sucesivamente hasta que se capturan suficientes imágenes (por ejemplo, fotogramas) de la parte deseada del objeto 104. En cada una de las posiciones del dispositivo de escaneo 102, el campo de visión 108 debe contener al menos una parte del objeto de referencia 106 suficiente para determinar la posición y orientación del dispositivo de escaneo 102 en el sistema de coordenadas del objeto de referencia 106. En el paso 210, las múltiples imágenes o fotogramas capturados se combinan en un sistema de coordenadas común del objeto de referencia 106 usando cualquier técnica de transformación de coordenadas conocida. Cada imagen capturada puede considerarse un fotograma que se fusiona para formar la imagen multicuadros del objeto 104 que puede usarse para calcular una medida de la superficie del objeto 104.
De esta manera, la forma y/o textura de un objeto 104 de forma compleja puede medirse usando un dispositivo de escaneo 102 capturando múltiples imágenes del objeto 104 desde diferentes puntos de vista y direcciones y luego fusionando las imágenes o fotogramas capturados en un sistema de coordenadas para alinear las imágenes fusionadas. La alineación se logra capturando tanto una parte de la superficie del objeto 104 como también un objeto de referencia 106 que tiene características conocidas (por ejemplo, forma y textura). Esto permite que la posición y la orientación del dispositivo de escaneo 102 se determinen en el sistema de coordenadas del objeto de referencia 106.
Con referencia ahora a la Figura 3, el dispositivo de escaneo 102 puede comprender múltiples escáneres o cámaras con múltiples campos de visión: al menos un campo de visión 112 para capturar la medición de la forma (por ejemplo, escaneo de superficie) y al menos un campo de visión 114 para capturar la textura de la superficie (por ejemplo, escaneo de texturas). Cada uno de los campos de visión 112 y 114 abarca al menos una parte del objeto 104 que se está fotografiando, donde al menos uno de los campos de visión 112 y 114 también debe contener al menos una parte del objeto de referencia 106 suficiente para determinar la posición y orientación del dispositivo de escaneo 102 en el sistema de coordenadas del objeto de referencia 106. Durante el proceso de captura de imágenes, la posición u orientación del dispositivo de escaneo 102 se cambia sucesivamente para cubrir todas las posiciones necesarias para que los campos de visión 112 y 114 capturen toda la superficie deseada del objeto 104. En cada una de estas orientaciones, al menos uno de los campos de visión 112 y 114 debe contener una parte del objeto de referencia 106. Las imágenes capturadas por el escaneo de superficie y el escaneo de textura pueden combinarse en el sistema de coordenadas común del objeto de referencia 106.
Uno de los campos de visión 112 y 114 puede usarse para una imagen de referencia, de modo que la posición y orientación del dispositivo de escaneo 102 asociado con el otro de los campos de visión 112 y 114 pueden convertirse en el sistema de coordenadas del objeto de referencia 106.
Con referencia ahora a la Figura 4A, en un ejemplo no reivindicado, el sistema 100 para la medición multicuadros de la superficie de la forma de objetos materiales puede utilizar una parte 120 del objeto 104 que tiene características conocidas (por ejemplo, una forma y/o textura ya conocida o calculada previamente) para proporcionar las características de referencia en lugar de un objeto de referencia independiente. La primera parte 120 del objeto 104 a capturar se selecciona para que contenga ciertas características de textura y forma conocidas, previamente calculadas o fácilmente calculadas. Las imágenes subsiguientes que son capturadas por el dispositivo de escaneo 102 en diferentes partes del objeto 104 se realizarán en el sistema de coordenadas de la parte 120 ya capturada. El campo de visión 108 de la parte del objeto 104 del que se va a formar la imagen incluye parte de la parte 120 capturada previamente que es suficiente para determinar la posición y orientación del dispositivo de escaneo 102 en relación con él. Para una parte 122 que se está capturando actualmente, habrá una región 124 superpuesta en el objeto 102 que incluye una parte de la parte 120 capturada previamente. De esta manera, la parte 120 capturada previamente sirve como objeto de referencia. El dispositivo de escaneo 102 ilustrado en la Figura 4A se ilustra con un único campo de visión 108; sin embargo, se entiende que en este ejemplo no reivindicado y en todos los demás ejemplos y modalidades descritos en este documento, el campo de visión 108 también puede incluir una pluralidad de campos de visión (por ejemplo, el par de campo de visión de escaneo de superficie 112 y escaneo de textura campo de visión 114).
Con referencia ahora a la Figura 4B, la parte conocida 120 continuará expandiendo las capturas de imágenes subsiguientes, por ejemplo, como se ilustra mediante la flecha direccional 126 que muestra el movimiento de los campos de visión previos 108 del dispositivo de escaneo 102. El campo de visión 108 se mueve de tal manera que cada sección subsiguiente del objeto 104 a fotografiar incluye parte de la parte 120 capturada previamente que es suficiente para determinar la posición y orientación del dispositivo de escaneo 102 en relación con él. Por tanto, con cada captura de imagen subsiguiente, la parte conocida 120 aumenta de tamaño (acumulándose) hasta que abarca toda la parte deseada del objeto 104 a capturar.
Con referencia ahora a la Figura 5, en un ejemplo no reivindicado, el sistema 100 para la medición multicuadros de la superficie de la forma de los objetos materiales puede incluir un dispositivo de escaneo adicional 130 que tiene un campo de visión adicional 132, donde el campo de visión 132 puede incluir tanto un campo de escaneo de superficie de visión 112 y un campo de visión de escaneo de textura 114. El dispositivo de escaneo 102 captura una imagen del objeto 104 para medir la forma y/o la textura de la superficie del objeto, mientras que el otro dispositivo de escaneo 130 incluye un campo de visión 132 en una dirección diferente del objeto 104 que captura una imagen del objeto de referencia 106 para determinar la posición espacial del dispositivo de escaneo 130. A través de una relación conocida entre el dispositivo de escaneo de objetos 102 y el dispositivo de escaneo de objetos de referencia 130, la posición y orientación del dispositivo de escaneo de objetos 102 pueden convertirse en el sistema de coordenadas del objeto de referencia 106.
Con referencia ahora a la Figura 6, en una o más modalidades, el sistema 100 para la medición multicuadros de la superficie de la forma de objetos materiales puede incluir una pluralidad de dispositivos de escaneo 140 (por ejemplo, 140a, 140b, 140c, 140d, 140e ...) que tienen cada uno un respectivo objeto de referencia 106 (por ejemplo, 106a, 106b, 106c, 106d, 106e ...) colocado sobre el mismo. De forma similar a los ejemplos descritos en relación con la Figura 5, cada dispositivo 140 de escaneo incluye un campo de visión 108 respectivo (o un par de campos de visión 112 y 114) del objeto 104 que se captura y también un campo de visión 132 del objeto de referencia respectivo de un objeto 106 de referencia adyacente ubicado en un dispositivo de escaneo 140. En una modalidad, los dispositivos de escaneo 140 se colocan en una sucesión alrededor del objeto 104, con los campos de visión 108 de cada dispositivo 140 capturando una parte del objeto 102 que se escanea mientras que un segundo campo de visión 132 captura al menos una parte del objeto de referencia 106 montado en el siguiente dispositivo de escaneo 140 en la sucesión. Por ejemplo, el dispositivo de escaneo 140a tendrá un campo de visión 108a (o un par de campos de visión 112a y 114a) del objeto 104 y también tendrá un campo de visión 132a del objeto de referencia 106b ubicado en el dispositivo de escaneo adyacente 140b. Cada uno de los dispositivos de escaneo 140 puede determinar su posición en el sistema de coordenadas del objeto de referencia 106 que captura su campo de visión 132. La continuidad de tal disposición en sucesión permite que todas las imágenes capturadas de los objetos de referencia 106 (por ejemplo, 106a, 106b, 106c, 106d, 106e ...) se conviertan en un sistema de coordenadas común. En una o más modalidades, cada dispositivo de escaneo 140 puede comprender un par de dispositivos de escaneo 102 y 130 similares a la disposición descrita en relación con la Figura 5, donde a través de una relación conocida entre cada dispositivo de escaneo de objetos 102 y su respectivo dispositivo de escaneo de objetos de referencia 130, la posición y orientación del dispositivo de escaneo de objetos 102 puede convertirse en un sistema de coordenadas común del objeto de referencia 106.
Con referencia ahora a la Figura 7, en una o más modalidades, el sistema 100 para la medición multicuadros de la superficie de la forma de objetos materiales puede realizar capturas sucesivas de objetos y capturas de objetos de referencia usando capturas sucesivas en ubicaciones alrededor del objeto 104, similar al sistema sucesivo de la Figura 6, pero usando sólo dos dispositivos de escaneo 150a y 150b que se mueven uno en relación con el otro uno por uno a varias posiciones alrededor del objeto 104. Cada dispositivo de escaneo 150a y 150b incluye un dispositivo de escaneo de objetos 102 que tiene un campo de visión 108 y un dispositivo de escaneo de objetos de referencia 130 que tiene un campo de visión de objetos de referencia 132, similar a la modalidad descrita en relación con la Figura 6. Cada uno de los dispositivos de escaneo 150a y 150b también incluye un objeto de referencia respectivo 106a y 106b montado en el mismo.
En una o más modalidades, cada paso de movimiento de los dispositivos de escaneo 150a y 150b en otra posición alrededor del objeto 104 comprende: a) mover uno de los dispositivos de escaneo 150a y 150b en otra posición de manera que el dispositivo de escaneo movido tenga un campo de vista 108 respectivo de al menos una parte de la superficie del objeto 104 que se está capturando y de manera que el dispositivo de escaneo 150 que no se movió tiene un campo de visión respectivo 132 de al menos una parte de la superficie del objeto de referencia 106 montado en el dispositivo de escaneo 150 que se movió; b) capturar imágenes de las respectivas partes de la superficie del objeto 104 para ser capturadas en el campo de vistas 108a y 108b de cada uno de los dispositivos de escaneo 150a y 150b y capturar una imagen de la parte respectiva de la superficie del objeto de referencia 106 en el campo de visión 132 del dispositivo de escaneo 150 que no se movió; c) transformar las imágenes capturadas de las respectivas partes de la superficie del objeto 104 a medir, así como las imágenes de las partes del objeto 104 a medir capturadas y fusionadas de configuraciones anteriores en un sistema de coordenadas de referencia común de uno de los objetos de referencia 106 que, en una o más modalidades, pueden ser el objeto de referencia 106 montado en el dispositivo de escaneo 150 que se movió; d) fusionar las imágenes de las respectivas partes de la superficie del objeto 104 a medir en el sistema de coordenadas de uno de los objetos de referencia 106 con las imágenes de las partes del objeto 104 a medir capturadas y fusionadas de configuraciones anteriores. En una o más modalidades, en el primer paso de mover uno de los dispositivos de escaneo 150a y 150b a otra posición, puede moverse cualquiera de los dispositivos de escaneo 150a y 150b. En una o más modalidades, en cada paso excepto el primer paso de posicionamiento, el dispositivo de escaneo 150 que se mueve debería ser el dispositivo de escaneo 150 que no se movió en el paso anterior de reposicionamiento.
Un ejemplo del funcionamiento anterior del sistema 100 de la Figura 7 se expondrá a continuación. Cada uno de los dispositivos de escaneo 150a y 150b está posicionado en relación con el objeto 104 de manera que el campo de visión 132a del dispositivo de escaneo 150a observe el objeto de referencia 106b en el dispositivo de escaneo 150b. El dispositivo de escaneo 150b captura una imagen de una parte del objeto 104 desde el campo de visión 108b, mientras que el dispositivo de escaneo 150a captura una imagen de otra parte del objeto 104 desde el campo de visión 108a. El dispositivo de escaneo 150a también captura una imagen del objeto de referencia 106b en el dispositivo de escaneo 150b y determina la posición del dispositivo de escaneo 150a en el sistema de coordenadas del objeto de referencia 106b del dispositivo de escaneo 150b. Las imágenes capturadas del objeto 104 en los campos de visión 108a y 108b por los dispositivos de escaneo 150a y 150b se convierten luego al sistema de coordenadas del objeto de referencia 106b y se fusionan en el sistema de coordenadas del objeto de referencia 106b.
Uno de los dispositivos de escaneo 150, por ejemplo, el dispositivo de escaneo 150a, se mueve entonces a una posición diferente en relación con el objeto 104, de modo que el campo de visión del objeto de referencia 132b del dispositivo de escaneo 150b observe el objeto de referencia 106a montado en el dispositivo de escaneo 150a, por ejemplo, el dispositivo de escaneo 150a puede moverse como se indica mediante la flecha direccional 152.
El dispositivo de escaneo 150a captura entonces una imagen de una parte del objeto 104 desde el campo de visión 108a en la nueva posición 154 y transforma la imagen capturada en el sistema de coordenadas del objeto de referencia 106a. El dispositivo de escaneo 150b también captura una imagen del objeto de referencia 106a montado en el dispositivo de escaneo 150a y determina la posición del dispositivo de escaneo 150b en el sistema de coordenadas del objeto de referencia 106a. La parte del objeto 104 capturada previamente por los dispositivos de escaneo 150a y 150b y fusionada previamente se convierte luego en el sistema de coordenadas del objeto de referencia 106a y se fusiona con la imagen de la parte del objeto 104 capturada desde el campo de visión 108a a la nueva posición 154.
El otro dispositivo de escaneo 150, por ejemplo, el dispositivo de escaneo 150b, que no era el que se acababa de mover anteriormente, se mueve luego a una posición diferente en relación con el objeto 104, de modo que el campo de visión 132a del objeto de referencia del dispositivo de escaneo 150a observa el objeto de referencia 106b montado en el dispositivo de escaneo 150b. Por ejemplo, el dispositivo de escaneo 150b puede moverse como indica la flecha direccional 156 a la nueva posición 158. El dispositivo de escaneo 150b captura entonces una nueva imagen del objeto 104 en la posición 158. El dispositivo de escaneo 150a captura una imagen del objeto de referencia 106b y determina la posición del dispositivo de escaneo 150a en el sistema de coordenadas del objeto de referencia 150b. La parte de la superficie del objeto 104 previamente escaneada y fusionada en el sistema de coordenadas del objeto de referencia 150a se convierte en el sistema de coordenadas del objeto de referencia 150b y se fusiona con la imagen del objeto capturada por el dispositivo de escaneado 150b en la posición 158. Este proceso de reubicar alternativamente los dispositivos de escaneo 150a y 150b se repite hasta que se ha capturado toda la superficie del objeto 104 en un formato fotograma por fotograma y se ha fusionado en una imagen multicuadros en un sistema de coordenadas común.
En una o más modalidades, los dispositivos de escaneo 140 y 150 pueden conectarse a un sistema informático (no mostrado) para controlar el funcionamiento de los dispositivos de escaneo 140 y 150 y también para realizar los cálculos necesarios para la conversión de coordenadas, la fusión y otro procesamiento de imágenes. El sistema informático puede comprender un sistema informático de propósito general que sea adecuado para implementar el método para la medición multicuadros de la superficie de la forma de objetos materiales de acuerdo con la presente divulgación. El sistema informático es solo un ejemplo de un entorno informático adecuado y no pretende sugerir ninguna limitación en cuanto al alcance de uso o funcionalidad de la invención. En diversas modalidades, el presente sistema y método para la medición multicuadros de la superficie de la forma de objetos materiales es operativo con otros numerosos entornos o configuraciones de sistemas informáticos de propósito general o de propósito especial. Los ejemplos de sistemas informáticos, entornos y/o configuraciones bien conocidos que pueden ser adecuados para su uso con la invención incluyen, entre otros, ordenadores personales, servidores, dispositivos portátiles o de mano, sistemas multiprocesadores, sistemas basados en microprocesadores, electrónica de consumo programable, ordenadores en red, miniordenadores, ordenadores centrales, entornos informáticos distribuidos que incluyen cualquiera de los sistemas o dispositivos anteriores, y similares.
En diversas modalidades, los algoritmos de triangulación y el método para la medición multicuadros de la superficie de la forma de objetos materiales pueden describirse en el contexto general de instrucciones ejecutables por ordenador, tales como módulos de programa, ejecutados por un ordenador. En general, los módulos de programa incluyen rutinas, programas, objetos, componentes, estructuras de datos, etc. que realizan tareas particulares o implementan tipos particulares de datos abstractos. Estos algoritmos y métodos también pueden practicarse en entornos informáticos distribuidos donde las tareas son realizadas por dispositivos de procesamiento remoto que están vinculados a través de una red de comunicaciones. En un entorno informático distribuido, los módulos de programa pueden estar ubicados en medios de almacenamiento informáticos tanto locales como remotos, incluidos dispositivos de almacenamiento de memoria, en una modalidad, el sistema informático implementa la medición multicuadros de la superficie de la forma de los objetos materiales ejecutando uno o más programas de ordenador. Los programas de ordenador pueden almacenarse en un medio de memoria o medio de almacenamiento, como una memoria y/o ROM, o pueden proporcionarse a una CPU a través de una conexión de red u otra conexión de E/S.
El sistema y el método formados de acuerdo con las modalidades descritas en este documento proporcionan la medición precisa de la superficie y/o textura de objetos grandes y/o de forma compleja al permitir que múltiples fotogramas de imágenes se fusionen en un sistema de coordenadas común. Estas enseñanzas pueden aplicarse a una amplia gama de problemas científicos y de ingeniería que requieren datos precisos sobre la forma de la superficie de un objeto, la distancia a la superficie o su orientación espacial. El presente sistema y método tienen aplicaciones útiles en muchos campos, que incluyen, entre otros, imágenes digitales, control de formas de piezas, animación por ordenador, captura de formas de objetos que tienen valor cultural, histórico o científico, reconocimiento de formas, topografía, visión artificial, procedimientos médicos, posicionamiento especial de dispositivos y robots, etc.

Claims (14)

  1. REIVINDICACIONES
    i. Un método para medir la superficie de un objeto (104), que comprende:
    capturar, por cada uno de al menos dos dispositivos de escaneo (140a-140e; 150a-150b), al menos una imagen tridimensional, 3D, de al menos una parte de una superficie del objeto (104) a medir, en donde cada dispositivo de escaneo (140b; 150b) incluye un objeto de referencia (106b) posicionado sobre el mismo; capturar, mediante al menos uno de los dispositivos de escaneo (140a; 150a), al menos una imagen 3D de al menos una parte de una superficie del objeto de referencia (106b) en otro dispositivo de escaneo (140b; 150b);
    transformar, a través de una técnica de transformación de coordenadas, usando la al menos una imagen 3D de la al menos parte de la superficie del objeto de referencia (106b), las imágenes 3D capturadas de las partes de la superficie del objeto (104) a medir en un sistema de coordenadas común; y
    fusionar las imágenes 3D capturadas de las partes de la superficie del objeto (104) a medir en el sistema de coordenadas común.
  2. 2. El método de la reivindicación 1, en donde las imágenes 3D capturadas de las partes de la superficie del objeto a medir incluyen además información sobre el objeto a medir.
  3. 3. El método de la reivindicación 1, en donde las imágenes 3D se toman con un dispositivo de escaneo caracterizado por un campo de visión y dicho campo de visión está adaptado para proporcionar la captura tanto de imágenes 3d de dicho objeto a medir como imágenes 3D de dicho objeto de referencia al mismo tiempo.
  4. 4. El método de la reivindicación 1, en donde las imágenes 3D de las partes de la superficie del objeto a medir se capturan en campos de visión que están separados de los campos de visión para capturar las imágenes 3D de las partes del objeto de referencia.
  5. 5. El método de la reivindicación 1, que comprende además:
    posicionar una pluralidad de dispositivos de escaneo en varias ubicaciones con respecto al objeto a medir de manera que cada uno de los dispositivos de escaneo tenga un primer campo de visión respectivo orientado hacia al menos una parte del objeto a medir, en donde cada uno de la pluralidad de los dispositivos de escaneo comprenden un objeto de referencia que tiene ciertas características de referencia colocado sobre el mismo, en donde cada uno de la pluralidad de dispositivos de escaneo tiene un segundo campo de visión respectivo orientado hacia al menos una parte de un objeto de referencia, en donde cada uno de la pluralidad de dispositivos de escaneo está posicionado uno con respecto al otro de manera que el segundo campo de visión de al menos uno de los dispositivos de escaneo se dirija hacia al menos una parte de la superficie del objeto de referencia de otro dispositivo de escaneo;
    capturar imágenes 3D de las respectivas partes de la superficie del objeto a medir en el primer campo de visión de cada uno de los dispositivos de escaneo;
    capturar imágenes 3D de las respectivas partes de la superficie de los objetos de referencia en el segundo campo de visión de cada uno de los dispositivos de escaneo que observa los respectivos objetos de referencia;
    transformar, mediante una técnica de transformación de coordenadas, usando al menos una de las imágenes 3D de las respectivas partes de la superficie de los objetos de referencia, las imágenes 3D capturadas de las respectivas partes de la superficie del objeto a medir en un sistema de coordenadas común y fusionar todas las imágenes capturadas de las respectivas partes de la superficie del objeto a medir juntas en el sistema de coordenadas común.
  6. 6. El método de la reivindicación 1, que comprende además:
    posicionar el primer y segundo dispositivo de escaneo de los al menos dos dispositivos de escaneo en una primera configuración con respecto a dicho objeto a medir de tal manera que cada uno de dichos primer y segundo dispositivos de escaneo tenga un primer campo de visión respectivo de al menos una parte de la superficie de dicho objeto a medir, en donde cada uno de dichos dispositivos de escaneo incluye un objeto de referencia que tiene ciertas características de referencia colocado sobre el mismo, en donde cada uno de dichos dispositivos de escaneo tiene un segundo campo de visión respectivo orientado hacia al menos una parte de la superficie de un objeto de referencia, en donde dichos dispositivos de escaneo se colocan uno con respecto al otro de manera que el segundo campo de visión de uno de los dispositivos de escaneo observe al menos una parte de la superficie del objeto de referencia ubicado en el otro dispositivo de escaneo;
    capturar imágenes 3D de las respectivas partes de la superficie de dicho objeto a medir en el primer campo de visión de cada uno de dichos dispositivos de escaneo;
    capturar una imagen 3D de la parte respectiva de la superficie del objeto de referencia en el segundo campo de visión del dispositivo de escaneo orientado hacia la parte respectiva de la superficie del objeto de referencia;
    transformar, usando la imagen 3D de al menos una parte de la superficie de los objetos de referencia, dichas imágenes 3D capturadas de las partes respectivas de la superficie de dicho objeto a medir capturadas en la primera configuración en un sistema de coordenadas común;
    fusionar las imágenes 3D capturadas de las partes respectivas de la superficie de dicho objeto a medir capturado en la primera configuración en el sistema de coordenadas común;
    reposicionar repetidamente uno del primer y segundo dispositivos de escaneo uno por uno de manera alterna en diferentes configuraciones y:
    capturar en cada configuración imágenes 3D de las respectivas partes de la superficie de dicho objeto a medir en el primer campo de visión de cada uno de los dispositivos de escaneo;
    capturar en cada configuración una imagen 3D de la parte respectiva de la superficie de los objetos de referencia en el segundo campo de visión del dispositivo de escaneo que observa la parte respectiva de la superficie del objeto de referencia;
    transformar, mediante una técnica de transformación de coordenadas, usando la imagen 3D de la respectiva parte de la superficie de uno de los objetos de referencia, en cada configuración imágenes 3D capturadas de las respectivas partes de la superficie de dicho objeto a medir y las imágenes 3D de las partes de dicho objeto a medir capturadas y transformadas de configuraciones anteriores en un sistema de coordenadas común;
    fusionar cada configuración de las imágenes 3D de las respectivas partes de la superficie de dicho objeto a medir en el sistema de coordenadas común con las imágenes 3D de las partes del objeto a medir capturadas y transformadas a partir de configuraciones anteriores.
  7. 7. El método de la reivindicación 1, en donde la imagen 3D capturada de una parte de la superficie de dicho objeto a medir se obtiene con un método de triangulación de luz estructurada.
  8. 8. Un sistema (100) para la medición de la superficie de un objeto (104), que comprende:
    al menos dos dispositivos de escaneo (140a-140e; 150a-150b) para cada captura de al menos una imagen tridimensional, 3D, de al menos una parte de una superficie del objeto (104) a medir y para capturar al menos una imagen 3D de al menos una parte de una superficie de un objeto de referencia (106b) por al menos uno de los dispositivos de escaneo (140a; 150a), en donde cada dispositivo de escaneo respectivo (140b; 150b) incluye un objeto de referencia (106b) sobre el mismo; y
    un dispositivo informático para transformar automáticamente, usando al menos una imagen 3D de la al menos parte de la superficie del objeto de referencia, las imágenes 3D capturadas de las partes de la superficie del objeto (104) a medir en un sistema de coordenadas común y para fusionar automáticamente las imágenes 3D capturadas de las partes de la superficie del objeto (104) a medir en el sistema de coordenadas común.
  9. 9. El sistema de la reivindicación 8, en donde las imágenes 3D capturadas de las partes de la superficie de dicho objeto a medir incluyen además información de color con respecto a dicho objeto a medir.
  10. 10. El sistema de la reivindicación 8, en donde dichos al menos dos dispositivos de escaneo se caracterizan por un campo de visión y dicho campo de visión está adaptado para proporcionar la captura de imágenes 3D de dicho objeto a medir e imágenes 3D de dicho objeto de referencia al mismo tiempo.
  11. 11. El sistema de la reivindicación 8, en donde los dispositivos de escaneo capturan imágenes 3D de las partes de la superficie del objeto a medir en campos de visión que están separados de los campos de visión para capturar las imágenes 3D de las partes del objeto de referencia.
  12. 12. El sistema de la reivindicación 8, que comprende además:
    una pluralidad de dispositivos de escaneo que se pueden colocar en varias ubicaciones con respecto a dicho objeto a medir de manera que cada uno de los dispositivos de escaneo tenga un primer campo de visión respectivo de al menos una parte de dicho objeto a medir, en donde cada uno de la pluralidad de los dispositivos de escaneo incluyen un objeto de referencia que tiene ciertas características de referencia colocado en el mismo, en donde cada uno de la pluralidad de dispositivos de escaneo tiene un segundo campo de visión respectivo orientado hacia al menos una parte de un objeto de referencia, en donde cada uno de la pluralidad de dispositivos de escaneo están posicionados uno con respecto al otro de manera que el segundo campo de visión de al menos uno de los dispositivos de escaneo esté orientado hacia al menos una parte de la superficie del objeto de referencia de otro dispositivo de escaneo;
    la pluralidad de dispositivos de escaneo operativos para capturar imágenes 3D de las respectivas partes de la superficie del objeto a medir en el primer campo de visión de cada uno de los dispositivos de escaneo; la pluralidad de dispositivos de escaneo operativos para capturar imágenes 3D de las respectivas partes de la superficie de los objetos de referencia en el segundo campo de visión de cada uno de los dispositivos de escaneo que observa los respectivos objetos de referencia;
    el dispositivo informático operativo para transformar automáticamente, usando al menos una de las imágenes 3D de las respectivas partes de la superficie de los objetos de referencia, las imágenes 3D capturadas de las respectivas partes de la superficie del objeto a medir en un sistema de coordenadas común; y
    el dispositivo informático operativo para fusionar todas las imágenes 3D capturadas de las respectivas partes de la superficie del objeto a medir juntas en un sistema de coordenadas común.
  13. 13. El sistema de la reivindicación 8, que comprende además:
    un primer y segundo dispositivo de escaneo de los al menos dos dispositivos de escaneo que se pueden colocar en una primera configuración con respecto a dicho objeto a medir de manera que cada uno de los dispositivos de escaneo tenga un primer campo de visión respectivo de al menos una parte de la superficie de dicho objeto a medir, en donde cada uno de los dispositivos de escaneo incluye un objeto de referencia que tiene ciertas características de referencia colocadas sobre el mismo, en donde cada uno de los dispositivos de escaneo tiene un segundo campo de visión respectivo orientado hacia al menos una parte de la superficie de un objeto de referencia, en donde los dispositivos de escaneo se colocan uno con respecto al otro de modo que el segundo campo de visión de uno de los dispositivos de escaneo esté orientado hacia al menos una parte de la superficie del objeto de referencia ubicado en el otro dispositivo de escaneo;
    los dispositivos de escaneo operativos para capturar imágenes 3D de las respectivas partes de la superficie de dicho objeto a medir en el primer campo de visión de cada uno de los dispositivos de escaneo; los dispositivos de escaneo operativos para capturar una imagen 3D de la parte respectiva de la superficie del objeto de referencia en el segundo campo de visión del dispositivo de escaneo que observa la parte respectiva de la superficie del objeto de referencia;
    el dispositivo informático operativo para transformar automáticamente, usando la imagen 3D de la parte respectiva de la superficie del objeto de referencia, las imágenes 3D capturadas de las partes respectivas de la superficie del objeto a medir capturadas en la primera configuración en un sistema de coordenadas común;
    el dispositivo informático operativo para fusionar automáticamente las imágenes 3D de las respectivas partes de la superficie del objeto a medir capturado en la primera configuración en el sistema de coordenadas común;
    los dispositivos de escaneo se pueden reposicionar repetidamente uno a uno de manera alterna en diferentes configuraciones y:
    los dispositivos de escaneo operativos para capturar en cada configuración imágenes de las respectivas partes de la superficie del objeto a medir en el primer campo de visión de cada uno de los dispositivos de escaneo;
    los dispositivos de escaneo operativos para capturar en cada configuración una imagen de la parte respectiva de la superficie de los objetos de referencia en el segundo campo de visión del dispositivo de escaneo que observa la parte respectiva de la superficie del objeto de referencia;
    el dispositivo informático operativo para transformar automáticamente, usando una imagen de una parte respectiva de la superficie de uno de los objetos de referencia, en cada configuración imágenes 3D capturadas de las respectivas partes de la superficie del objeto a medir y las imágenes 3D de las partes del objeto a medir capturadas y transformadas de configuraciones anteriores en un sistema de coordenadas común;
    el dispositivo informático operativo para fusionar automáticamente en cada configuración las imágenes 3D de las respectivas partes de la superficie del objeto a medir en el sistema de coordenadas común con las imágenes 3D de las partes del objeto a medir, capturar y transformar a partir de configuraciones anteriores.
  14. 14. El sistema de la reivindicación 8, en donde la imagen 3D capturada de una parte de la superficie del objeto a medir se obtiene con un método de triangulación de luz estructurada.
ES08831094T 2007-09-12 2008-09-03 Sistema y método para la medición multicuadro de la superficie de la forma de objetos Active ES2831013T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/854,518 US20090067706A1 (en) 2007-09-12 2007-09-12 System and Method for Multiframe Surface Measurement of the Shape of Objects
PCT/US2008/075150 WO2009035890A2 (en) 2007-09-12 2008-09-03 System and method for multiframe surface measurement of the shape of objects

Publications (1)

Publication Number Publication Date
ES2831013T3 true ES2831013T3 (es) 2021-06-07

Family

ID=40431866

Family Applications (1)

Application Number Title Priority Date Filing Date
ES08831094T Active ES2831013T3 (es) 2007-09-12 2008-09-03 Sistema y método para la medición multicuadro de la superficie de la forma de objetos

Country Status (13)

Country Link
US (1) US20090067706A1 (es)
EP (1) EP2195608B1 (es)
JP (1) JP2011506914A (es)
KR (1) KR101600769B1 (es)
CN (1) CN101939617B (es)
AU (1) AU2008299201A1 (es)
DK (1) DK2195608T3 (es)
ES (1) ES2831013T3 (es)
HU (1) HUE051730T2 (es)
MX (1) MX2010002823A (es)
PL (1) PL2195608T3 (es)
RU (1) RU2010114239A (es)
WO (1) WO2009035890A2 (es)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0608841D0 (en) * 2006-05-04 2006-06-14 Isis Innovation Scanner system and method for scanning
US8582824B2 (en) * 2009-06-25 2013-11-12 Twin Coast Metrology Cell feature extraction and labeling thereof
DE102011011360A1 (de) * 2011-02-16 2012-08-16 Steinbichler Optotechnik Gmbh Vorrichtung und Verfahren zur Bestimmung der 3-D-Koordinaten eines Objekts und zum Kalibrieren eines Industrieroboters
DE102011114674C5 (de) 2011-09-30 2020-05-28 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
WO2013071416A1 (en) * 2011-11-17 2013-05-23 Techmed 3D Inc. Method and system for forming a virtual model of a human subject
GB2502149B (en) * 2012-05-18 2017-01-18 Acergy France SAS Improvements relating to pipe measurement
TWI510082B (zh) * 2012-06-06 2015-11-21 Etron Technology Inc 用於影像辨識之影像擷取方法及其系統
CN103438803B (zh) * 2013-09-18 2015-10-28 苏州晓创光电科技有限公司 计算机视觉技术跨视场精确测量矩形零件尺寸的方法
CN107073936B (zh) * 2014-05-20 2019-12-13 维罗斯-纯粹数字有限公司 打印系统及方法
JP6376887B2 (ja) * 2014-08-08 2018-08-22 キヤノン株式会社 3dスキャナ、3dスキャン方法、コンピュータプログラム、記録媒体
CN107690303B (zh) * 2015-06-04 2021-11-05 惠普发展公司,有限责任合伙企业 用于生成三维模型的计算设备和方法
CN105652330B (zh) * 2015-12-25 2018-06-26 同方威视技术股份有限公司 便携式背散射成像检查设备及成像方法
CN105823416B (zh) * 2016-03-04 2019-01-15 大族激光科技产业集团股份有限公司 多相机测量物体的方法和装置
US10839856B2 (en) 2016-03-09 2020-11-17 Kyle Quinton Beatch Systems and methods for generating compilations of photo and video data
CN109196303B (zh) 2016-04-01 2020-10-23 乐高公司 玩具扫描仪
EP3252458A1 (en) * 2016-06-01 2017-12-06 Hijos de Jose Sivo, S.L. System and method for digitalizing tridimensional objects
LU100021B1 (en) 2017-01-13 2018-07-30 Adapttech Ltd Socket fitting system
US10122997B1 (en) * 2017-05-03 2018-11-06 Lowe's Companies, Inc. Automated matrix photo framing using range camera input
KR101881702B1 (ko) * 2017-08-18 2018-07-24 성균관대학교산학협력단 애드-온 렌즈 어셈블리의 설계 방법 및 장치
TWI699756B (zh) * 2017-09-13 2020-07-21 國立清華大學 基於彈性特徵影像尺的定位量測系統
CN108347561B (zh) * 2017-10-27 2020-01-03 广东康云多维视觉智能科技有限公司 激光引导扫描系统及扫描方法
US20230326056A1 (en) * 2020-07-13 2023-10-12 Sony Group Corporation Information processing apparatus, information processing method, and program

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5129010A (en) * 1989-12-15 1992-07-07 Kabushiki Kaisha Toyoto Chuo Kenkyusho System for measuring shapes and dimensions of gaps and flushnesses on three dimensional surfaces of objects
JPH0996506A (ja) * 1995-09-29 1997-04-08 Ricoh Co Ltd 3次元視覚センサによる位置調整方法および3次元画像認識装置
JP3869876B2 (ja) * 1995-12-19 2007-01-17 キヤノン株式会社 画像計測方法及び画像計測装置
US6081273A (en) * 1996-01-31 2000-06-27 Michigan State University Method and system for building three-dimensional object models
DE69910757T2 (de) * 1998-04-13 2004-06-17 Eyematic Interfaces, Inc., Santa Monica Wavelet-basierte gesichtsbewegungserfassung für avataranimation
US6301370B1 (en) * 1998-04-13 2001-10-09 Eyematic Interfaces, Inc. Face recognition from video images
US6272231B1 (en) * 1998-11-06 2001-08-07 Eyematic Interfaces, Inc. Wavelet-based facial motion capture for avatar animation
JP2001082941A (ja) * 1999-09-16 2001-03-30 Gen Tec:Kk キャリブレーション用3次元パターン
CA2306515A1 (en) * 2000-04-25 2001-10-25 Inspeck Inc. Internet stereo vision, 3d digitizing, and motion capture camera
JP2003533685A (ja) * 2000-05-16 2003-11-11 シュタインビフラー オプトテヒニク ゲーエムベーハー 物体の3次元形状測定方法及び装置
JP2003042732A (ja) * 2001-08-02 2003-02-13 Topcon Corp 表面形状測定装置及びその方法、表面形状測定プログラム、並びに表面状態図化装置
US6781618B2 (en) 2001-08-06 2004-08-24 Mitsubishi Electric Research Laboratories, Inc. Hand-held 3D vision system
US6901132B2 (en) * 2003-06-26 2005-05-31 General Electric Company System and method for scanning an object in tomosynthesis applications
JP4378128B2 (ja) * 2003-07-23 2009-12-02 照明 與語 3次元形状測定方法
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
JP3779308B2 (ja) * 2004-07-21 2006-05-24 独立行政法人科学技術振興機構 カメラ校正システム及び三次元計測システム
EP2278271B1 (en) 2005-03-11 2012-05-23 Creaform Inc. Auto-referenced system and apparatus for three-dimensional scanning
JP4737668B2 (ja) * 2005-05-30 2011-08-03 コニカミノルタセンシング株式会社 3次元計測方法および3次元計測システム
US20070065004A1 (en) * 2005-08-01 2007-03-22 Topcon Corporation Three-dimensional measurement system and method of the same, and color-coded mark
WO2007030026A1 (en) * 2005-09-09 2007-03-15 Industrial Research Limited A 3d scene scanner and a position and orientation system

Also Published As

Publication number Publication date
EP2195608B1 (en) 2020-08-12
MX2010002823A (es) 2010-06-30
HUE051730T2 (hu) 2021-03-29
AU2008299201A1 (en) 2009-03-19
CN101939617B (zh) 2016-11-16
CN101939617A (zh) 2011-01-05
WO2009035890A2 (en) 2009-03-19
US20090067706A1 (en) 2009-03-12
EP2195608A4 (en) 2015-08-26
DK2195608T3 (da) 2020-11-09
EP2195608A2 (en) 2010-06-16
WO2009035890A3 (en) 2010-08-12
PL2195608T3 (pl) 2021-02-08
KR101600769B1 (ko) 2016-03-08
RU2010114239A (ru) 2011-10-20
JP2011506914A (ja) 2011-03-03
KR20100087089A (ko) 2010-08-03

Similar Documents

Publication Publication Date Title
ES2831013T3 (es) Sistema y método para la medición multicuadro de la superficie de la forma de objetos
ES2801395T3 (es) Sistema y método para la medición tridimensional de la forma de objetos materiales
Gühring Dense 3D surface acquisition by structured light using off-the-shelf components
CN101603812B (zh) 一种超高速实时三维视觉测量装置及方法
CA2762038C (en) Method and device for three-dimensional surface detection with a dynamic reference frame
US9482514B2 (en) Diagnosing multipath interference and eliminating multipath interference in 3D scanners by directed probing
US20150015701A1 (en) Triangulation scanner having motorized elements
US8923603B2 (en) Non-contact measurement apparatus and method
US20140268178A1 (en) System and method of acquiring three dimensional coordinates using multiple coordinate measurement devices
US20150070468A1 (en) Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
JP6282098B2 (ja) キャリブレーション装置及び方法
JP2017527812A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの較正
JP2017528714A (ja) 3次元座標の光学測定のための方法および3次元測定デバイスの制御
JP6645140B2 (ja) 画像のキャリブレーション装置及びキャリブレーション方法
KR20150069927A (ko) 카메라 및 레이저 센서의 캘리브레이션 장치 및 캘리브레이션 방법
US20200007843A1 (en) Spatiotemporal calibration of rgb-d and displacement sensors
US20220130112A1 (en) Hybrid photogrammetry
US20120056999A1 (en) Image measuring device and image measuring method
Bevilacqua et al. Stereo calibration for a camera-projector pair
Kim et al. Shape Acquisition System Using an Handheld Line Laser Pointer Without Markers
Gordon et al. An invisible-stylus-based coordinate measurement system via scaled orthographic projection
Wu et al. Novel 3D shape measurement method with lower occlusion for the bottom of cavity
Kawasaki et al. Dense 3D reconstruction with an uncalibrated active stereo system
AU2014240228A1 (en) System and method for multiframe surface measurement of the shape of objects
Goeman et al. Automatic camera to laser calibration for high accuracy mobile mapping systems using INS