ES2719492T3 - Sistema de inspección para inspeccionar un objeto y método de inspección para el mismo - Google Patents

Sistema de inspección para inspeccionar un objeto y método de inspección para el mismo Download PDF

Info

Publication number
ES2719492T3
ES2719492T3 ES14826074T ES14826074T ES2719492T3 ES 2719492 T3 ES2719492 T3 ES 2719492T3 ES 14826074 T ES14826074 T ES 14826074T ES 14826074 T ES14826074 T ES 14826074T ES 2719492 T3 ES2719492 T3 ES 2719492T3
Authority
ES
Spain
Prior art keywords
light
light projector
dimensional
information data
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES14826074T
Other languages
English (en)
Inventor
Jean-Daniel Deschenes
Philippe Lambert
Nicolas Martel-Brisson
Sébastien Quirion
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Polyrix Inc
Original Assignee
Polyrix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Polyrix Inc filed Critical Polyrix Inc
Application granted granted Critical
Publication of ES2719492T3 publication Critical patent/ES2719492T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features

Abstract

Un sistema de inspección en tres dimensiones (20) para inspeccionar una superficie exterior de un objeto (22), comprendiendo el sistema de inspección (20): al menos un proyector de luz (30) y al menos dos cámaras calibradas (40) que definen conjuntamente un campo de visión (50) del sistema de inspección (20); y un ordenador (60) conectado de manera operativa al al menos un proyector de luz (30) y a las al menos dos cámaras calibradas (40), estando configurado el ordenador (60) para: adquirir datos de objeto en tres dimensiones representativos de la superficie exterior del objeto (22) posicionado en el campo de visión (50) a través de proyección de luz sobre este por el al menos un proyector de luz (30) y la adquisición de luz de retorno mediante las al menos dos cámaras calibradas (40), relacionando los datos de objeto en tres dimensiones puntos superficiales sobre la superficie exterior del objeto (22) con uno o más puntos fuente del al menos un proyector de luz (30); generar datos de información de inspección basándose en los datos de objeto en tres dimensiones adquiridos; y proyectar los datos de información de inspección sobre al menos algunos de los puntos superficiales de la superficie exterior del objeto (22) usando los puntos fuente correspondientes del al menos un proyector de luz (30), realizándose la determinación de una imagen que ha de representarse mediante el al menos un proyector de luz (30) para proyectar los datos de información de inspección generados sobre la superficie exterior del objeto (22) sin requerir calibración adicional del al menos un proyector de luz (30).

Description

DESCRIPCIÓN
Sistema de inspección para inspeccionar un objeto y método de inspección para el mismo
Campo de la invención
La presente invención se refiere al campo de la inspección de objetos. Más particularmente, esta se refiere a un sistema de inspección en tres dimensiones para inspeccionar un objeto y a un método de inspección para el mismo.
Antecedentes
El control de calidad es una preocupación constante en la industria de la fabricación. Por lo tanto, a lo largo del tiempo se han desarrollado numerosas herramientas para ayudar a los operarios a la hora de realizar la inspección de objetos fabricados en diferentes fases del proceso de fabricación.
Por ejemplo, en la técnica, se conocen diversos sistemas y métodos de operación correspondientes para realizar la inspección computarizada, dimensional y visual de un objeto. Normalmente, tales sistemas toman datos de objeto relativos al objeto para un procesamiento posterior por el sistema y para una visualización por parte de un usuario. Normalmente, los datos de inspección generados por el procesamiento de los datos de objeto tomados se visualizan o bien en una pantalla de representación gráfica de un ordenador, usando un software de visualización en tres dimensiones en el que el objeto inspeccionado, junto con la información de inspección expuesta sobre el objeto, puede rotarse o inspeccionarse, o bien en un impreso en el que se presenten puntos de vista específicos que muestren el objeto inspeccionado y la información de inspección.
Sin embargo, los sistemas conocidos tienden a sufrir diversos inconvenientes. En particular, la visualización del objeto inspeccionado y la información de inspección en una pantalla de representación gráfica o en una copia impresa con puntos de vista específicos puede llevar a confusiones entre lo que se representa en la pantalla o impreso y las regiones correspondientes del objeto inspeccionado. Por ejemplo, y sin suponer una limitación, en un caso en el que se señala que una región específica del objeto inspeccionado necesita reelaborarse, una interpretación errónea de la relación entre la información representada y el objeto físico que se inspecciona puede llevar a una identificación incorrecta de la región señalada del objeto. En otras palabras, un operario puede confundir la región señalada con otra región del objeto inspeccionado y proceder, por consiguiente, a reelaborar la región equivocada. Es especialmente probable que tales confusiones se produzcan en casos en los que el objeto es simétrico y pueden llevar a que el defecto original se quede sin corregir y a que siga estando presente en el objeto final. Tales confusiones pueden salir caras, hacer perder mucho tiempo y ser potencialmente peligrosas si la región que no se elaboró debidamente resulta fundamental.
El solicitante también es conocedor de los sistemas de inspección en los que se usan proyectores de vídeo para representar la información de inspección directamente sobre el objeto. Una vez más, sin embargo, los sistemas conocidos tienden a sufrir diversos inconvenientes.
Por ejemplo, La solicitud de patente de PCT n.° WO2011/056196 enseña el uso de un proyector de vídeo para representar información relativa a un conjunto en un objeto de una manera sustancialmente durante las etapas de ensamblaje. Sin embargo, el proyector de vídeo del dispositivo divulgado en la solicitud no está configurado para tomar datos de objeto con respecto a la forma específica de la superficie exterior del objeto que se está inspeccionando o ensamblando. Por consiguiente, el sistema divulgado en esta solicitud no puede usarse para generar información de inspección basada en los datos de objeto adquiridos, tales como porciones de la superficie exterior del objeto que estén defectuosas o que sean disconformes con una referencia, lo que con frecuencia resulta valioso para los operarios en el proceso de inspección.
La solicitud de patente de PCT n.° W02006/078684 y la solicitud de patente de EE. UU. n.° 2004/0189944 enseñan el uso de un escáner digitalizador para adquirir un perfil en tres dimensiones del objeto y un dispositivo de proyección láser distinto para proyectar información sobre él. Tal y como se entenderá fácilmente, el uso de dispositivos distintos para adquirir el perfil en tres dimensiones del objeto y para proyectar sobre él requiere el uso de un medio de calibración para calibrar ambos dispositivos el uno con respecto al otro o con respecto al objeto inspeccionado, con el fin de que los dispositivos distintos funcionen en combinación. Además, tal sistema no presenta relación coste-eficacia, ya que duplica los componentes incluidos en el sistema. Asimismo, el dispositivo de proyección láser de los dispositivos conocidos no puede proyectar información de color, puede parpadear debido al hecho de que el láser debe barrer todas las líneas de la información proyectada, representa el moteado y no es seguro para los ojos.
Cada una de las solicitudes de patente de EE. UU. n.° 2007/0025612 y n.° 2011/019155 divulga un aparato y/o método capaces de realizar el escaneado de un objeto y la proyección de información sobre el objeto. En ambos casos, los proyectores que han de usarse para la proyección de información sobre el objeto requieren, sin embargo, la calibración de estos con el fin de realizar la proyección requerida sobre el objeto.
A la vista de lo anterior, existe una necesidad de un sistema de inspección en tres dimensiones mejorado y un método de operación correspondiente, que sería capaz de superar o al menos minimizar algunas de las preocupaciones de la técnica anterior anteriormente tratadas.
Sumario de la invención
De acuerdo con un primer aspecto general, Se proporciona un sistema de inspección en tres dimensiones para inspeccionar una superficie exterior de un objeto, de acuerdo con la reivindicación 1.
En una realización, cada uno de los puntos fuente del al menos un proyector de luz comprende un píxel de uno del al menos un proyector de luz.
En una realización, el al menos un proyector de luz y las al menos dos cámaras calibradas están configurados para que el ordenador adquiera datos de objeto en tres dimensiones mediante triangulación.
En una realización, los datos de objeto en tres dimensiones comprenden una nube de puntos que comprende coordenadas espaciales en tres dimensiones que coinciden con las correspondientes de los puntos superficiales en la superficie exterior del objeto.
En una realización, los datos de información de inspección se basan en las desviaciones entre las coordenadas espaciales de la nube de puntos y un objeto de referencia.
En una realización, al menos uno del al menos un proyector de luz y las al menos dos cámaras calibradas pueden moverse con respecto al objeto y el ordenador está configurado, además, para: detectar el movimiento del al menos uno del al menos un proyector de luz y las al menos dos cámaras calibradas; y adaptar la proyección de los datos de información de inspección de acuerdo con el movimiento detectado.
En una realización, las al menos dos cámaras calibradas comprenden una cámara numérica que recoge imágenes numéricas del objeto.
En una realización, el sistema de inspección incluye al menos dos proyectores de luz y el ordenador está configurado, además, para determinar ubicaciones de superposición de una luz proyectada por al menos dos proyectores de luz en la superficie exterior del objeto y disipar la luz proyectada por al menos uno de los al menos dos proyectores de luz en las ubicaciones de superposición.
En una realización, el sistema de inspección en tres dimensiones comprende una pluralidad de proyectores de luz y cámaras calibradas.
En una realización, la pluralidad de proyector de luz y cámaras calibradas está distribuida sustancialmente de manera uniforme alrededor del objeto.
De acuerdo con otro aspecto general, también se proporciona un método para inspeccionar una superficie exterior de un objeto, de acuerdo con la reivindicación 9.
En una realización, el método comprende, además, la etapa de generar una nube de puntos de coordinadas espaciales en tres dimensiones que coinciden con las correspondientes de los puntos superficiales sobre la superficie exterior del objeto.
En una realización, la etapa de generación de los datos de información de inspección comprende la subetapa de determinar una desviación entre las coordenadas espaciales correspondientes de la nube de puntos y un objeto de referencia.
En una realización, la etapa de adquirir los datos de objeto en tres dimensiones representativos de la superficie exterior del objeto se realiza obteniendo las coordenadas espaciales de los puntos situados en la superficie del objeto mediante triangulación.
En una realización, el método comprende, además, las etapas de: detectar el movimiento de al menos uno del al menos un proyector de luz y las al menos dos cámaras calibradas; y adaptar la proyección de los datos de información de inspección de acuerdo con el movimiento detectado.
En una realización, se proporcionan al menos dos proyectores de luz y el método comprende, además, las etapas de: determinar ubicaciones de superposición de una luz proyectada por los al menos dos proyectores de luz sobre la superficie exterior del objeto; y disipar la luz proyectada por al menos uno de los al menos dos proyectores de luz en las ubicaciones de superposición.
Ventajosamente, en vez de depender de una pantalla de un ordenador para representar la información adquirida sobre el objeto, las realizaciones de la invención usan los mismos proyectores usados para adquirir datos para proyectar directamente sobre el objeto la información de inspección. Este enfoque elimina la necesidad de calibrar dos dispositivos separados: el usado para adquirir la forma en tres dimensiones de la superficie exterior del objeto y el usado para proyectar información de inspección sobre la superficie exterior de este, lo que resulta más simple para el usuario y la implementación concreta del dispositivo, evita combinar errores de dos dispositivos y presenta una mejor relación coste-eficacia. Además, simplifica el cómputo de las imágenes que han de representar los proyectores de luz para proyectar la información de inspección.
Breve descripción de los dibujos
Otros objetos, ventajas y características resultarán más aparentes tras la lectura de la siguiente descripción no restrictiva de las realizaciones de estos, dada únicamente con fines de ejemplificación, con referencia a los dibujos adjuntos, en los que:
la Figura 1 es una vista en perspectiva de un sistema de inspección en tres dimensiones, de acuerdo con una realización.
La Figura 2 es una vista en perspectiva de un sistema de inspección en tres dimensiones, de acuerdo con otra realización.
La Figura 3 es una vista en perspectiva de un sistema de inspección en tres dimensiones, de acuerdo con otra realización.
La Figura 4 es una representación esquemática de un sistema de inspección, de acuerdo con una realización.
La Figura 5 es una representación de un diagrama de flujo de las etapas de un método de inspección, de acuerdo con una realización.
Descripción detallada
En la siguiente descripción, las referencias numéricas iguales se refieren a elementos similares. Las realizaciones, las configuraciones geométricas, los materiales mencionados y/o las dimensiones mostradas/os en las figuras o descritas/os en la presente descripción son únicamente realizaciones preferentes, dadas solamente con fines de ejemplificación.
Además, aunque las realizaciones del sistema de inspección en tres dimensiones y partes correspondientes de este consisten en determinadas configuraciones geométricas, tal y como se explica y se ilustra en el presente documento, no todos estos componentes y geometrías son esenciales y, de este modo, no deberían tomarse en su sentido restrictivo. Se ha de entender, como también le resulta evidente a un experto en la materia, que otros componentes adecuados y una cooperación entre estos, así como otras configuraciones geométricas adecuadas, pueden usarse para el sistema de inspección en tres dimensiones, tal y como se explicará brevemente en el presente documento y tal y como puede inferir fácilmente un experto en la materia a partir de este. Además, se apreciará que las descripciones de posición tales como “por encima”, “por debajo”, “izquierda”, “derecha” y similares, a no ser que se indique de otra forma, deberían tomarse en el contexto de las figuras y no deberían considerarse limitantes.
Haciendo referencia general a las Figuras 1 a 4, se proporciona un sistema de inspección en tres dimensiones 20 para realizar la inspección coincidente de una superficie exterior de un objeto 22 y retroinformación de los resultados de la inspección mediante proyección de los datos de información de inspección directamente sobre la superficie exterior del objeto 22 inspeccionado.
En el trascurso del presente documento, el término “objeto” se usa para hacer referencia a cualquier parte o conjunto inspeccionada/o usando el sistema de inspección 20 descrito en el presente documento. Una lista no limitativa de objetos que pueden inspeccionarse usando el sistema de inspección 20 incluye componentes mecánicos, conjuntos o sistemas, paredes, suelos u otras características estructurales, vehículos, piezas diversas de equipos, paquetes, cableado, motores, placa de circuito, pieza fundida, alimentos, herramientas, partes del cuerpo, prótesis, órtesis o similares. Se entenderá fácilmente que el objeto que se está inspeccionando no tiene que ser una estructura completa, pero puede estar constituido por una porción, pequeña o grande, de cualquiera de los anteriores. La superficie exterior del objeto 22 está definida por una pluralidad de puntos superficiales con coordenadas espaciales específicas.
Con el fin de realizar la inspección y la proyección de los datos de información de inspección sobre el objeto, el sistema de inspección en tres dimensiones 20 incluye al menos un proyector de luz 30 y al menos dos cámaras calibradas 40 posicionadas para definir conjuntamente un campo de visión 50 del sistema de inspección 20. Por lo tanto, el campo de visión del sistema de inspección puede entenderse como el área que cubre la intersección del campo de visión 51 de la cámara definido por las al menos dos cámaras calibradas 40 y el campo de visión 52 del proyector de vídeo definido por el al menos un proyector de luz 30 y donde puede colocarse un objeto que han de inspeccionar el al menos un proyector de luz 30 y las al menos dos cámaras calibradas 40. Tal y como se describirá en mayor detalle más adelante, el(los) mismo(s) proyector(es) de luz 30 se usa(n) para adquirir datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22 y proyectar los datos de información de inspección sobre el objeto 22. Por tanto, se entenderá que el campo de visión es similar para la adquisición de los datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22 y la posterior proyección de los datos de información de inspección sobre la superficie exterior del objeto 22.
En el trascurso del presente documento, la expresión “datos de objeto en tres dimensiones representativos de la superficie exterior del objeto” se usa para hacer referencia a cualesquiera datos que se puedan adquirir de un objeto en tres dimensiones durante la inspección de una superficie exterior de este. Por ejemplo, y sin suponer una limitación, los datos adquiridos pueden hacer referencia a las coordenadas espaciales de los puntos en la superficie exterior del objeto, el color de los puntos en la superficie exterior del objeto o similares.
Además, en el trascurso del presente documento, la expresión “proyector de luz” se usa para hacer referencia a dispositivos que se pueden operar para proyectar luz sobre una superficie, tal como la superficie exterior de un objeto en tres dimensiones 22. El al menos un proyector 30 puede controlarse para regular el color, la intensidad, el tono o similares de la luz proyectada hacia cada uno de los puntos superficiales de la superficie exterior del objeto 22. En una realización, el al menos un proyector de luz 30 es un proyector de vídeo, tal como un proyector de vídeo DLP (en inglés, procesamiento digital de luz), LCD (en inglés, pantalla de cristal líquido) o CRT (en inglés, tubo de rayos catódicos) fuera de estante como el BenQ W1000+™, Casio XJ-A251™ o similares, o cualquier proyector de luz hecho a medida. En el caso en el que existe una pluralidad de proyectores de luz 30, todos los proyectores de luz 30 pueden ser ventajosamente del mismo tipo o, como alternativa, pueden usarse diferentes tipos de proyectores en un mismo sistema de inspección 20.
El al menos un proyector de luz 30 define una pluralidad de puntos fuente. Por ejemplo, en una realización, cada proyector de luz 30 puede incluir una agrupación de píxeles, y cada uno de la pluralidad de puntos fuente puede corresponderse con un píxel específico de uno de los proyectores de luz 30. Un experto en la materia entenderá que, en una realización alternativa, los puntos de luz también pueden corresponderse con un grupo de píxeles. En el trascurso del presente documento, el término “cámara” se usa para hacer referencia a dispositivos que se pueden operar para tomar, almacenar y transferir imágenes. En una realización, las al menos dos cámaras calibradas 40 pueden estar compuestas por un vídeo o una cámara más, incluyendo cámaras industriales de fabricantes tales como PointGrey™, Allied Vision Technologies™ o similares, o cualesquiera cámaras disponibles en el mercado de fabricantes tales como Canon™, Sony™, o similares. Como con el al menos un proyector de luz 30, un experto en la materia entenderá que, en una realización en la que se proporciona una pluralidad de cámaras calibradas 40, pueden usarse diferentes tipos de cámara en el sistema de inspección 20. Se entenderá, además, que en las realizaciones alternativas, pueden mezclarse diferentes modelos y/o tipos de proyectores de luz 30 y cámaras 40 para definir en conjunto el sistema de inspección 20.
En una realización, las al menos dos cámaras calibradas 40 es una cámara numérica que permite tomar una imagen numérica de la superficie exterior del objeto 22. Un experto en la materia entenderá que, en una realización alternativa, también puede usarse una cámara analógica. Sin embargo, en tal realización, el procesamiento de las imágenes analógicas tomadas por la cámara analógica requiere la conversión de las imágenes analógicas tomadas en imágenes numéricas de la superficie exterior del objeto 22. Por lo tanto, tal realización requiere una etapa de conversión adicional de las imágenes analógicas, lo cual no es necesario cuando se usan cámaras numéricas. En la realización ilustrada en las Figuras 1 y 2, el sistema de inspección en tres dimensiones 20 incluye una pluralidad de proyectores de luz 30 y cámaras calibradas 40 distribuidos sustancialmente de manera uniforme alrededor del objeto. En la realización de la Figura 3, el sistema de inspección 20 incluye un proyector de luz 30 y dos cámaras calibradas 40.
Por lo tanto, se entenderá que, en las realizaciones alternativas, puede variarse la cantidad y la posición del al menos un proyector de luz 30 y las al menos dos cámaras 40 que definen el campo de visión 50. Para un mejor entendimiento, y sin suponer una limitación, a continuación se hará referencia al al menos un proyector de luz 30 como los proyectores 30 y a las al menos dos cámaras calibradas 40 se hará referencia como las cámaras 40. Haciendo referencia a la Figura 4, el sistema de inspección en tres dimensiones 20 incluye, además, un ordenador 60 conectado de manera operativa a los proyectores 30 y a las cámaras 40, por ejemplo, y sin suponer una limitación, usando cables de vídeo u otros medios de transferencia de datos, información y/o gráficos entre el ordenador 60, los proyectores 30 y las cámaras 40. Un experto en la materia entenderá que el término “ordenador” se usa en el presente documento para hacer referencia a un dispositivo de propósito general con una memoria y un procesador y que puede almacenar, recuperar y procesar datos de acuerdo con un conjunto de instrucciones almacenadas en la memoria de este y producir una salida a partir del procesamiento de datos por el procesador. Un experto en la materia entenderá que el ordenador 60 puede ser una unidad autónoma o puede consistir en una pluralidad de unidades interconectadas que se conectan de manera operativa entre sí. Pueden instalarse tarjetas de interfaz y de red (no mostradas) en el ordenador 60 para permitir la conexión con otros ordenadores de una red de ordenadores, las cámaras 40 y los proyectores 30. En una realización, un programa de software instalado en el ordenador 60 gestiona el procesamiento y la entrada/salida requerida para la adquisición de los datos de objeto en tres dimensiones y la proyección de los datos de información de inspección. Ventajosamente, en una realización, una interfaz de usuario del ordenador permite al usuario iniciar el proceso de inspección, usando periféricos tales como un ratón, teclados o similares. En una realización, las etapas posteriores del método de inspección, tal y como se describirá en mayor detalle más adelante, las maneja el programa de software.
Una vez más, un experto en la materia entenderá que, aunque una cámara 40 y un proyector de luz 30 están conectados al ordenador 60 en la Figura 4, puede variarse el número de cámaras 40 y proyectores de luz 30 conectados al ordenador 60.
El ordenador 60 está configurado para controlar los proyectores 30 y las cámaras 40, con el fin de adquirir datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22, generar datos de información de inspección basándose en los datos de objeto en tres dimensiones adquiridos y proyectar los datos de información de inspección sobre la superficie exterior del objeto 22. Un experto en la materia entenderá que los proyectores de luz 30 se controlan de manera que la luz proyectada desde estos pueda variarse para adquirir los datos de objeto en tres dimensiones y proyectar los datos de información de inspección. Por ejemplo, y sin suponer una limitación, los proyectores de luz 30 pueden proyectar luz blanca (adquirida posteriormente por las cámaras 40) con el fin de adquirir los datos de objeto en tres dimensiones, mientras varían el color, la intensidad, el tono, o similares, de la luz proyectada hacia cada uno de los puntos superficiales de la superficie exterior del objeto 22, para cada uno de los puntos fuente, para proyectar los datos de información de inspección sobre la superficie exterior del objeto 22. En una realización, los datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22 posicionado dentro del campo de visión 50 pueden adquirirse obteniendo las coordenadas espaciales de los puntos superficiales situados sobre la superficie exterior del objeto 22, mediante triangulación. En tal realización, los proyectores de luz 30 y las cámaras 40 se calibran de manera que las cámaras 40 puedan triangular, desde sus posiciones conocidas, la ubicación espacial de cada punto superficial de la superficie exterior del objeto 22, que está iluminado por los proyectores 30. En otras palabras, la superficie exterior del objeto 22 la iluminan los proyectores de luz 30 y las cámaras 40 están calibradas para triangular la ubicación de los puntos superficiales del objeto 22 mediante la adquisición de luz de retorno de la superficie exterior de este.
En una realización, los proyectores 30 y las cámaras 40 están configurados para usarse como un escáner en tres dimensiones de luz estructurado para tomar datos de objeto en tres dimensiones representativos de la superficie exterior del objeto mediante triangulación. En tal realización, la proyección de un patrón de luz particular diseñado para facilitar la adquisición de los datos de objeto en tres dimensiones la realizan los proyectores 30.
Un experto en la materia entenderá que en las realizaciones alternativas, pueden usarse otros principios físicos tales como el de interferometría o el de tiempo de vuelo para adquirir los datos de objeto en tres dimensiones representativos de la superficie exterior del objeto. Un experto en la materia entenderá fácilmente que el uso de tales técnicas puede depender de la aplicación pretendida y la capacidad de los proyectores de luz 30 usados para proporcionar iluminación de la superficie exterior del objeto 22 durante el proceso de adquisición de datos de objeto en tres dimensiones.
En una realización, los datos de objeto en tres dimensiones adquiridos con respecto a la superficie exterior del objeto 22 relacionan puntos superficiales sobre la superficie exterior del objeto 22 con uno o más de los puntos fuente del proyector de luz 30.
Con el fin de realizar tal relación entre los puntos superficiales en la superficie exterior del objeto 22 y los uno o más de los puntos fuente del proyector de luz 30, en una realización, la adquisición de los datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22 puede realizarse generando una nube de puntos de puntos superficiales donde las coordenadas espaciales en tres dimensiones coincidan con puntos correspondientes sobre la superficie del objeto 22 inspeccionado. Cada punto de la nube de puntos se origina a partir de un punto fuente específico y conocido, tal como un píxel en un proyector 30 específico, de manera que exista una relación directa entre un punto superficial y un punto fuente específico de un proyector específico. Un experto en la materia entenderá que, con el fin de generar la nube de puntos, se requiere una calibración previa de las cámaras 40. La calibración se realiza como una etapa anterior usando técnicas de calibración existentes. Por ejemplo, la calibración puede realizarse colocando un objeto de características físicas conocidas en el campo de visión 50. Generalmente, las técnicas de calibración son sobradamente conocidas por los expertos en la materia y no necesitan describirse adicionalmente en el presente documento. La nube de puntos también puede incluir datos adicionales recopilados del objeto, tales como el color de cada punto superficial, por ejemplo.
Tal y como se ha mencionado previamente, una vez que se han adquirido los datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22, el ordenador 60 procesa los datos de objeto en tres dimensiones y genera los datos de información de inspección. Tal y como se ha mencionado previamente, los datos de información de inspección generados pueden ser cualquier información que pueda obtenerse procesando los datos de objeto en tres dimensiones, incluyendo la posición concreta del objeto inspeccionado 22, su forma concreta, su forma concreta en comparación con una referencia, su color, su color en comparación con una referencia, una desviación derivada de un defecto o calidad del objeto 22 o cualquier información relacionada con su conjunto. Por ejemplo, y sin suponer una limitación, los datos de información de inspección pueden referirse a las coordenadas a las que debe colocarse un subconjunto siguiente en el objeto inspeccionado 22, la identificación de una región que requiera reelaboración, una desviación de las dimensiones de referencia pretendidas del objeto 22 o una desviación de un color pretendido en una sección del objeto.
En una realización, con el fin de generar los datos de información de inspección, la nube de puntos generada se usa para determinar desviaciones dimensionales o visuales del objeto 22, si las hubiera, en comparación con un objeto de referencia en tres dimensiones. En una realización, el objeto de referencia en un objeto en tres dimensiones importado al ordenador 60, tal como diseño asistido por ordenador (CAD, por sus siglas en inglés) del objeto inspeccionado 22. Con el fin de determinar las desviaciones dimensionales o visuales, el ordenador 60 realiza un cómputo de la alineación de la nube de puntos con el objeto de referencia, usando algoritmos conocidos como el "ICP" (Iterative Closest Points, por sus siglas en inglés). Una vez que se alinean el objeto de referencia y la nube de puntos, se realiza una comparación de los puntos de la nube de puntos y los puntos correspondientes del objeto de referencia para determinar desviaciones e identificar un defecto dimensional o visual del objeto 22 inspeccionado del que se ha generado la nube de puntos.
Tal y como se describirá en mayor detalle más adelante, el ordenador 60 del sistema de inspección en tres dimensiones 20 también controla los proyectores de luz 30 para proyectar posteriormente los datos de información de inspección sobre el objeto 22. Por lo tanto, los proyectores de luz 30 se controlan conjuntamente para proyectar un punto de luz específico desde un punto fuente en cada uno de los puntos superficiales deseados sobre la superficie exterior del objeto 22.
En una realización, los datos de información de inspección proyectados pueden estar compuestos, ventajosamente, por variaciones en color de la luz proyectada mediante los proyectores para proyectar datos de información de inspección sobre la superficie exterior del objeto 22. Sin embargo, un experto en la materia entenderá que, en las realizaciones alternativas, pueden usarse otros tipos de variaciones en la luz proyectada para representar los datos de información de inspección, tales como, y sin suponer una limitación, la intensidad, los tonos, o similares.
Dado que en el sistema de inspección en tres dimensiones 20 descrito anteriormente, se usan los mismos proyectores de luz 30 para adquirir los datos de objeto en tres dimensiones y para proyectar los datos de información de inspección en la superficie exterior del objeto inspeccionado 22, la determinación de la imagen que han de representar los proyectores 30 para proyectar los datos de información de inspección generados sobre la superficie exterior del objeto 22 puede realizarse sin requerir una calibración adicional de los proyectores 30. De hecho, tal y como se ha mencionado previamente, cada uno de los puntos superficiales sobre la superficie exterior del objeto 22 adquirido a través de datos de objeto en tres dimensiones se refiere a un punto fuente para cada uno de los proyectores 30, de manera que exista una relación directa entre estos. Por lo tanto, el color que se ha de emitir desde un punto fuente específico, tal como un píxel, de un proyector específico puede determinarse mediante el ordenador 60 usando el color que debería tener el punto superficial correspondiente de acuerdo con los datos de información de inspección. Por ejemplo, y sin suponer una limitación, si se ha de representar un mensaje de texto sobre la superficie exterior del objeto 22, el color de cada punto superficial es el del punto más cercano sobre la superficie exterior del objeto de referencia sobre el que se yuxtapone el mensaje de texto correspondiente.
En una realización en la que los datos de información de inspección se refieren a la información de desviación, el color de cada punto superficial puede obtenerse a partir de un mapa de color predeterminado que hace coincidir colores con distancias correspondientes entre el punto superficial y el punto más cercano del objeto de referencia. Una vez se ha determinado el color de un punto superficial, una vez más el color que se ha de emitir desde un punto fuente específico, tal como un píxel, de un proyector de luz 30 específico puede determinarse mediante el ordenador 60 usando la correspondencia entre los puntos superficiales y los puntos fuente.
Tal y como puede entenderse, el uso de los mismos proyectores de luz 30 tanto para tomar los datos de objeto en tres dimensiones con respecto a la superficie exterior del objeto 22 como para proyectar los datos de información de inspección sobre el objeto 22 permite proyectar los datos de información de inspección sobre la superficie exterior del objeto 22 más rápidamente. Por ejemplo, y sin suponer una limitación, en el ejemplo anterior de aplicaciones en las que se necesita reelaborar el objeto, este permite proporcionar retroinformación inmediata a los trabajadores, permitiendo, de ese modo, un ventajoso control de calidad durante el proceso.
En una realización, los proyectores de luz 30 y/o las cámaras 40 pueden ser movibles con respecto al objeto 22 colocado en el campo de visión 50, por ejemplo, y sin suponer una limitación, para modificar el campo de visión 50 o proporcionar una mayor flexibilidad al sistema de inspección en tres dimensiones 20. Un experto en la materia entenderá que, en una realización (no mostrada), los proyectores de luz 30 y/o las cámaras 40 pueden montarse en un soporte que permita a los proyectores de luz 30 y/o las cámaras 40 moverse de manera simultánea con respecto al objeto 22 colocado en el campo de visión 50 tal como para mantener un posicionamiento relativo similar entre los proyectores de luz 30 y/o las cámaras 40 montados en el soporte. En una realización alternativa, los proyectores de luz 30 y/o las cámaras 40 pueden moverse independientemente entre sí.
Un experto en la materia entenderá que cuando los proyectores de luz 30 y/o las cámaras 40 se mueven durante la inspección del objeto 22, el sistema de inspección en tres dimensiones 20 puede detectar y determinar independientemente el desplazamiento que se ha producido y, por consiguiente, adaptar la representación de los proyectores de luz 30 para que proyecten los datos de información de inspección correctamente sobre el objeto 22. En una realización en la que los proyectores de luz 30 y/o las cámaras 40 se mueven entre la inspección del objeto 22 y la proyección de datos de información de inspección sobre este, el desplazamiento debe computarse y procesarse con el fin de poder realizar la modificación precisa a la relación entre los puntos superficiales del objeto 22 y los puntos fuente de los proyectores 30 para la proyección precisa de datos de información de inspección sobre la superficie exterior del objeto 22.
Con el fin de detectar y determinar el desplazamiento de los proyectores de luz 30 y/o las cámaras 40, por ejemplo, y sin suponer una limitación, en una realización (no mostrada), el sistema de inspección en tres dimensiones 20 incluye, además, un sistema de posicionamiento externo (no mostrado) conectado de manera operativa al ordenador 60. Los sistemas de posicionamiento externo se usan comúnmente para hacer un seguimiento de los elementos específicos y determinar la posición espacial de estos elementos y la operación de tales sistemas de posicionamiento externos es sobradamente conocida para los expertos en la materia. Por lo tanto, tal y como entenderá fácilmente un experto en la materia, el sistema de posicionamiento externo puede evaluar, por lo tanto, la posición espacial de los proyectores 30 y/o las cámaras 40 antes y después de su movimiento. Los datos de desplazamiento para los proyectores 30 y/o las cámaras 40 pueden computarse, basándose en estas posiciones y usarse posteriormente para ajustar los datos de información de inspección, a la vista del movimiento de los proyectores de luz 30 y/o las cámaras 40, para la proyección precisa de los datos de información de inspección sobre la superficie del objeto 22.
En una realización en la que las imágenes proyectadas mediante proyectores 30 coincidentes se superponen en la superficie exterior del objeto 22, la identificación de la superposición puede realizarse mediante el ordenador 60. En una realización, la identificación de la superposición puede realizarse mediante la representación de una imagen blanca por cada uno de los proyectores 30 a su vez y la determinación de las ubicaciones de la superposición usando imágenes de las cámaras 40. Una vez que se ha realizado la identificación de la superposición, puede realizarse la disipación de los proyectores 30 específicos sobre las ubicaciones de superposición identificadas para evitar una diferencia en brillo a través de la superficie exterior del objeto 22 durante la proyección. En una realización alternativa, la superposición también puede determinarse a la hora de determinar la imagen que cada proyector 30 necesita representar con el fin de proyectar los datos de información de inspección deseados sobre la superficie exterior del objeto 22. La intensidad de cada píxel en el que se determina la superposición puede equilibrarse, por lo tanto, para evitar una diferencia en brillo a través de la superficie exterior del objeto 22 durante la proyección. Sin embargo, tal realización puede resultar problemática a la hora de una reelaboración en un objeto 22 de manera coincidente con la proyección de los datos de información de inspección, ya que puede provocar puntos ciegos para un proyector específico 30. Por tanto, un experto en la materia entenderá que, en las realizaciones alternativas, no puede realizarse una identificación de la superposición y un ajuste correspondiente de los proyectores de luz para aliviar el problema del punto ciego descrito anteriormente.
Haciendo referencia ahora a la Figura 5, a continuación, se describirá en mayor detalle un método para inspeccionar un objeto, de acuerdo con una realización. En una realización, el método se realiza usando el sistema de inspección en tres dimensiones descrito anteriormente u otras configuraciones de este que proporcionen las funcionalidades requeridas.
El método incluye las etapas de posicionar el objeto dentro del campo de visión del sistema de inspección en tres dimensiones que comprende los proyectores de luz 30 y las cámaras 40. Una vez que el objeto se ha posicionado debidamente, los proyectores de luz 30 emiten luz hacia el objeto 22 y las cámaras 40 toman luz de retorno de manera que se adquieran datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22. Tal y como se ha mencionado anteriormente, los datos de objeto en tres dimensiones relacionan puntos superficiales sobre la superficie exterior del objeto 22 con uno o más puntos fuente de los proyectores de luz 30. El método también incluye la etapa adicional de generar datos de información de inspección basándose en los datos de objeto en tres dimensiones adquiridos y de proyectar los datos de información de inspección sobre la superficie exterior del objeto 22. Una vez más, la proyección de los datos de información de inspección sobre la superficie exterior del objeto 22 se realiza proyectando los datos de información de inspección sobre al menos algunos de los puntos superficiales de la superficie exterior del objeto 22 usando los puntos fuente correspondientes de los proyectores de luz.
Un experto en la materia entenderá que, en una realización, el objeto puede moverse posteriormente y las etapas descritas anteriormente pueden repetirse, por ejemplo, y sin suponer una limitación, cuando el sistema de inspección en tres dimensiones 20 únicamente puede inspeccionar y/o proyectar los datos de información de inspección sobre una porción de la superficie exterior del objeto 22.
Todas las características mencionadas anteriormente relacionadas con la adquisición de datos de objeto en tres dimensiones representativos de la superficie exterior del objeto 22, la generación de los datos de información de inspección y la proyección de los datos de información de inspección sobre la superficie exterior del objeto 22 aplican a las etapas correspondientes del método y, para un mejor entendimiento, no se repetirán en el presente documento.
En el presente documento, se han descrito e ilustrado diversas realizaciones y ejemplos alternativas/os. Las realizaciones de la invención descritas anteriormente pretenden ser únicamente ejemplares. Un experto en la materia apreciaría las características de las realizaciones individuales, y las posibles combinaciones y variaciones de los componentes. Un experto en la materia apreciaría, además, que cualquiera de las realizaciones puede proporcionarse en cualquier combinación con las otras realizaciones divulgadas en el presente documento. Se entiende que la invención puede realizarse en otras formas específicas sin alejarse de las características centrales de esta. Los/las presentes ejemplos y realizaciones, por lo tanto, han de considerarse a todos los respectos ilustrativos/as y no restrictivos/as, y la invención no ha de estar limitada a los detalles dados en el presente documento. En consecuencia, aunque se han ilustrado y descrito realizaciones específicas, pueden concebirse numerosas modificaciones sin alejarse del alcance de la invención, el cual aparece definido en las reivindicaciones adjuntas.

Claims (13)

REIVINDICACIONES
1. Un sistema de inspección en tres dimensiones (20) para inspeccionar una superficie exterior de un objeto (22), comprendiendo el sistema de inspección (20):
al menos un proyector de luz (30) y al menos dos cámaras calibradas (40) que definen conjuntamente un campo de visión (50) del sistema de inspección (20); y
un ordenador (60) conectado de manera operativa al al menos un proyector de luz (30) y a las al menos dos cámaras calibradas (40), estando configurado el ordenador (60) para:
adquirir datos de objeto en tres dimensiones representativos de la superficie exterior del objeto (22) posicionado en el campo de visión (50) a través de proyección de luz sobre este por el al menos un proyector de luz (30) y la adquisición de luz de retorno mediante las al menos dos cámaras calibradas (40), relacionando los datos de objeto en tres dimensiones puntos superficiales sobre la superficie exterior del objeto (22) con uno o más puntos fuente del al menos un proyector de luz (30);
generar datos de información de inspección basándose en los datos de objeto en tres dimensiones adquiridos; y
proyectar los datos de información de inspección sobre al menos algunos de los puntos superficiales de la superficie exterior del objeto (22) usando los puntos fuente correspondientes del al menos un proyector de luz (30), realizándose la determinación de una imagen que ha de representarse mediante el al menos un proyector de luz (30) para proyectar los datos de información de inspección generados sobre la superficie exterior del objeto (22) sin requerir calibración adicional del al menos un proyector de luz (30).
2. El sistema de inspección en tres dimensiones (20) según la reivindicación 1, en donde cada uno de los puntos fuente del al menos un proyector de luz (30) comprende un píxel de uno del al menos un proyector de luz (30).
3. El sistema de inspección en tres dimensiones (20) según la reivindicación 1 o 2, en donde los datos de objeto en tres dimensiones comprenden una nube de puntos de coordenadas espaciales en tres dimensiones que coinciden con los correspondientes de los puntos superficiales sobre la superficie exterior del objeto (22).
4. El sistema de inspección en tres dimensiones (20) según la reivindicación 3, en donde los datos de información de inspección se basan en desviaciones entre las coordenadas espaciales de la nube de puntos y un objeto de referencia.
5. El sistema de inspección en tres dimensiones (20) según una cualquiera de las reivindicaciones 1 a 4, en donde al menos uno del al menos un proyector de luz (30) y las al menos dos cámaras calibradas (40) pueden moverse con respecto al objeto (22) y en donde el ordenador (60) está configurado, además, para:
detectar el movimiento del al menos uno del al menos un proyector de luz (30) y las al menos dos cámaras calibradas (40); y
adaptar la proyección de los datos de información de inspección de acuerdo con el movimiento detectado.
6. El sistema de inspección en tres dimensiones (20) según una cualquiera de las reivindicaciones 1 a 5, en donde las al menos dos cámaras calibradas (40) comprenden cámaras numéricas que toman imágenes numéricas del objeto.
7. El sistema de inspección en tres dimensiones (20) según una cualquiera de las reivindicaciones 1 a 6, en donde el sistema de inspección (20) incluye al menos dos proyectores de luz (30) y en donde el ordenador (60) está configurado, además, para determinar las ubicaciones de superposición de una luz proyectada por al menos dos proyectores de luz (30) sobre la superficie exterior del objeto (22) y disipar la luz proyectada por al menos uno de los al menos dos proyectores de luz (30) en las ubicaciones de superposición.
8. El sistema de inspección en tres dimensiones (20) según una cualquiera de las reivindicaciones 1 a 7, que comprende una pluralidad de proyectores de luz (30) y cámaras (40) distribuidas sustancialmente de manera uniforme alrededor del objeto.
9. Un método para inspeccionar una superficie exterior de un objeto (22), comprendiendo el método las etapas de: posicionar el objeto (22) dentro de un campo de visión (50) de al menos un proyector de luz (30) y al menos dos cámaras calibradas (40);
adquirir datos de objeto en tres dimensiones representativos de la superficie exterior del objeto (22) posicionado en el campo de visión (50) a través de la proyección de luz en este por el al menos un proyector de luz (30) y la adquisición de luz de retorno por las al menos dos cámaras calibradas (40), relacionando los datos de objeto en tres dimensiones puntos superficiales sobre la superficie exterior del objeto (22) con uno o más puntos fuente del al menos un proyector de luz (30);
generar datos de información de inspección basándose en los datos de objeto en tres dimensiones adquiridos; y proyectar los datos de información de inspección sobre al menos algunos de los puntos superficiales de la superficie exterior del objeto (22) usando los puntos fuente correspondientes del al menos un proyector de luz (30), realizándose la determinación de una imagen que ha de representarse mediante el al menos un proyector de luz (30) para proyectar los datos de información de inspección generados sobre la superficie exterior del objeto (22) sin requerir una calibración adicional del al menos un proyector de luz (30).
10. El método para inspeccionar un objeto (22) según la reivindicación 9, que comprende, además, la etapa de generar una nube de puntos de coordenadas espaciales en tres dimensiones que coincidan con los correspondientes de los puntos superficiales sobre la superficie exterior del objeto (22).
11. El método para inspeccionar un objeto (22) según la reivindicación 10, en donde la etapa de generar los datos de información de inspección comprende la subetapa de determinar una desviación entre las coordenadas espaciales correspondientes de la nube de puntos y un objeto de referencia.
12. El método para inspeccionar un objeto (22) según una cualquiera de las reivindicaciones 9 a 11, que comprende, además, las etapas de:
detectar el movimiento de al menos uno del al menos un proyector de luz (30) y las al menos dos cámaras calibradas (40); y
adaptar la proyección de los datos de información de inspección de acuerdo con el movimiento detectado.
13. El método para inspeccionar un objeto (22) según una cualquiera de las reivindicaciones 9 a 12, en donde se proporcionan al menos dos proyectores de luz (30) y que comprende, además, las etapas de:
determinar ubicaciones de superposición de una luz proyectada por al menos dos proyectores de luz (30) sobre la superficie exterior del objeto (22); y
disipar la luz proyectada por al menos uno de los al menos dos proyectores de luz (30) en las ubicaciones de superposición.
ES14826074T 2013-07-16 2014-07-09 Sistema de inspección para inspeccionar un objeto y método de inspección para el mismo Active ES2719492T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361846844P 2013-07-16 2013-07-16
PCT/CA2014/050651 WO2015006865A1 (en) 2013-07-16 2014-07-09 Inspection system for inspecting an object and inspection method for same

Publications (1)

Publication Number Publication Date
ES2719492T3 true ES2719492T3 (es) 2019-07-10

Family

ID=52345652

Family Applications (1)

Application Number Title Priority Date Filing Date
ES14826074T Active ES2719492T3 (es) 2013-07-16 2014-07-09 Sistema de inspección para inspeccionar un objeto y método de inspección para el mismo

Country Status (5)

Country Link
US (1) US9964401B2 (es)
EP (1) EP3022524B1 (es)
CA (1) CA2918478C (es)
ES (1) ES2719492T3 (es)
WO (1) WO2015006865A1 (es)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8908995B2 (en) 2009-01-12 2014-12-09 Intermec Ip Corp. Semi-automatic dimensioning with imager on a portable device
US9779546B2 (en) 2012-05-04 2017-10-03 Intermec Ip Corp. Volume dimensioning systems and methods
US10007858B2 (en) 2012-05-15 2018-06-26 Honeywell International Inc. Terminals and methods for dimensioning objects
US10321127B2 (en) 2012-08-20 2019-06-11 Intermec Ip Corp. Volume dimensioning system calibration systems and methods
US9939259B2 (en) 2012-10-04 2018-04-10 Hand Held Products, Inc. Measuring object dimensions using mobile computer
US9002719B2 (en) 2012-10-08 2015-04-07 State Farm Mutual Automobile Insurance Company Device and method for building claim assessment
US9841311B2 (en) 2012-10-16 2017-12-12 Hand Held Products, Inc. Dimensioning system
US9080856B2 (en) 2013-03-13 2015-07-14 Intermec Ip Corp. Systems and methods for enhancing dimensioning, for example volume dimensioning
US8872818B2 (en) 2013-03-15 2014-10-28 State Farm Mutual Automobile Insurance Company Methods and systems for capturing the condition of a physical structure
US10228452B2 (en) 2013-06-07 2019-03-12 Hand Held Products, Inc. Method of error correction for 3D imaging device
CN105830101A (zh) * 2013-12-18 2016-08-03 宝马股份公司 用于装载机动车的方法和系统
US9823059B2 (en) 2014-08-06 2017-11-21 Hand Held Products, Inc. Dimensioning system with guided alignment
US10810715B2 (en) 2014-10-10 2020-10-20 Hand Held Products, Inc System and method for picking validation
US10775165B2 (en) 2014-10-10 2020-09-15 Hand Held Products, Inc. Methods for improving the accuracy of dimensioning-system measurements
US9779276B2 (en) 2014-10-10 2017-10-03 Hand Held Products, Inc. Depth sensor based auto-focus system for an indicia scanner
US9762793B2 (en) 2014-10-21 2017-09-12 Hand Held Products, Inc. System and method for dimensioning
US9752864B2 (en) 2014-10-21 2017-09-05 Hand Held Products, Inc. Handheld dimensioning system with feedback
US9897434B2 (en) 2014-10-21 2018-02-20 Hand Held Products, Inc. Handheld dimensioning system with measurement-conformance feedback
US9557166B2 (en) 2014-10-21 2017-01-31 Hand Held Products, Inc. Dimensioning system with multipath interference mitigation
US10060729B2 (en) 2014-10-21 2018-08-28 Hand Held Products, Inc. Handheld dimensioner with data-quality indication
CN105180802B (zh) * 2015-05-04 2017-08-15 广东欧珀移动通信有限公司 一种物体尺寸信息识别方法和装置
US9786101B2 (en) 2015-05-19 2017-10-10 Hand Held Products, Inc. Evaluating image values
US10066982B2 (en) 2015-06-16 2018-09-04 Hand Held Products, Inc. Calibrating a volume dimensioner
US9857167B2 (en) 2015-06-23 2018-01-02 Hand Held Products, Inc. Dual-projector three-dimensional scanner
US20160377414A1 (en) 2015-06-23 2016-12-29 Hand Held Products, Inc. Optical pattern projector
US9835486B2 (en) 2015-07-07 2017-12-05 Hand Held Products, Inc. Mobile dimensioner apparatus for use in commerce
EP3396313B1 (en) 2015-07-15 2020-10-21 Hand Held Products, Inc. Mobile dimensioning method and device with dynamic accuracy compatible with nist standard
US20170017301A1 (en) 2015-07-16 2017-01-19 Hand Held Products, Inc. Adjusting dimensioning results using augmented reality
US10094650B2 (en) * 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items
US10249030B2 (en) 2015-10-30 2019-04-02 Hand Held Products, Inc. Image transformation for indicia reading
US10225544B2 (en) 2015-11-19 2019-03-05 Hand Held Products, Inc. High resolution dot pattern
CN105627920A (zh) * 2015-12-18 2016-06-01 小米科技有限责任公司 尺寸显示方法和装置
US10025314B2 (en) 2016-01-27 2018-07-17 Hand Held Products, Inc. Vehicle positioning and object avoidance
US10176527B1 (en) 2016-04-27 2019-01-08 State Farm Mutual Automobile Insurance Company Providing shade for optical detection of structural features
US10339352B2 (en) 2016-06-03 2019-07-02 Hand Held Products, Inc. Wearable metrological apparatus
US9940721B2 (en) 2016-06-10 2018-04-10 Hand Held Products, Inc. Scene change detection in a dimensioner
US10163216B2 (en) 2016-06-15 2018-12-25 Hand Held Products, Inc. Automatic mode switching in a volume dimensioner
US10909708B2 (en) 2016-12-09 2021-02-02 Hand Held Products, Inc. Calibrating a dimensioner using ratios of measurable parameters of optic ally-perceptible geometric elements
US11047672B2 (en) 2017-03-28 2021-06-29 Hand Held Products, Inc. System for optically dimensioning
US20190096057A1 (en) 2017-05-11 2019-03-28 Jacob Nathaniel Allen Object inspection system and method for inspecting an object
US10733748B2 (en) 2017-07-24 2020-08-04 Hand Held Products, Inc. Dual-pattern optical 3D dimensioning
US10584962B2 (en) 2018-05-01 2020-03-10 Hand Held Products, Inc System and method for validating physical-item security
US11639846B2 (en) 2019-09-27 2023-05-02 Honeywell International Inc. Dual-pattern optical 3D dimensioning

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4529316A (en) * 1982-10-18 1985-07-16 Robotic Vision Systems, Inc. Arrangement of eliminating erroneous data in three-dimensional optical sensors
US6690474B1 (en) * 1996-02-12 2004-02-10 Massachusetts Institute Of Technology Apparatus and methods for surface contour measurement
DE19963333A1 (de) * 1999-12-27 2001-07-12 Siemens Ag Verfahren zur Ermittlung von dreidimensionalen Oberflächenkoordinaten
WO2003032129A2 (en) 2001-10-11 2003-04-17 Laser Projection Technologies Inc. A Delaware Corporation Method and system for visualizing surface errors
US7463368B2 (en) 2003-09-10 2008-12-09 Metris Canada Inc Laser projection system, intelligent data correction system and method
WO2005096126A1 (ja) 2004-03-31 2005-10-13 Brother Kogyo Kabushiki Kaisha 画像入出力装置
US7480037B2 (en) * 2005-12-02 2009-01-20 The Boeing Company System for projecting flaws and inspection locations and associated method
US7768656B2 (en) * 2007-08-28 2010-08-03 Artec Group, Inc. System and method for three-dimensional measurement of the shape of material objects
JP5602392B2 (ja) * 2009-06-25 2014-10-08 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US8118438B2 (en) * 2009-07-24 2012-02-21 Optimet, Optical Metrology Ltd. Method and apparatus for real-time projection onto an object of data obtained from 3-D measurement
US8610761B2 (en) 2009-11-09 2013-12-17 Prohectionworks, Inc. Systems and methods for optically projecting three-dimensional text, images and/or symbols onto three-dimensional objects
DE112011102995B4 (de) * 2010-09-08 2016-05-19 Faro Technologies Inc. Laserscanner oder Lasernachführungsgerät mit einem Projektor
US9482529B2 (en) * 2011-04-15 2016-11-01 Faro Technologies, Inc. Three-dimensional coordinate scanner and method of operation
WO2013148522A1 (en) * 2012-03-24 2013-10-03 Laser Projection Technologies Lasergrammetry system and methods
US8848201B1 (en) * 2012-10-20 2014-09-30 Google Inc. Multi-modal three-dimensional scanning of objects
DE202012104890U1 (de) * 2012-12-14 2013-03-05 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
JP6238521B2 (ja) * 2012-12-19 2017-11-29 キヤノン株式会社 3次元計測装置およびその制御方法
US9547222B2 (en) * 2013-02-08 2017-01-17 University Of South Australia Method and apparatus for calibration of multiple projector systems
JP6101134B2 (ja) * 2013-04-01 2017-03-22 キヤノン株式会社 情報処理装置及び情報処理方法
US20150260509A1 (en) * 2014-03-11 2015-09-17 Jonathan Kofman Three dimensional (3d) imaging by a mobile communication device

Also Published As

Publication number Publication date
CA2918478C (en) 2016-08-23
EP3022524A4 (en) 2017-01-18
US20160169665A1 (en) 2016-06-16
US9964401B2 (en) 2018-05-08
CA2918478A1 (en) 2015-01-22
EP3022524A1 (en) 2016-05-25
WO2015006865A1 (en) 2015-01-22
EP3022524B1 (en) 2018-12-12

Similar Documents

Publication Publication Date Title
ES2719492T3 (es) Sistema de inspección para inspeccionar un objeto y método de inspección para el mismo
US11544874B2 (en) System and method for calibration of machine vision cameras along at least three discrete planes
US11115633B2 (en) Method and system for projector calibration
ES2775276T3 (es) Banco de fabricación o verificación de mazos eléctricos
US20150070468A1 (en) Use of a three-dimensional imager's point cloud data to set the scale for photogrammetry
CN110312111B (zh) 用于图像装置的自动校准的装置、系统和方法
EP3606059B1 (en) Projector calibration method and projection system using the same
US20190108673A1 (en) Image projection method and image projection device for three-dimensional object for projection
JP7088530B2 (ja) 3次元計測対象物体の表面に計測結果関連情報を投影する方法および装置
TW201506739A (zh) 光學觸控系統及觸控顯示系統
TWI575307B (zh) 資料補正裝置,描繪裝置,資料補正方法及描繪方法
JP2017198470A (ja) 計測装置、計測方法、システム及び物品の製造方法
KR20210060762A (ko) 디스플레이의 픽셀별 검사를 위한 3차원 스캐닝 시스템 및 그 방법
WO2019230284A1 (ja) 三次元計測装置、三次元計測装置の位置表示方法およびプログラム
JP4382430B2 (ja) 頭部の三次元形状計測システム
EP3974767A1 (en) Calibration method for computer vision system and three-dimensional reference object for use in same
US20160228078A1 (en) System and method for correlating object information with x-ray images
JP2012216981A (ja) ステレオカメラのキャリブレーション方法及び情報処理装置
JP6822086B2 (ja) シミュレーション装置、シミュレーション方法およびシミュレーションプログラム
JP2006323127A (ja) 画像投影システム、画像処理装置及び画像処理プログラム
KR102161175B1 (ko) 디스플레이의 픽셀별 검사를 위한 3차원 스캐닝 시스템 및 그 방법
JP3781762B2 (ja) 三次元座標校正システム
JP2016114991A (ja) 位置検出装置、画像投写装置及び画像操作システム
TWI549502B (zh) 影像相位補正方法
NL2031065B1 (en) Method for verifying precision of calibration parameter, medium and electronic device