ES2882712T3 - Sistema de visión artificial - Google Patents
Sistema de visión artificial Download PDFInfo
- Publication number
- ES2882712T3 ES2882712T3 ES18700940T ES18700940T ES2882712T3 ES 2882712 T3 ES2882712 T3 ES 2882712T3 ES 18700940 T ES18700940 T ES 18700940T ES 18700940 T ES18700940 T ES 18700940T ES 2882712 T3 ES2882712 T3 ES 2882712T3
- Authority
- ES
- Spain
- Prior art keywords
- matrix
- vision system
- measured
- artificial vision
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/02—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
- G01B21/04—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
- G01B21/042—Calibration or calibration artifacts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
- G01B11/005—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates coordinate measuring machines
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/2504—Calibration devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C11/00—Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
- G06T7/85—Stereo camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Quality & Reliability (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
Abstract
Sistema de visión artificial, que comprende: por lo menos dos cámaras (103a a 103c); y un controlador (100), donde el controlador comprende, además: por lo menos un procesador (101); por lo menos una memoria (102); y por lo menos una conexión de comunicación de datos (106); en el que el controlador (100) está configurado para recibir una matriz de desviación, donde la matriz de desviación está basada en una medición de un objeto de referencia utilizando un dispositivo de medición de referencia; y en el que el procesador (101) está configurado para: medir, utilizando dichas por lo menos dos cámaras (103a a 103c), el objeto de referencia y por lo menos un objeto objetivo; calcular una matriz de diferencias que representa la diferencia entre el objeto objetivo medido y el objeto de referencia medido; y calcular el resultado de la escala absoluta para el por lo menos un objeto objetivo basándose en el objeto objetivo medido, la matriz de diferencias respectiva y la matriz de desviación.
Description
DESCRIPCIÓN
Sistema de visión artificial
La siguiente invención se refiere a sistemas de visión artificial. Concretamente, la solicitud se refiere a sistema de visión artificial de medición que son utilizados en control de calidad o en otras tareas similares que requieren la medición de un objeto.
Los sistemas de visión artificial controlada por ordenador son utilizados en diversas aplicaciones. Una aplicación habitual es el control de calidad de objetos fabricados en la industria manufacturera. Es posible medir diversas propiedades de un objeto mediante la obtención de imágenes del objeto fabricado utilizando una o varias cámaras. La medición puede implicar la medición de todo el objeto o de algunas características seleccionadas del objeto. De este modo, la medición puede ser unidimensional, bidimensional o tridimensional o incluso puede ser realizada en una combinación de dimensiones dependiendo de las características seleccionadas. Además del tamaño y la forma, también es posible medir otras características, tales como el color, la rugosidad u otras características similares. Las mediciones de un sistema de visión artificial suelen realizarse comparando el objeto fabricado con un objeto modelo. Los resultados obtenidos habitualmente proporcionan una diferencia relativa del objeto medido con respecto al objeto modelo utilizado.
Para medir una coordenada tridimensional, solo se requieren dos cámaras, ya que una coordenada tridimensional puede calcularse a partir de dos imágenes bidimensionales, siempre que el punto medido sea visible en ambas imágenes. No obstante, habitualmente la cantidad de cámaras es mayor. Esto se debe a que una mayor cantidad de cámaras aumenta la cobertura y la precisión de la medición. Las cámaras suelen estar ubicadas de modo que puedan ver todas las características del objeto medido, o al menos el mayor número de características posible. En consecuencia, es común que un rasgo característico medido no sea visto por todas las cámaras. Además de aumentar la cantidad de cámaras, se conoce una pluralidad de otros conceptos, tales como algoritmos de calibración precisa y procesamiento de imágenes, para mejorar la precisión de la medición. Además, es posible planificar las ubicaciones de las cámaras para objetos concretos o utilizar cámaras más precisas o una iluminación específica para mejorar la calidad de las imágenes adquiridas de las características deseadas.
Los sistemas de visión artificial de medición son particularmente buenos porque reconocen las características medidas de forma similar en condiciones diferentes. De este modo, cuando se mide un objeto, las características como bordes y orificios serán detectadas de modo similar, incluso si las condiciones cambian. Por este motivo, es posible medir con precisión incluso pequeños cambios en la ubicación o en la forma del objeto. Aunque los resultados de la medición obtenidos de las imágenes adquiridas son precisos, no pueden ser comparados con los resultados de medición medidos con otras herramientas de medición, tal como una máquina de medición de coordenadas. Esto se debe a que es difícil medir, por ejemplo, la ubicación absoluta de un borde utilizando sistemas y procedimientos de visión artificial convencionales. Aunque es posible medir con precisión el cambio relativo de tamaño, ubicación u otros cambios del objeto medido, es difícil medir el mismo cambio en una escala absoluta en lugar de la diferencia relativa.
En las soluciones convencionales, estas mediciones se complementan a veces con la medición precisa de la ubicación del objeto medido o con la colocación del objeto medido en una plantilla de medición de modo que se conozca la ubicación exacta. Cuando se conoce con exactitud la ubicación, es posible medir al menos algunas de las medidas absolutas del objeto a medir. Un procedimiento consiste en fabricar un objeto de referencia (“objeto dorado o maestro”) que es fabricado con la mayor precisión posible para que cumpla las dimensiones nominales del objeto.
No obstante, estos enfoques pueden ser problemáticos si es necesario medir diferentes tipos de objetos o un gran número de objetos. Las mediciones serán lentas si es necesario posicionar el objeto medido con precisión antes de poder realizar la medición. En consecuencia, si existe la necesidad de medir diferentes tipos de objetos, también puede ser necesario utilizar diferentes tipos de plantillas o de otros medios de posicionamiento que puede ser necesario cambiar entre las mediciones. Todos estos procedimientos mecánicos son costosos y están sometidos a desgaste.
La publicación de la Patente US5426861 da a conocer una disposición, en la que se obtienen mediciones precisas de piezas de producción a partir de un sistema que incluye un primer aparato de medición en un laboratorio, y un segundo aparato de medición que está en un entorno que no es de laboratorio, donde está sometido a mayores fluctuaciones de temperatura que en el laboratorio. Una pieza de referencia de sustancialmente el mismo tamaño y forma que las piezas de producción es inspeccionada por ambos aparatos de medición, y el segundo aparato de medición inspecciona la pieza de producción. Mientras son inspeccionadas, ambas piezas ocupan sustancialmente la misma ubicación en el segundo aparato de medición. Los resultados de estas inspecciones son procesados por un ordenador para proporcionar (1) valores objetivo que la máquina del taller percibiría al inspeccionar una pieza perfecta tal como es especificada por los dibujos de la pieza, o (2) valores que indican lo que la máquina del laboratorio percibiría para la pieza de producción.
La Patente US2010166294 da a conocer un sistema y un procedimiento para determinar la alineación tridimensional de un objeto o escena modelados. La publicación de Henrik G. A. Haggren: “Photogrammetric stations for robot vision”, Proceedings of SPIE, volumen 1615, 1 de marzo de 1992 (01-03-1992), páginas 227-23, ISSN: 0277-786X, DOI: 10.1117/12.58830 da a conocer una disposición, en la que los sensores de visión son cámaras fijas de estado sólido que están montadas permanentemente y configuradas para una tarea de control específica. La calibración in situ de la estación permite el procesamiento continuo de las coordenadas espaciales tridimensionales de todos los puntos del objeto según sus ubicaciones reales en la imagen bidimensional.
CARACTERÍSTICAS
Se da a conocer, según la reivindicación 1, un sistema de visión artificial capaz de medir diferencias en una escala absoluta. En el sistema de visión artificial, se mide con precisión un objeto de referencia utilizando una disposición de medición de referencia, tal como una máquina de medición de coordenadas. En la medición, se mide un conjunto de puntos determinados por dibujos o datos de CAD. La medición de referencia se utiliza para calcular una matriz de desviación entre una matriz de coordenadas determinadas y los resultados de la medición de referencia que se utiliza posteriormente para calcular valores de la escala absoluta a partir de mediciones de visión artificial.
Se da a conocer, según la reivindicación 6, un procedimiento para la medición de un objeto.
En otra realización, el procedimiento comprende, además, recibir una matriz de coordenadas determinadas, en la que la matriz de coordenadas determinadas comprende coordenadas de por lo menos un punto virtual. En otra realización, el procedimiento comprende, además, recibir una matriz de coordenadas determinadas. En una realización, el procedimiento comprende, además, calcular el resultado de la escala absoluta de por lo menos un objeto objetivo como la suma de la matriz de desviación, la matriz de diferencias y la matriz de coordenadas determinadas.
En un aspecto, el procedimiento descrito anteriormente se implementa como un programa informático. El programa informático comprende código de programa informático, en el que el código de programa informático está configurado para realizar un procedimiento como se ha descrito anteriormente cuando es ejecutado por un dispositivo informático.
Los beneficios de las realizaciones descritas incluyen la posibilidad de utilizar mediciones absolutas utilizando un sistema de visión artificial. Cuando las mediciones absolutas son necesarias, la disposición y el procedimiento dados a conocer proporcionan un procedimiento rápido y rentable de realizar mediciones absolutas, ya que no es necesario medir todos los objetos medidos utilizando una máquina de medición de coordenadas.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Los dibujos adjuntos, que se incluyen para proporcionar una mejor comprensión del sistema de visión artificial y forman parte de esta memoria descriptiva, ilustran realizaciones y junto con la descripción ayudan a explicar los principios del sistema de visión artificial. En los dibujos:
la figura 1 es un ejemplo de un sistema de visión artificial,
la figura 2 es un ejemplo de un procedimiento de un sistema de visión artificial,
la figura 3 es un ejemplo de un procedimiento de un sistema de visión artificial.
DESCRIPCIÓN DETALLADA
A continuación se hará referencia en detalle a las realizaciones, de las que se muestran ejemplos en los dibujos adjuntos.
En la figura 1, se muestra un diagrama de bloques que ilustra un ejemplo de un controlador 100 para un sistema de visión artificial. El controlador 100 comprende por lo menos un procesador 101 y por lo menos una memoria 102. El por lo menos un procesador 101 está configurado para ejecutar programas informáticos y la por lo menos una memoria está configurada para almacenar programas informáticos que comprenden código de programa informático y los datos necesarios para los programas informáticos. Habitualmente, el controlador es un ordenador de propósito general, pero también puede ser un controlador fabricado especialmente. El controlador 100 comprende diversos conectores, de modo que el controlador 100 puede conectarse a dispositivos externos y a redes de comunicación de datos utilizando una conexión de comunicación de datos 106. Además, es posible incluir dispositivos informáticos habituales, tales como pantallas, teclados y otros dispositivos comúnmente conocidos.
El controlador 100 está configurado para controlar un sistema de visión artificial. El sistema de visión artificial comprende una pluralidad de cámaras 103a a 103c. El procesador del controlador está configurado para adquirir imágenes de un objeto a medir 104 utilizando una cámara 103a a 103c. Aunque la figura ilustra el uso de tres cámaras, el número de cámaras no estará limitado a tres y, habitualmente, se utilizará un mayor número de cámaras.
El controlador 100 que controla el sistema de visión artificial de la figura está configurado, además, para recibir resultados de mediciones de un dispositivo de medición externo, tal como una máquina de medición de coordenadas 105. La máquina de medición de coordenadas 105 comprende una sonda 106 que se utiliza en la medición del objeto 104. En la siguiente descripción, se explicará en más detalle el uso de la máquina de medición de coordenadas; no obstante, debe entenderse que el objeto 104 de la figura 1 es el mismo objeto. Por tanto, este se medirá primero utilizando la disposición de visión artificial y a continuación utilizando la máquina de medición de coordenadas, o viceversa. Dicho de otro modo, no se supone que el objeto esté sometido a dos mediciones al mismo tiempo, sino que los resultados de las dos mediciones se almacenan en la memoria 102 del controlador 100. No es necesario que el objeto 104 sea un objeto modelo fabricado de manera concreta. El objeto 104 puede ser un objeto de producción común o fabricado en preproducción. De este modo, un beneficio de la disposición es que no existe la necesidad de objetos modelo fabricados específicamente y de manera más precisa.
En el ejemplo de la figura 1, la máquina de medición de coordenadas 105 está acoplada al controlador 100. No obstante, esto no es necesario. No es necesario que la máquina de medición de coordenadas esté ubicada en las mismas instalaciones ni que esté conectada directamente al controlador 100. No obstante, se requiere que los resultados de las mediciones obtenidos con la máquina de medición de coordenadas 105 puedan llevarse al controlador 100. Si no hay conexión directa, los resultados de las mediciones pueden llevarse utilizando un soporte de medios, tal como un lápiz de memoria, una tarjeta de memoria, un disco óptico, un disquete magnético tradicional o similares. En consecuencia, el controlador 100 está conectado a ordenadores adicionales utilizando una conexión de red de área local. La conexión de red de área local puede ser utilizada para controlar y configurar el controlador 100 y para intercambio de datos común. Por ejemplo, la conexión de red de área local puede utilizarse para recibir datos relacionados con los objetos a medir.
En la figura 2, se muestra un procedimiento a modo de ejemplo para realizar una medición inicial. En el procedimiento, se utilizan puntos virtuales tridimensionales. Tal como se ha explicado anteriormente, diferentes cámaras ven el objeto medido en una ubicación diferente. De este modo, el punto medido por el sistema de cámaras no es la ubicación real exacta del punto medido, sino que representa el punto tal como es visto por el sistema de cámaras que comprende por lo menos dos cámaras. Este denominado punto virtual se desvía de las coordenadas reales del objeto medido. No obstante, si el objeto medido se mueve, los puntos virtuales tridimensionales y la desviación se moverán en consecuencia. Si el objeto medido no se mueve y se miden diferentes partes del objeto, los movimientos de los puntos virtuales se corresponderán con los cambios del objeto medido. Estos pueden ser provocados, por ejemplo, por expansión térmica. Si el objeto medido se cambia por un objeto similar, los cambios de los puntos virtuales tridimensionales se corresponderán con los cambios entre los objetos medidos.
Los puntos virtuales se pueden elegir libremente; no obstante, los valores de las coordenadas se eligen habitualmente para corresponderse con las características a medir. Un punto virtual tridimensional (X, Y, Z) se corresponde con los pares de coordenadas bidimensionales virtuales (x0 , y0 , x1, y1, ..., xn, yn) que pueden verse utilizando las cámaras, donde n es el número de cámaras. Para determinar la ubicación de los puntos virtuales, se pueden utilizar procedimientos convencionales para buscar y detectar los puntos a medir.
El procedimiento de la figura 2 se inicia determinando los puntos virtuales tridimensionales, etapa 200. La determinación se llevará a cabo utilizando un objeto de referencia. Los puntos virtuales son puntos 3D que están vinculados a las características a medir de la pieza de referencia. Un punto virtual 3D está normalmente, pero no definitivamente, cerca de un punto tal como el punto central de un orificio. El objeto de referencia puede ser un objeto modelo particular o simplemente cualquier objeto fabricado. Los puntos virtuales tridimensionales determinados forman una matriz de coordenadas determinadas N, siendo el tamaño de la matriz m x 3, donde m es el número de puntos virtuales tridimensionales. También es posible utilizar varias piezas de referencia y calcular una matriz E en la ecuación (1) de modo que comprenda valores promedio.
Después de determinar los puntos virtuales tridimensionales, se miden los puntos correspondientes del objeto de referencia utilizando una máquina de medición de coordenadas u otro dispositivo de medición de referencia, etapa 201. A partir de las mediciones, se forma una matriz de resultados Mo. Por último, se determina una matriz de desviación E, etapa 202. La matriz de desviación se determina según la ecuación (1)
E = Mo - N ecuación (1)
El procedimiento de la figura 2 puede considerarse como una parte del proceso de calibración del sistema de visión artificial; no obstante, también puede ser interpretado como una medición inicial para el procedimiento de medición descrito a continuación con respecto a la figura 3. Cabe señalar que incluso un sistema de medición de referencia no puede medir directamente determinadas características como los puntos centrales de los orificios, dado que el punto central de un orificio no es un objeto físico. La ubicación del punto central del orificio tiene que determinarse indirectamente midiendo los bordes del orificio y suponiendo, por ejemplo, que el orificio tiene una forma circular precisa.
En la figura 3 se muestra un procedimiento de ejemplo para medir objetos. El procedimiento de medición utiliza los puntos virtuales tridimensionales determinados. El procedimiento se inicia midiendo, utilizando un sistema de cámaras, del objeto de referencia que se midió utilizando el dispositivo de medición de referencia, etapa 300. La medición proporciona una matriz de resultados Vo. Esta etapa también es posible implementarla en el procedimiento analizado anteriormente con respecto a la figura 2. Dado que no depende del resto del procedimiento de la figura 2, se puede ejecutar en cualquier momento.
Después de que se haya medido el objeto de referencia, se pueden medir los demás objetos, etapa 301. Para cada objeto, se obtiene una matriz de resultados V„. La matriz de resultados Vn es un resultado común en las mediciones de visión artificial. Las matrices de resultados obtenidas y la matriz de resultados del objeto de referencia se adaptan entre sí, por ejemplo, utilizando un procedimiento de mínimos cuadrados, de modo que se puede calcular, según la ecuación 2, una matriz de diferencias Dn entre el objeto medido y el objeto de referencia, etapa 302.
Dn = Vn - Vo ecuación (2)
Después de calcular la matriz de diferencias Dn, es posible calcular una matriz Mn que representa las mediciones de la escala absoluta del objeto medido n utilizando la ecuación 3, etapa 303.
Mn = Dn + E N ecuación (3)
La matriz de resultados Mn obtenida es comparable con los resultados de la escala absoluta proporcionados por el dispositivo de medición de referencia, tal como una máquina de medición de coordenadas. En la descripción anterior, los objetos medidos pueden denominarse objetos objetivo y la referencia puede ser uno de los objetos objetivo; no obstante, también puede ser un objeto de referencia concreto. Dependiendo de la situación se puede calcular también más directamente
Dn = Vn - N ecuación (4)
dando
Mn = Vn + E ecuación (5)
El procedimiento mencionado anteriormente puede implementarse como software informático que comprende código de programa informático, que es ejecutado en un dispositivo informático capaz de comunicarse con dispositivos externos. Cuando el software es ejecutado en un dispositivo informático, está configurado para realizar el procedimiento inventivo descrito anteriormente. El software está incorporado en un medio legible por ordenador, de modo que puede ser proporcionado al dispositivo informático, tal como el controlador 100 de la figura 1.
Como se ha indicado anteriormente, los componentes de las realizaciones a modo de ejemplo pueden incluir un medio legible por ordenador o memorias para contener instrucciones programadas de acuerdo con las enseñanzas de la presente invención y para contener estructuras de datos, tablas, registros y/u otros datos descritos en el presente documento. El medio legible por ordenador puede incluir cualquier medio adecuado que participe en la provisión de instrucciones a un procesador para su ejecución. Las formas habituales de medios legibles por ordenador pueden incluir, por ejemplo, un disquete, un disco flexible, un disco duro, una cinta magnética, cualquier otro medio magnético adecuado, un CD-ROM, un CD±R, un CD±RW, un DVD, un DVD-RAM, un DVD±RW, un DVD±R, un HD DVD, un HD DVD-R, un HD Dv D-RW, un HD DVD-RAM, un disco Blu-ray, cualquier otro medio óptico adecuado, una RAM, una PROM, una EPROM, una FLASH-EPROM, cualquier otro chip o cartucho de memoria adecuado, una onda portadora o cualquier otro medio adecuado desde el que pueda leer un ordenador. Es obvio para un experto en la materia que con el avance de la tecnología, la idea básica del sistema de visión artificial puede implementarse de diversos modos. El sistema de visión artificial y sus realizaciones no están limitadas, por tanto, a los ejemplos descritos anteriormente; sino que pueden variar dentro del alcance de las reivindicaciones.
Claims (10)
1. Sistema de visión artificial, que comprende:
por lo menos dos cámaras (103a a 103c); y
un controlador (100), donde el controlador comprende, además:
por lo menos un procesador (101);
por lo menos una memoria (102); y
por lo menos una conexión de comunicación de datos (106);
en el que el controlador (100) está configurado para recibir una matriz de desviación, donde la matriz de desviación está basada en una medición de un objeto de referencia utilizando un dispositivo de medición de referencia; y en el que el procesador (101) está configurado para:
medir, utilizando dichas por lo menos dos cámaras (103a a 103c), el objeto de referencia y por lo menos un objeto objetivo;
calcular una matriz de diferencias que representa la diferencia entre el objeto objetivo medido y el objeto de referencia medido; y
calcular el resultado de la escala absoluta para el por lo menos un objeto objetivo basándose en el objeto objetivo medido, la matriz de diferencias respectiva y la matriz de desviación.
2. Sistema de visión artificial, según la reivindicación 1, en el que el controlador (100) está configurado, además, para recibir una matriz de coordenadas determinadas, en el que la matriz de coordenadas determinadas comprende las coordenadas de por lo menos un punto virtual.
3. Sistema de visión artificial, según la reivindicación 1, en el que el controlador (100) está configurado, además, para recibir una matriz de coordenadas determinadas.
4. Sistema de visión artificial, según la reivindicación 3, en el que el procesador (101) está configurado para calcular el resultado de la escala absoluta de por lo menos un objeto objetivo como la suma de la matriz de desviación, la matriz de diferencias y la matriz de coordenadas determinadas.
5. Sistema de visión artificial, según cualquiera de las reivindicaciones 1 a 4 anteriores, en el que el sistema de visión artificial comprende, además, una máquina de medición de coordenadas (106).
6. Procedimiento para medir un objeto, que comprende:
recibir una matriz de desviación, donde la matriz de desviación se basa en una medición de un objeto de referencia utilizando un dispositivo de medición de referencia;
medir, utilizando un sistema de visión artificial, el objeto de referencia y por lo menos un objeto objetivo (300, 301); calcular una matriz de diferencias que representa la diferencia entre el objeto objetivo medido y el objeto de referencia medido (302);
calcular el resultado de la escala absoluta para por lo menos un objeto objetivo basándose en el objeto objetivo medido, la matriz de diferencias respectiva y la matriz de desviación (303).
7. Procedimiento, según la reivindicación 6, en el que el procedimiento comprende, además, recibir una matriz de coordenadas determinadas, en el que la matriz de coordenadas determinadas comprende las coordenadas de por lo menos un punto virtual.
8. Procedimiento, según la reivindicación 6, en el que el procedimiento comprende, además, recibir una matriz de coordenadas determinadas.
9. Procedimiento, según la reivindicación 8, en el que el procedimiento comprende, además, calcular el resultado de la escala absoluta de por lo menos un objeto objetivo como la suma de la matriz de desviación, la matriz de diferencias y la matriz de coordenadas determinadas.
10. Programa informático que comprende código de programa informático, en el que el código de programa informático está configurado para hacer que un sistema de visión artificial, según cualquiera de las reivindicaciones 1 a 5 anteriores, realice un procedimiento según cualquiera de las reivindicaciones 6 a 9 cuando es ejecutado por un dispositivo informático.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FI20175318A FI127555B (en) | 2017-04-05 | 2017-04-05 | Computer vision systems that include coordinate correction |
PCT/FI2018/050016 WO2018185363A1 (en) | 2017-04-05 | 2018-01-11 | Machine vision system |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2882712T3 true ES2882712T3 (es) | 2021-12-02 |
Family
ID=61007715
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES18700940T Active ES2882712T3 (es) | 2017-04-05 | 2018-01-11 | Sistema de visión artificial |
Country Status (14)
Country | Link |
---|---|
US (1) | US11087455B2 (es) |
EP (1) | EP3607264B1 (es) |
JP (1) | JP6789411B2 (es) |
KR (1) | KR102235632B1 (es) |
CN (1) | CN110573832B (es) |
ES (1) | ES2882712T3 (es) |
FI (1) | FI127555B (es) |
HR (1) | HRP20211376T1 (es) |
HU (1) | HUE055514T2 (es) |
PL (1) | PL3607264T3 (es) |
PT (1) | PT3607264T (es) |
RS (1) | RS62264B1 (es) |
SI (1) | SI3607264T1 (es) |
WO (1) | WO2018185363A1 (es) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI127555B (en) | 2017-04-05 | 2018-08-31 | Oy Mapvision Ltd | Computer vision systems that include coordinate correction |
JP7012965B2 (ja) * | 2019-03-28 | 2022-01-31 | 株式会社AB.do | 三次元データスケール付与方法及び三次元データスケール付与プログラム |
CN110030928A (zh) * | 2019-04-11 | 2019-07-19 | 接楚添 | 基于计算机视觉的空间物体定位和测量的方法和系统 |
CN111724434A (zh) * | 2020-06-23 | 2020-09-29 | 江苏农牧科技职业学院 | 一种水产养殖体生长跟踪方法、装置、系统及介质 |
KR20220130552A (ko) | 2021-03-18 | 2022-09-27 | 주식회사 아이솔 | 검사부 교체식 인공지능 머신 비전 장치 |
DE102021121080A1 (de) | 2021-08-13 | 2023-02-16 | Inline3D GmbH | Messvorrichtung und Verfahren zur Messung eines Objekts |
DE102021121073A1 (de) | 2021-08-13 | 2023-02-16 | Inline3D GmbH | Messvorrichtung und Verfahren zur Messung eines Objektes |
DE102023106705A1 (de) | 2022-03-17 | 2023-09-21 | Inline3D GmbH | Verfahren zum Abgleich von Messsystemen und Messsystemanordnung |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FI74556C (fi) | 1986-04-11 | 1988-02-08 | Valtion Teknillinen | Foerfarande foer tredimensionell oevervakning av ett maolutrymme. |
GB8713715D0 (en) | 1987-06-11 | 1987-07-15 | Renishaw Plc | Workpiece inspection method |
US5426861A (en) * | 1993-04-19 | 1995-06-27 | Advanced Metrological Development | Method and apparatus for inspecting parts for dimensional accuracy outside a laboratory environment |
JP3335602B2 (ja) * | 1999-11-26 | 2002-10-21 | 株式会社クリエイティブ・ブレインズ | 思考系の解析方法および解析装置 |
US6526166B1 (en) | 1999-12-29 | 2003-02-25 | Intel Corporation | Using a reference cube for capture of 3D geometry |
US20030038933A1 (en) | 2001-04-19 | 2003-02-27 | Dimensional Photonics Inc. | Calibration apparatus, system and method |
GB0117541D0 (en) * | 2001-07-19 | 2003-08-06 | Bae Systems Plc | Automatic registration of images in digital terrain elevation data |
US7193559B2 (en) * | 2003-01-21 | 2007-03-20 | Novatel, Inc. | Inertial GPS navigation system with modified kalman filter |
US7394946B2 (en) * | 2004-05-18 | 2008-07-01 | Agfa Healthcare | Method for automatically mapping of geometric objects in digital medical images |
DE102005016955A1 (de) * | 2005-04-12 | 2006-10-19 | Universität Tübingen | Verfahren und Vorrichtung zur Verarbeitung von Bild- und Volumendaten auf Basis statistischer Modelle |
JP2006308500A (ja) | 2005-04-28 | 2006-11-09 | Yorozu Corp | 三次元ワーク測定方法 |
CN101427100B (zh) * | 2006-04-21 | 2012-05-30 | 瑞尼斯豪公司 | 误差校正方法 |
US7625088B2 (en) * | 2007-02-22 | 2009-12-01 | Kowa Company Ltd. | Image processing apparatus |
US8126260B2 (en) | 2007-05-29 | 2012-02-28 | Cognex Corporation | System and method for locating a three-dimensional object using machine vision |
US7705592B2 (en) * | 2008-02-01 | 2010-04-27 | Baker Hughes Incorporated | Two dimensional T1/T2APP-T2APP processing of multi-gradient NMR data |
US8442304B2 (en) * | 2008-12-29 | 2013-05-14 | Cognex Corporation | System and method for three-dimensional alignment of objects using machine vision |
JP2011043419A (ja) * | 2009-08-21 | 2011-03-03 | Sony Corp | 情報処理装置、および情報処理方法、並びにプログラム |
US8121400B2 (en) | 2009-09-24 | 2012-02-21 | Huper Laboratories Co., Ltd. | Method of comparing similarity of 3D visual objects |
JP5526375B2 (ja) | 2011-07-07 | 2014-06-18 | トヨタ自動車東日本株式会社 | 三次元計測システム及び三次元計測方法 |
KR101398126B1 (ko) | 2012-04-18 | 2014-05-27 | 박윤식 | 서랍용 슬라이드 장치 |
CN103424083B (zh) * | 2012-05-24 | 2016-02-10 | 北京数码视讯科技股份有限公司 | 物体深度的检测方法、装置和系统 |
DE102012220048B4 (de) | 2012-11-02 | 2018-09-20 | Sirona Dental Systems Gmbh | Kalibrierungsvorrichtung und Verfahren zur Kalibrierung einer dentalen Kamera |
US9230339B2 (en) | 2013-01-07 | 2016-01-05 | Wexenergy Innovations Llc | System and method of measuring distances related to an object |
CN103983186B (zh) | 2014-04-17 | 2016-08-24 | 内蒙古大学 | 双目视觉系统校正方法及校正设备 |
CN103955939B (zh) | 2014-05-16 | 2018-06-19 | 重庆理工大学 | 三维扫描系统中点云拼接用边界特征点配准方法 |
CN104034269B (zh) | 2014-06-24 | 2018-04-17 | 深圳市赛为智能股份有限公司 | 一种单目视觉测量方法与装置 |
CN107110637B (zh) | 2014-12-22 | 2019-11-01 | 赛博光学公司 | 对三维测量系统的校准进行更新 |
EP3040941B1 (en) * | 2014-12-29 | 2017-08-02 | Dassault Systèmes | Method for calibrating a depth camera |
US11158039B2 (en) | 2015-06-26 | 2021-10-26 | Cognex Corporation | Using 3D vision for automated industrial inspection |
US10290118B2 (en) | 2015-08-06 | 2019-05-14 | Cognex Corporation | System and method for tying together machine vision coordinate spaces in a guided assembly environment |
CN105091866A (zh) | 2015-09-11 | 2015-11-25 | 天津大学 | 零件位姿识别视觉系统及其标定方法 |
JP2017116297A (ja) | 2015-12-21 | 2017-06-29 | 株式会社ミツトヨ | 画像測定方法及び画像測定機 |
CN105865335A (zh) | 2016-04-21 | 2016-08-17 | 四川大学 | 一种基于机器视觉的定子线棒截面尺寸检测系统 |
FI127555B (en) | 2017-04-05 | 2018-08-31 | Oy Mapvision Ltd | Computer vision systems that include coordinate correction |
FR3086052B1 (fr) * | 2018-09-13 | 2020-10-02 | Ixblue | Système de localisation, et procédé de localisation associé |
-
2017
- 2017-04-05 FI FI20175318A patent/FI127555B/en active IP Right Grant
-
2018
- 2018-01-11 PL PL18700940T patent/PL3607264T3/pl unknown
- 2018-01-11 US US16/500,491 patent/US11087455B2/en active Active
- 2018-01-11 EP EP18700940.2A patent/EP3607264B1/en active Active
- 2018-01-11 PT PT187009402T patent/PT3607264T/pt unknown
- 2018-01-11 WO PCT/FI2018/050016 patent/WO2018185363A1/en active Search and Examination
- 2018-01-11 SI SI201830373T patent/SI3607264T1/sl unknown
- 2018-01-11 KR KR1020197032622A patent/KR102235632B1/ko active IP Right Grant
- 2018-01-11 JP JP2019559345A patent/JP6789411B2/ja active Active
- 2018-01-11 ES ES18700940T patent/ES2882712T3/es active Active
- 2018-01-11 RS RS20211067A patent/RS62264B1/sr unknown
- 2018-01-11 HU HUE18700940A patent/HUE055514T2/hu unknown
- 2018-01-11 CN CN201880022640.9A patent/CN110573832B/zh active Active
-
2021
- 2021-08-30 HR HRP20211376TT patent/HRP20211376T1/hr unknown
Also Published As
Publication number | Publication date |
---|---|
KR20190137131A (ko) | 2019-12-10 |
KR102235632B1 (ko) | 2021-04-05 |
FI127555B (en) | 2018-08-31 |
JP6789411B2 (ja) | 2020-11-25 |
CN110573832A (zh) | 2019-12-13 |
HRP20211376T1 (hr) | 2021-11-26 |
US11087455B2 (en) | 2021-08-10 |
JP2020513107A (ja) | 2020-04-30 |
RS62264B1 (sr) | 2021-09-30 |
CN110573832B (zh) | 2022-07-26 |
HUE055514T2 (hu) | 2021-12-28 |
EP3607264A1 (en) | 2020-02-12 |
US20210004944A1 (en) | 2021-01-07 |
WO2018185363A1 (en) | 2018-10-11 |
SI3607264T1 (sl) | 2021-11-30 |
EP3607264B1 (en) | 2021-06-09 |
PT3607264T (pt) | 2021-09-13 |
PL3607264T3 (pl) | 2022-01-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2882712T3 (es) | Sistema de visión artificial | |
JP7165484B2 (ja) | 高精密な校正システム及び方法 | |
EP2435783B1 (en) | Hybrid sensor | |
CN102376089B (zh) | 一种标靶校正方法及系统 | |
CN108332708B (zh) | 激光水平仪自动检测系统及检测方法 | |
ES2785994T3 (es) | Procedimiento y sistema para la calibración de un sistema de visión por ordenador | |
US20160063704A1 (en) | Image processing device, image processing method, and program therefor | |
KR101808095B1 (ko) | 사용자 단말의 위치 측정 방법 및 장치 | |
ES2409269T3 (es) | Método para determinar la medida de hendidura y/o las marcas de nivelación de piezas de carrocería de un vehículo a motor y programa de control | |
WO2017107534A1 (zh) | 夹角测量方法、装置及夹角调节方法、装置 | |
Tushev et al. | Architecture of industrial close-range photogrammetric system with multi-functional coded targets | |
ES2267612T3 (es) | Procedimiento para determinar la posicion de un sistema de coordenadas de una pieza de trabajo en el espacio 3d. | |
JP6594008B2 (ja) | 移動体制御装置、ランドマーク、および、プログラム | |
CN110726534B (zh) | 一种视觉装置视场范围测试方法及装置 | |
Korolev et al. | Use of information redundancy in optical digital measurement systems with 2D sensor | |
Götz et al. | Accuracy evaluation for a precise indoor multi-camera pose estimation system | |
US8494221B2 (en) | Inverse star tracker using psuedo-random overlapping circles | |
JP2016095243A (ja) | 計測装置、計測方法、および物品の製造方法 | |
JP6599137B2 (ja) | 平面形状測定装置及び平面形状算出システム | |
BR112020024006A2 (pt) | codificador de movimento | |
BRMU8703085Y1 (pt) | Dispositivo para medição fotogramétrica | |
US20230375343A1 (en) | Photogrammetry system | |
ES2918498A1 (es) | Metodo para reconstruccion fotogrametrica | |
US20160109557A1 (en) | Sensor array measurements using select sensor pairs | |
JP2014106143A (ja) | 表面形状測定装置及び方法 |