ES2821104A1 - Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion - Google Patents

Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion Download PDF

Info

Publication number
ES2821104A1
ES2821104A1 ES201930936A ES201930936A ES2821104A1 ES 2821104 A1 ES2821104 A1 ES 2821104A1 ES 201930936 A ES201930936 A ES 201930936A ES 201930936 A ES201930936 A ES 201930936A ES 2821104 A1 ES2821104 A1 ES 2821104A1
Authority
ES
Spain
Prior art keywords
vehicle
tunnel
measurement
sce
parts
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201930936A
Other languages
English (en)
Other versions
ES2821104B2 (es
Inventor
Pla Jesús Belda
Ruiz Jorge Broto
Lozano José Arribas
Cubel María José Esteve
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eines Systems S L
Original Assignee
Eines Systems S L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to ES201930936A priority Critical patent/ES2821104B2/es
Application filed by Eines Systems S L filed Critical Eines Systems S L
Priority to JP2022506341A priority patent/JP7373053B2/ja
Priority to PCT/ES2020/070488 priority patent/WO2021079018A1/es
Priority to EP20879248.1A priority patent/EP4049920A4/en
Priority to KR1020227006606A priority patent/KR102639910B1/ko
Priority to US17/764,333 priority patent/US11953310B2/en
Priority to CN202080068189.1A priority patent/CN114502456A/zh
Priority to TW109128023A priority patent/TW202134098A/zh
Publication of ES2821104A1 publication Critical patent/ES2821104A1/es
Application granted granted Critical
Publication of ES2821104B2 publication Critical patent/ES2821104B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/005Inspection and final control devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/02Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
    • B62D65/024Positioning of sub-units or components with respect to body shell or other sub-units or components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/0025Measuring of vehicle parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • G01B7/14Measuring arrangements characterised by the use of electric or magnetic techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30156Vehicle coating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Chemical & Material Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Combustion & Propulsion (AREA)
  • Manufacturing & Machinery (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Método de medición de enrase y separación de partes de un vehículo y túnel de medición. Se divulga un método que es capaz de medir el enrase y la separación de partes de un vehículo mediante un túnel de medición. El método es capaz de determinar las coordenadas en 3D de los extremos o bordes de dos partes adyacentes de un vehículo. El túnel de medición (1) comprende varias cámaras de video (2), luces LED (22), un transportador (8), un codificador de posición (9) que mide el desplazamiento del vehículo (7); una estación total (11) que mide unos puntos fijos de la estructura del túnel de medición (12), un tablero de calibración (3) y un patrón de calibración (4); unos medios de procesamiento y almacenamiento (10) que almacenan imágenes tomadas por las cámaras de video, unos archivos de diseño asistido por computadora de los vehículos y un algoritmo de reconocimiento de extremos.

Description

DESCRIPCIÓN
MÉTODO DE MEDICIÓN DE ENRASE Y SEPARACIÓN DE PARTES DE UN VEHÍCULO Y TÚNEL DE MEDICIÓN
Objeto de la invención
El objeto de la invención es un método de medición del enrase y la separación de partes de un vehículo y un túnel de medición dotado de los medios necesarios para llevar a cabo la medición del enrase y la separación de partes de un vehículo.
Mediante el método de la presente invención se trata de automatizar el proceso de medición del enrase y la separación que presentan las diferentes partes de un vehículo respecto de las que les rodean. Por ejemplo, una puerta de un vehículo tiene un borde perimetral que tiene que estar enrasado con las partes del vehículo que rodean a la puerta como pueden ser otras puertas, aletas, etc. Además, la puerta tiene que tener una separación concreta dentro de unos márgenes muy estrechos para que el movimiento de apertura y cierra de la puerta sea correcto.
Campo Técnico de la Invención
El campo técnico al que pertenece la presente invención es el campo de los dispositivos y métodos de medición aplicados a las superficies de un vehículo sin contacto con el mismo.
Antecedentes de la Invención
Actualmente, los sistemas de medición de “Enrase y Separación” conocidos en inglés como “Flush & Gap” son sistemas automáticos que suelen utilizar Robots con un sensor 3D embarcado para realizar las mediciones (sobre todo en montaje final). Existen sistemas con sensores fijos, pero no tienen la precisión suficiente. También existen sistemas manuales donde un operario con un dispositivo portátil va posicionando el medidor sobre los puntos de la carrocería del vehículo que se desea medir realizando movimientos oscilatorios para medir el enrasado.
Los sistemas donde intervienen operarios son lentos ya que un mismo operario se debe de trasladar a uno y otro lado del vehículo y además posicionar el dispositivo medidor sobre la carrocería puede afectar a la pintura del vehículo.
En cuanto a los sistemas de medición basados en robots, estos sistemas presentan los inconvenientes tales como: son costosos de instalar por el alto coste de los robots, las seguridades, etc.; difíciles de configurar para usuarios no expertos en robots como suelen ser los operarios de montaje final; alto coste de mantenimiento; poco flexibles a cambios, ya que al añadir o eliminar nuevos puntos, hay que reprogramar los robots; número de secciones a medir acotadas, es decir, hay un número máximo de secciones posibles, ya que hay una fuerte dependencia de la velocidad de los robots, los cuales tienen un límite físico.
Sería deseable, por tanto, encontrar una solución completamente automatizada al problema de calcular la distancia y el enrase de las partes que componen un vehículo.
Descripción de la Invención
La presente invención divulga un método de medición de enrase y separación de partes de un vehículo y un túnel de medición de enrase y separación de partes de un vehículo.
En un primer aspecto de la invención se divulga el túnel de medición de enrase y separación de partes de un vehículo. El túnel de medición comprende: cámaras de video para tomar imágenes de un vehículo; un transportador que desplaza linealmente el vehículo y atraviesa longitudinalmente el túnel de medición; un codificador de posición que mide el desplazamiento del vehículo; una estación total que mide unos puntos fijos de la estructura del túnel de medición en 3D con precisión; un tablero de calibración sobre el que se sitúa un patrón de calibración; al menos dos luces sincronizadas con las cámaras de vídeo; y, unos medios de procesamiento y almacenamiento que almacenan al menos unas imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora - CAD - de los vehículos y un algoritmo de reconocimiento de extremos. Además, los medios de procesamiento y almacenamiento están conectados a las luces, a las cámaras de video, al transportador y al codificador de posición. Finalmente, los medios de procesamiento y almacenamiento están adaptados para ejecutar los pasos del método de medición de enrase y separación de partes de un vehículo que se definen posteriormente en el segundo aspecto de la invención.
Puntualizar que el codificador de posición o “encoder” es un generador de pulsos, el cual se conecta al eje de un motor que mueve el transportador y genera pulsos mientras el motor va girando. En la presente invención, el codificador de posición sirve para medir el avance del vehículo a lo largo del transporte ya que los pulsos se traducen en medida de longitud.
En una forma de realización del túnel de medición, el patrón de calibración está formado por cuadrados dispuestos al tresbolillo. Adicionalmente, el patrón de calibración comprende un código datamatrix y una marca fiducial. El código datamatrix y la marca fiducial contienen información relativa al patrón de calibración como numero de filas y columnas, situación del cuadrado central, tamaño de los cuadrados, colores de los cuadrados, etc. De forma preferida, los cuadrados son blancos y negros porque tienen mejor contraste al tener que determinar sus puntos de unión.
En otra forma de realización del túnel de medición, el túnel de medición adicionalmente comprende una estructura soporte en forma de “U” invertida y una estructura soporte frontal para sustentar las luces, las cámaras de visión en el interior del túnel de medición. Estos soportes para las luces y las cámaras de video tienen la ventaja de situar las cámaras de video de tal forma que se puede realizar un escaneo completo del vehículo que se encuentre en el interior del túnel de medición.
En otra forma de realización del túnel de medición, las luces tienen una longitud mínima de 400mm. Adicionalmente u opcionalmente, las luces tienen tecnología LED.
En un segundo aspecto de la invención se divulga el método de medición de enrase y separación de partes de un vehículo asociado al túnel de medición del primer aspecto de la invención. El método de medición de enrase y separación de partes de un vehículo comprende los siguientes pasos:
• calibrar las cámaras de video comprendidas en el túnel de medición calculando los parámetros intrínsecos y los parámetros extrínsecos de las cámaras de video;
• construir un sistema de referencia común -SCE- para el túnel de medición y referenciar las cámaras de video al sistema de referencia común -SCE-;
• calcular unas coordenadas 3D por estereovisión de al menos cuatro puntos de referencia del vehículo en base al sistema de referencia común -SCE-obteniéndose las coordenadas X,Y,Z de cada punto de referencia;
• calcular las coordenadas X,Y,Z de cada punto de referencia en base a un sistema de referencia vehículo -SCV- a partir de un archivo de Diseño Asistido por Computadora - CAD - con las medidas del vehículo en 3-dimensiones; • lanzar unos disparos, sincronizados con las cámaras de video, de al menos dos luces que generan reflejo de luz en unas partes del vehículo y ausencia de reflejo de luz en una separación entre las partes del vehículo de tal forma que la ausencia de reflejo de luz queda confinada entre unos extremos que sí generan reflejo de luz;
• tomar al menos dos imágenes sincronizadas 2D de las partes del vehículo con ausencia de reflejo mediante las cámaras de video, donde un identificador -ID-de cada imagen sincronizada 2D queda asociado con la posición espacial del vehículo respecto del túnel de medición, y aplicar un algoritmo de reconocimiento de extremos que calcula las coordenadas X,Y de cada extremo así como del identificador -ID- en base al sistema de referencia común -SCE-;
• combinar las imágines sincronizadas 2D en imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas X,Y,Z referenciadas al sistema de referencia común-SCE-;
• calcular las coordenadas X,Y,Z de los extremos en las imágenes 3D referenciadas al sistema de referencia vehículo -SCV- mediante la relación:
SCV = Inversa (MR) x SCE
donde SCV es una matriz que define las coordenadas X,Y,Z referenciadas al sistema de referencia vehículo -SCV-; SCE es una matriz que define las coordenadas X,Y,Z referenciadas al sistema de referencia común -SCE- y MR es la matriz de relación entre ambos sistemas de referencia y que define la traslación, rotación y escala necesarios para pasar de un sistema a otro de referencia;
• calcular un enrase y una separación de las partes del vehículo como la distancia de separación entre los extremos en coordenadas X,Y,Z referenciadas al sistema de referencia vehículo -SCV-.
Como ejemplo de lo anterior, si se desea medir la distancia de la puerta delantera de un vehículo a la correspondiente aleta del vehículo, hay una “sección” (recta) determinada por el último punto de la puerta que genera reflejo de luz al ser iluminada por las luces, que será un extremo de la sección, y por el último punto de la aleta que genera reflejo de luz al ser iluminada por las luces, que será el otro extremo de la sección. La parte entre los extremos no genera reflejo de luz y representa la distancia en 3-dimensiones (enrase y separación) entre las partes (puerta y aleta) del vehículo.
El proceso de calibración de las cámaras de video descrito en el paso de calibración de las cámaras de video conlleva el cálculo de los parámetros intrínsecos y extrínsecos. Para calcular los parámetros intrínsecos se llevan a cabo los siguientes sub-pasos:
• tomar al menos dos imágenes del tablero de calibración que comprenda al menos el código datamatrix y la marca fiducial;
• decodificar el código datamatrix para obtener el tamaño del cuadrado, el número de filas y el número de columnas del tablero de calibración;
• determinar el cuadrado central del tablero de calibración en base al código datamatrix;
• calcular todas las uniones de los cuadrados partiendo del cuadrado central; • calcular el Centro Óptico, la distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2) en base a las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara de video.
Por otro lado, para calcular los parámetros extrínsecos, el método de medición de enrase y separación de partes de un vehículo comprende los siguientes sub-pasos:
• situar el tablero de calibración dentro del túnel de medición en una posición donde sea visible por al menos una cámara de video;
• realizar una medición del tablero de calibración mediante la estación total, para lo cual:
o medir cuatro puntos fijos sobre la estructura del túnel de medición mediante la estación total;
o estacionar iterativamente la estación total obteniendo el sistema de referencia común - SCE - con respecto a un transportador de vehículos por el interior del túnel del inspección;
o medir con la estación total en el sistema de referencia común - SCE -al menos doce puntos auxiliares ubicados sobre el tablero de calibración;
• calcular la relación entre el sistema de referencia común - SCE - y el tablero de calibración utilizando transformación y estimación de rígidos;
• guardar al menos una imagen del tablero de calibración por cada cámara de video;
• calcular un sistema de coordenadas local de cada cámara de video y calcular la transformación del sistema de coordenadas local al sistema de referencia común -SCE- .
Una vez calibradas las cámaras de video y construido el sistema de referencia común -SCE-, referenciando las cámaras de video al sistema de referencia común -SCE-, se aplica el siguiente paso consistente en calcular las coordenadas 3D por estereovisión de cuatro puntos de referencia de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas X,Y,Z de cada punto de referencia. Para calcular las coordenadas 3D por estereovisión de los cuatro puntos de referencia de un vehículo, se llevan a cabo los siguientes pasos:
• elegir dos cámaras de video por lateral del vehículo que tengan acceso visual a los cuatro puntos de referencia que van a ser medidos;
• elegir los puntos de referencia a calcular sobre el vehículo teniendo en cuenta el desplazamiento sincronizado del vehículo sobre el transportador respecto del túnel de medición.
Opcional y adicionalmente a los dos pasos anteriores, se pueden generar patrones de reconocimiento para el reconocimiento de posteriores vehículos iguales mediante un algoritmo de búsqueda vectorial por contraste.
Breve descripción de las Figuras
La figura 1 muestra el túnel de medición de enrase y separación de partes de un vehículo y un vehículo en su interior.
La figura 2 muestra el túnel de medición de la presente invención en donde se ha situado interiormente el tablero de calibración.
La figura 3 muestra el patrón de calibración que porta el tablero de calibración.
La figura 4 muestra la estación total tomando coordenadas 3D de cuatro puntos fijos del túnel de medición.
La figura 5 muestra el cálculo de cuatro puntos de referencia del vehículo mediante las cámaras de video.
La figura 6 muestra un vehículo en perspectiva donde se indican cuatro puntos de referencia.
La figura 7 muestra el sistema de referencia común SCE y el sistema de referencia vehículo SCV.
La figura 8 muestra un vehículo sobre el que se desea medir el enrase y la distancia entre dos partes del mismo.
La figura 9 esquematiza un barrido de la superficie de dos partes de un vehículo y una discontinuidad en dicha superficie definida entre dos extremos.
La figura 10 muestra una imagen en 2D de una discontinuidad entre dos partes de un vehículo y la posición de los extremos en 2D mediante coordenadas X,Y de los extremos.
La figura 11 muestra una imagen en 3D de una discontinuidad entre dos partes de un vehículo y la posición de los extremos en 3D mediante coordenadas X,Y,Z de los extremos.
Descripción de una forma de realización
Lista de referencias
1. Túnel de medición;
2. Cámaras de video;
3. Tablero de calibración;
4. Patrón de calibración: 4a - código datamatrix; 4b - marca fiducial; 4c -cuadrados; 4d - cuadrado central;
5. Estructura soporte “U” invertida para las cámaras de video;
6. Estructura soporte frontal;
7. Vehículo;
8. Transportador del vehículo;
9. Codificador de posición o “encoder”;
10. Medios de procesamiento y almacenamiento;
11. Estación total;
12. Puntos fijos de la estructura del túnel de medición;
13. Parámetros intrínsecos;
14. Parámetros extrínsecos;
15. Puntos de referencia del vehículo;
16. Sistema de referencia común -SCE-;
17. Sistema de referencia vehículo -SCV-;
18. Coordenadas 2D XY de un extremo;
19. Coordenadas 3D XYZ de un extremo;
20. Imágenes sincronizadas 2D para los extremos;
21. Imágenes 3D para los extremos;
22. Luces LED;
23. Sección a medir;
24. Extremos de una discontinuidad en una sección;
25. Escaneado de la superficie de vehículo;
A continuación se describe una forma de realización de la invención en relación con las figuras.
En la figura 1 se muestra el túnel de medición 1 de la presente invención para realizar una medición del enrase y la separación entre cualesquiera dos partes de la carrocería de un vehículo. En la figura 1 se observa el túnel de medición 1 y, en el interior del mismo, el chasis del vehículo 7 sobre el transportador 8. El transportador 8 tiene la finalidad de desplazar el vehículo 7 por el interior del túnel de medición 1. El túnel de medición 1 se compone principalmente de las cámaras de video 2 y cercanas a las mismas, las luces LED 22, todas ellas (2,22) están soportadas por la estructura soporte 5 en forma de “U” invertida y también por la estructura soporte frontal 6. Adicionalmente, el túnel de medición 1 tiene el transportador 8 de vehículos, el codificador de posición 9 y los medios de procesamiento y almacenamiento 10. Los medios de procesamiento y almacenamiento 10 son procesadores y memorias configurados para ejecutar los pasos del método descrito en la presente invención así como interconectarse con el resto de elementos que forman el túnel de medición. Por su parte, el codificador de posición 9 sirve para que el túnel de medición 1 pueda conocer en todo momento la posición del vehículo. Esto permite tomar imágenes sincronizadas como de describirá más adelante.
Antes de comenzar el proceso de medición de la distancia en 3D entre partes de un vehículo, es necesario calibrar las cámaras de video 2. La calibración de las cámaras de video 2 consiste en calcular los parámetros intrínsecos y extrínsecos de las cámaras de video.
Para calcular los parámetros intrínsecos, se sitúa un tablero de calibración 3 en el interior del túnel de medición 1 tal y como se muestra en la figura 2. Sobre la superficie del tablero de calibración 3 se sitúa el patrón de calibración 4 cuya forma se muestra en la figura 3. El patrón de calibración 4 se compone de cuadrados 4c en blanco y negro que se alternan al tresbolillo, semejante a un tablero de ajedrez. El patrón de calibración 4 comprende el código datamatrix 4a y la marca fiducial 4b dispuestos en distintos cuadrados blancos. Los medios de procesamiento y almacenamiento 10 llevan a cabo los siguientes pasos para calcular los parámetros intrínsecos: toman al menos dos imágenes del tablero de calibración 3 con el patrón de calibración 4 mediante las cámaras de video 2; decodifican el código datamatrix 4a para obtener el tamaño del cuadrado 4c, el cuadrado central 4d, el número de filas y el número de columnas del tablero de calibración 3. Con la información anterior, los medios de procesamiento y almacenamiento 10 calculan todas las uniones de los cuadrados a partir del cuadrado central, y con las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara, calculan los parámetros intrínsecos 13 que son: el centro óptico, la distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2).
Respecto de los parámetros extrínsecos, además de utilizar el tablero de calibración 3, se utiliza la estación total 11 según se muestra en la figura 4. En primer lugar, se sitúa el tablero de calibración 3 dentro del túnel de medición 1 en una posición donde sea visible por al menos una cámara de video 2. A continuación, se realiza una medición del tablero de calibración 3 mediante la estación total 11. Esto implica crear el sistema de referencia común - SCE - 15, para lo cual, se realizan mediciones iterativas de cuatro puntos de la estructura del túnel de medición 1 y doce puntos ubicados sobre el tablero de calibración 3 mediante la estación total 11. Es decir, los mismos cuatro puntos del túnel de medición 1 y doce puntos ubicados sobre el tablero de calibración 3 se miden desde distintas posiciones de la estación total 11 respecto del túnel de medición 1. Las distintas posiciones son, de forma preferida, las posiciones que recorrería un vehículo sobre el transportador 8. Dicho de otra manera, la relación entre las mediciones tomadas de los cuatro puntos fijos 12 del túnel de medición 1 y los doce puntos ubicados sobre el tablero de calibración 3 permite crear el sistema de referencia común - SCE- 15. Una vez definido el sistema de referencia común - SCE-15, hay que referenciar cada cámara de video 2 respecto del sistema de referencia común - SCE- 15 con objeto de poder determinar posteriormente las coordenadas 3D de un extremo de una parte del vehículo. Para ello, primero se calcula la relación entre el sistema de referencia común -SCE- y el tablero de calibración mediante transformación y estimación de rígidos. Posteriormente, se guarda al menos una imagen del tablero de calibración 3 por cada cámara de video 2, se calcula el sistema de coordenadas local de cada cámara de video 2 y, finalmente, se calcula la transformación del sistema de coordenadas local al sistema de referencia común -SCE-.
Una vez calibradas las cámaras de video 2 y construido el sistema de referencia común -SCE- 16, referenciando las cámaras de video al sistema de referencia común -SCE- 16, se aplica el siguiente paso consistente en calcular las coordenadas 3D por estereovisión de cuatro puntos de referencia 15 de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas X,Y,Z de cada punto de referencia como se muestra en las figuras 5 y 6. Como se muestra en la figura 5, sobre cada lateral del vehículo 7, dos cámaras de video 2 toman imágenes del punto de referencia 15 y obtienen las coordenadas 3D del punto de referencia 15 respecto del sistema de referencia común - SCE - 16. Se obtiene por tanto, las coordenadas 3D de dos puntos de referencia 15, uno por cada lado del vehículo. De forma simultánea o secuencial se calculan las coordenadas 3D de otros dos puntos de referencia 15 también a ambos lados del vehículo. Se puede realizar de forma simultánea si hay cámaras de video 2 que puedan tomar imágenes de los otros dos puntos de referencia 15 o de forma secuencial desplazando el vehículo 7 mediante el transportador 8 hasta que las dos cámaras de video 2 puedan tener acceso a los otros dos puntos de referencia 15. Las coordenadas 3D de los puntos de referencia 15 tienen un factor de corrección para eliminar el desplazamiento, para la forma secuencial, que se conoce por el codificador de posición o “encoder” 9 situado en el transportador 8. Para no tener que repetir los pasos descritos para las figuras 5 y 6 para posteriores vehículos iguales a inspeccionar por el túnel de medición 1, los medios de procesamiento y almacenamiento 10 pueden generar patrones de reconocimiento mediante un algoritmo de búsqueda vectorial por contraste.
Una vez calculadas las coordenadas 3D de cuatro puntos de referencia 16 del vehículo 7 respecto del sistema de referencia común - SCE- 16 es posible establecer una correspondencia entre las coordenadas 3D de los cuatro puntos de referencia 15 del vehículo respecto del sistema de referencia común - SCE- 16 y las coordenadas 3D de esos mismos cuatro puntos de referencia 15 del vehículo respecto del sistema de referencia vehículo - SCV - 17 (figura 7), localizando los cuatro puntos de referencia en un archivo de Diseño Asistido por Computadora - CAD - que contiene las medidas/coordenadas del vehículo en 3D. Es decir, se establece correspondencia entre cada uno de los puntos de referencia 15 calculados por las cámaras de video y los mismos puntos de referencia 15 extraídos del archivo CAD.
A continuación se analiza la superficie del vehículo 7 mediante un escaneo 25 (figura 9) de la superficie para detectar las zonas de separación (o secciones) 23 que se desean medir (figura 8). Concretamente, el método de la presente invención calcula las coordenadas 3D de los extremos 24 (figura 9) de la discontinuidad que se genera entre las distintas partes adyacentes del vehículo. Para ello, se lanzan disparos de luz mediante las luces 22, las cuales están sincronizadas con las cámaras de video 2. Los disparos de luz generan reflejo de luz en las partes que componen el vehículo y oscuridad (ausencia de reflejo de luz - ver detalle ampliado figura 10) en la separación (espacio entre los extremos 24 en la figuras 9 y 10) entre dichas partes del vehículo.
Para ello, se toman varias imágenes sincronizadas 2D 20 del vehículo 7 mediante las cámaras de video (figura 10). Las imágenes 2D se dicen que están “sincronizadas” porque para cada imagen “sincronizada”, existe una relación directa entre el identificador -ID- de la imagen, la posición espacial de la cámara de video y la posición espacial del vehículo, ya que el vehículo se encuentra sobre el transportador 8 cuya relación espacial con el túnel de medición 1 se conoce a través del codificador de posición 9. Como se muestra en la figura 10, a cada imagen sincronizada 2D 20 se le aplica un algoritmo de reconocimiento de extremos con el que los medios de procesamiento y almacenamiento pueden calcular las coordenadas X,Y 18 de cada extremo 24 en base al sistema de referencia común -SCE-, asociarlo al identificador -ID - y almacenarlo para su posterior tratamiento.
Una vez se toman varias imágenes (al menos dos) sincronizadas 2D 20 de los extremos 18, se combinan las imágines sincronizadas 2D en imágenes 3D 21 para obtener imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas X,Y,Z 19 referenciadas al sistema de referencia común -SCE-. Como se trata de calcular la distancia entre dos partes del vehículo, es decir, las distancia entre los extremos 24 sobre el propio vehículo, se calcula una transformación de las coordenadas X,Y,Z de los extremos en las imágenes 3D del sistema de referencia común -SCE- al sistema de referencia vehículo -SCV- mediante la relación ecuación:
SCV = Inversa (MR) x SCE
donde SCV es una matriz que define las coordenadas X,Y,Z referenciadas al sistema de referencia vehículo -SCV-, SCE es una matriz que define las coordenadas X,Y,Z referenciadas al sistema de referencia común -SCE-, MR es la matriz de relación que define la traslación, la rotación y la escala necesaria para pasar del sistema de referencia -SCV- al -SCE-. Con esto se obtiene las coordenadas 3D (X,Y,Z) del extremo 19 en la pintura del vehículo 7 en una imagen en 3D referenciada al sistema de referencia vehículo -SCV-.

Claims (7)

REIVINDICACIONES
1.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, caracterizado por que comprende los siguientes pasos:
• calibrar unas cámaras de video comprendidas en un túnel de medición calculando unos parámetros intrínsecos y unos parámetros extrínsecos de las cámaras de video;
• construir un sistema de referencia común -SCE- para el túnel de medición y referenciar las cámaras de video al sistema de referencia común -SCE-;
• calcular unas coordenadas 3D por estereovisión de al menos cuatro puntos de referencia de un vehículo en base al sistema de referencia común -SCE-obteniéndose las coordenadas X,Y,Z de cada punto de referencia;
• calcular las coordenadas X,Y,Z de cada punto de referencia en base a un sistema de referencia vehículo -SCV- a partir de un archivo de Diseño Asistido por Computadora -CAD- con las medidas del vehículo en 3-dimensiones;
• lanzar unos disparos, sincronizados con las cámaras de video, de al menos dos luces que generan reflejo de luz en unas partes del vehículo y ausencia de reflejo de luz en una separación entre las partes del vehículo de tal forma que la ausencia de reflejo de luz queda confinada entre unos extremos que sí generan reflejo de luz;
• tomar al menos dos imágenes sincronizadas 2D de las partes del vehículo con ausencia de reflejo mediante las cámaras de video, donde un identificador -ID-de cada imagen sincronizada 2D queda asociado con la posición espacial del vehículo respecto del túnel de medición, y aplicar un algoritmo de reconocimiento de extremos que calcula las coordenadas X,Y de cada extremo así como del identificador -ID- en base al sistema de referencia común -SCE-;
• combinar las imágines sincronizadas 2D en imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas X,Y,Z referenciadas al sistema de referencia común-SCE-;
• calcular las coordenadas X,Y,Z de los extremos en las imágenes 3D referenciadas al sistema de referencia vehículo -SCV- mediante la relación:
SCV = Inversa (MR) x SCE
donde SCV es una matriz que define las coordenadas X,Y,Z referenciadas al sistema de referencia vehículo -SCV-; MR es la matriz de relación y SCE es una matriz que define las coordenadas X,Y,Z referenciadas al sistema de referencia común -SCE-;
• calcular un enrase y una separación de las partes del vehículo como la distancia de separación entre los extremos en coordenadas X,Y,Z referenciadas al sistema de referencia vehículo -SCV-.
2. - Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calibrar las cámaras de video adicionalmente comprende los siguientes sub-pasos para calcular los parámetros intrínsecos:
• tomar al menos dos imágenes de un tablero de calibración que comprenda al menos un código datamatrix y una marca fiducial;
• decodificar el código datamatrix para obtener un tamaño del cuadrado, un número de filas y un número de columnas del tablero de calibración;
• determinar un cuadrado central del tablero de calibración en base al código datamatrix;
• calcular todas las uniones de los cuadrados partiendo del cuadrado central; • calcular un Centro Óptico, una distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2) en base a las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara.
3. - Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calibrar las cámaras de video adicionalmente comprende los siguientes sub-pasos para calcular los parámetros extrínsecos:
• situar un tablero de calibración dentro del túnel de medición en una posición donde sea visible por al menos una cámara de video;
• realizar una medición del tablero de calibración mediante una estación total, para lo cual:
o medir cuatro puntos fijos sobre la estructura del túnel de medición mediante la estación total;
o estacionar iterativamente la estación total obteniendo un sistema de referencia común -SCE- con respecto a un transportador de vehículos por el interior del túnel del inspección;
o medir con la estación total en el sistema de referencia común -SCE- al menos doce puntos auxiliares ubicados sobre el tablero de calibración; • calcular la relación entre el sistema de referencia común -SCE- y el tablero de calibración utilizando transformación y estimación de rígidos;
• guardar al menos una imagen del tablero de calibración por cada cámara de video;
• calcular un sistema de coordenadas local de cada cámara de video y calcular la transformación del sistema de coordenadas local al sistema de referencia común -SCE- .
4. - Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calcular las coordenadas 3D por estereovisión adicionalmente comprende los siguientes sub­ pasos:
• elegir dos cámaras de video por lateral del vehículo que tengan acceso visual a los cuatro puntos de referencia que van a ser medidos;
• elegir los puntos de referencia a calcular sobre el vehículo teniendo en cuenta el desplazamiento sincronizado del vehículo sobre un transportador respecto del túnel de medición;
• generar patrones de reconocimiento para el reconocimiento de posteriores vehículos iguales mediante un algoritmo de búsqueda vectorial por contraste.
5. - Túnel de medición de enrase y separación de partes de un vehículo, donde el túnel de medición (1) está caracterizado por que comprende:
• cámaras de video (2) para tomar imágenes de un vehículo (7);
• un transportador (8) que desplaza linealmente el vehículo (7) y atraviesa longitudinalmente el túnel de medición (1);
• un codificador de posición (9) que mide el desplazamiento del vehículo (7);
• una estación total (11) que mide unos puntos fijos de la estructura del túnel de medición (12);
• un tablero de calibración (3) sobre el que se sitúa un patrón de calibración (4);
• al menos dos luces (22) sincronizadas con las cámaras de video (2);
• unos medios de procesamiento y almacenamiento (10) que almacenan al menos unas imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora - CAD - de los vehículos y un algoritmo de reconocimiento de extremos; estando conectados a las luces (22), cámaras de video (2), transportador (8) y codificador de posición (9); y donde los medios de procesamiento y almacenamiento están adaptados para ejecutar los pasos del método de una cualquiera de las reivindicaciones 1 a 4.
6. Túnel de medición de enrase y separación de partes de un vehículo según la reivindicación 5, caracterizado por que el patrón de calibración (4) está formado cuadrados (4c) dispuestos al tresbolillo; y donde adicionalmente comprende un código datamatrix (4a) y una marca fiducial (4b).
7. Túnel de medición de enrase y separación de partes de un vehículo según la reivindicación 5, caracterizado por que el túnel de medición (1) adicionalmente comprende una estructura soporte (5) en forma de “U” invertida y una estructura soporte frontal (6) para sustentar las cámaras de visión (2) y las luces (22) en el interior del túnel de medición (1).
ES201930936A 2019-10-23 2019-10-23 Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion Active ES2821104B2 (es)

Priority Applications (8)

Application Number Priority Date Filing Date Title
ES201930936A ES2821104B2 (es) 2019-10-23 2019-10-23 Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion
PCT/ES2020/070488 WO2021079018A1 (es) 2019-10-23 2020-07-28 Método de medición de enrase y separación de partes de un vehículo y túnel de medición
EP20879248.1A EP4049920A4 (en) 2019-10-23 2020-07-28 METHOD OF MEASUREMENT OF FLATNESS AND DISTANCE OF VEHICLE PARTS AND MEASURING TUNNEL
KR1020227006606A KR102639910B1 (ko) 2019-10-23 2020-07-28 차량 부품의 갭 및 플러시의 측정 방법 및 측정 터널
JP2022506341A JP7373053B2 (ja) 2019-10-23 2020-07-28 車両部品のギャップ・フラッシュ測定方法及び測定用トンネル
US17/764,333 US11953310B2 (en) 2019-10-23 2020-07-28 Method for measuring gap and flush of vehicle parts and measuring tunnel
CN202080068189.1A CN114502456A (zh) 2019-10-23 2020-07-28 用于测量车辆零件的空隙和齐平度的方法以及测量隧道
TW109128023A TW202134098A (zh) 2019-10-23 2020-08-18 用於量測車輛零件之間隙及齊平度之方法及量測隧道

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201930936A ES2821104B2 (es) 2019-10-23 2019-10-23 Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion

Publications (2)

Publication Number Publication Date
ES2821104A1 true ES2821104A1 (es) 2021-04-23
ES2821104B2 ES2821104B2 (es) 2021-08-23

Family

ID=75538890

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201930936A Active ES2821104B2 (es) 2019-10-23 2019-10-23 Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion

Country Status (8)

Country Link
US (1) US11953310B2 (es)
EP (1) EP4049920A4 (es)
JP (1) JP7373053B2 (es)
KR (1) KR102639910B1 (es)
CN (1) CN114502456A (es)
ES (1) ES2821104B2 (es)
TW (1) TW202134098A (es)
WO (1) WO2021079018A1 (es)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313695A (en) * 1989-03-28 1994-05-24 Renault Automation Process and device for body assembly with lateral tools that can be interpositioned
GB2375741A (en) * 1999-12-28 2002-11-27 Honda Motor Co Ltd Production line construction method body assembly method and body assembly line
US20040221438A1 (en) * 2003-05-05 2004-11-11 Savoy Mark A. Assembly line and method for vehicle body manufacturing
US20190017847A1 (en) * 2017-07-12 2019-01-17 Hyundai Motor Company Vehicle body tracking system and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19910699B4 (de) * 1999-03-10 2006-04-27 Inos Automationssoftware Gmbh Anordnung zum Messen der Breite eines Spalts, Spaltmessanordnung und Messverfahren
JP4974489B2 (ja) * 2005-07-27 2012-07-11 トヨタ自動車株式会社 組付け精度計測システム
FR2922639B1 (fr) * 2007-10-23 2009-12-11 Peugeot Citroen Automobiles Sa Procede et dispositif de mesure de jeu et d'affleurement entre des pieces fixees sur un ensemble en l'absence de l'une d'elles
FR2928453B1 (fr) * 2008-03-06 2011-01-07 Peugeot Citroen Automobiles Sa Systeme de mesure de jeux et d'affleurements et procede correspondant
FR2941043B1 (fr) 2009-01-14 2010-12-31 Peugeot Citroen Automobiles Sa Procede de mesure de jeux et affleurements
US8872897B2 (en) * 2011-05-11 2014-10-28 Intel Corporation Camera calibration using an easily produced 3D calibration pattern
EP2530647A1 (en) * 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
CN103685936A (zh) * 2012-09-25 2014-03-26 通用汽车环球科技运作有限责任公司 宽视场摄像机图像的校准和扭曲恢复
CN107765257A (zh) * 2017-11-16 2018-03-06 深圳市唯特视科技有限公司 一种基于反射强度辅助外部校准的激光探测与测量方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313695A (en) * 1989-03-28 1994-05-24 Renault Automation Process and device for body assembly with lateral tools that can be interpositioned
GB2375741A (en) * 1999-12-28 2002-11-27 Honda Motor Co Ltd Production line construction method body assembly method and body assembly line
US20040221438A1 (en) * 2003-05-05 2004-11-11 Savoy Mark A. Assembly line and method for vehicle body manufacturing
US20190017847A1 (en) * 2017-07-12 2019-01-17 Hyundai Motor Company Vehicle body tracking system and method

Also Published As

Publication number Publication date
CN114502456A (zh) 2022-05-13
WO2021079018A1 (es) 2021-04-29
TW202134098A (zh) 2021-09-16
KR102639910B1 (ko) 2024-02-23
JP2022553597A (ja) 2022-12-26
EP4049920A4 (en) 2022-12-28
JP7373053B2 (ja) 2023-11-01
EP4049920A1 (en) 2022-08-31
US11953310B2 (en) 2024-04-09
ES2821104B2 (es) 2021-08-23
KR20220075309A (ko) 2022-06-08
US20220333914A1 (en) 2022-10-20

Similar Documents

Publication Publication Date Title
ES2326035T3 (es) Procedimiento optico de determinacion de una dimension o la orientacion de un objeto movil.
CN107167790B (zh) 一种基于标定场的激光雷达两步标定方法
ES2711651T3 (es) Procedimiento para determinar las coordenadas 3D de un objeto y para calibrar un robot industrial
ES2348902T3 (es) Procedidmiento y sistema para la medicion de la forma de una superficie reflejante.
CN108802043B (zh) 隧道检测装置、检测系统及隧道病害信息提取方法
CN103837084B (zh) 基于激光光斑成像技术的三向位移量测方法
CN108444449B (zh) 一种对具有平行线特征的目标空间姿态测量方法
BR112015013804B1 (pt) sistema de medição para medição tridimensional de uma estrutura submarina, método para a triangulação a laser de uma estrutura submarina e meio legível por computador não transitório codificado com instruções
US20140268178A1 (en) System and method of acquiring three dimensional coordinates using multiple coordinate measurement devices
CN103149560B (zh) Ccd成像侧向激光雷达的标定方法
CN105627948A (zh) 一种大型复杂曲面测量系统及其应用
US20130271573A1 (en) Method and apparatus for determining the 3d coordinates of an object
CN103759669A (zh) 一种大型零件的单目视觉测量方法
CN106091983A (zh) 包含扫描方向信息的线结构光视觉测量系统完整标定方法
Hui et al. A novel line scan camera calibration technique with an auxiliary frame camera
ES2681094B1 (es) Sistema y metodo para la identificacion volumetrica e isotopica de distribuciones de escenas radioactivas
ES2788479T3 (es) Sistema y método para medir un desplazamiento de una plataforma móvil
ES2894935T3 (es) Aparato de medición de distancias tridimensionales y procedimiento para el mismo
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
CN116051659A (zh) 一种线阵相机与2d激光扫描仪联合标定方法
ES2821104B2 (es) Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion
Wang et al. Novel camera calibration based on cooperative target in attitude measurement
ES2436660T3 (es) Dispositivo de medición y representación de las fuentes de ruido en el interior de un espacio
Gao et al. A monocular vision and inclinometer combined system for 6DOF measurement of double shield TBM
WO2021019111A1 (es) Método de inspección de defectos en la pintura de un vehículo y túnel de inspección

Legal Events

Date Code Title Description
BA2A Patent application published

Ref document number: 2821104

Country of ref document: ES

Kind code of ref document: A1

Effective date: 20210423

FG2A Definitive protection

Ref document number: 2821104

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20210823