WO2021079018A1 - Método de medición de enrase y separación de partes de un vehículo y túnel de medición - Google Patents

Método de medición de enrase y separación de partes de un vehículo y túnel de medición Download PDF

Info

Publication number
WO2021079018A1
WO2021079018A1 PCT/ES2020/070488 ES2020070488W WO2021079018A1 WO 2021079018 A1 WO2021079018 A1 WO 2021079018A1 ES 2020070488 W ES2020070488 W ES 2020070488W WO 2021079018 A1 WO2021079018 A1 WO 2021079018A1
Authority
WO
WIPO (PCT)
Prior art keywords
vehicle
tunnel
sce
video cameras
measurement
Prior art date
Application number
PCT/ES2020/070488
Other languages
English (en)
French (fr)
Inventor
Jesús BELDA PLA
Jorge Broto Ruiz
José ARRIBAS LOZANO
María José ESTEVE CUBEL
Original Assignee
Eines Systems, S.L.U.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eines Systems, S.L.U. filed Critical Eines Systems, S.L.U.
Priority to EP20879248.1A priority Critical patent/EP4049920A4/en
Priority to US17/764,333 priority patent/US11953310B2/en
Priority to CN202080068189.1A priority patent/CN114502456A/zh
Priority to JP2022506341A priority patent/JP7373053B2/ja
Priority to KR1020227006606A priority patent/KR102639910B1/ko
Publication of WO2021079018A1 publication Critical patent/WO2021079018A1/es

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/005Inspection and final control devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D65/00Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
    • B62D65/02Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
    • B62D65/024Positioning of sub-units or components with respect to body shell or other sub-units or components
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/03Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/14Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B5/00Measuring arrangements characterised by the use of mechanical techniques
    • G01B5/0025Measuring of vehicle parts
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B7/00Measuring arrangements characterised by the use of electric or magnetic techniques
    • G01B7/14Measuring arrangements characterised by the use of electric or magnetic techniques for measuring distance or clearance between spaced objects or spaced apertures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30156Vehicle coating
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior

Definitions

  • the object of the invention is a method for measuring the leveling and the separation of parts of a vehicle and a measuring tunnel equipped with the necessary means to carry out the measurement of the leveling and the separation of parts of a vehicle.
  • the aim is to automate the process of measuring the leveling and the separation that the different parts of a vehicle present with respect to those that surround them.
  • a vehicle door has a perimeter edge that has to be flush with the parts of the vehicle that surround the door, such as other doors, wings, etc.
  • the door has to have a specific separation within very narrow margins so that the opening and closing movement of the door is correct.
  • the technical field to which the present invention belongs is the field of measurement devices and methods applied to the surfaces of a vehicle without contact with it.
  • the present invention discloses a method of measuring flush and separation of vehicle parts and a tunnel for measuring flush and separation of vehicle parts.
  • the measurement tunnel for leveling and separation of vehicle parts.
  • the measurement tunnel comprises: video cameras to take images of a vehicle; a conveyor that linearly moves the vehicle and longitudinally traverses the measuring tunnel; a position encoder that measures the displacement of the vehicle; a total station that measures fixed points of the structure of the measurement tunnel in 3D with precision; a calibration board on which a calibration standard is placed; at least two lights synchronized with the video cameras; and, processing and storage means that store at least some images taken by the video cameras, some Computer Aided Design - CAD - files of the vehicles and an endpoint recognition algorithm.
  • the processing and storage means are connected to the lights, the video cameras, the conveyor and the position encoder.
  • the processing and storage means are adapted to carry out the steps of the method of measurement of leveling and separation of parts of a vehicle that are defined later in the second aspect of the invention.
  • the position encoder or "encoder” is a pulse generator, which is connected to the shaft of a motor that moves the conveyor and generates pulses while the motor is turning.
  • the position encoder serves to measure the advancement of the vehicle along the transport as the pulses are translated into a measure of length.
  • the calibration standard is made up of squares arranged in a staggered fashion. Additionally, the calibration standard comprises a data matrix code and a fiducial mark.
  • the data matrix code and the fiducial mark contain information related to the calibration pattern such as number of rows and columns, location of the central square, size of the squares, colors of the squares, etc.
  • the squares are black and white because they have better contrast when you have to determine their junction points.
  • the measurement tunnel additionally comprises an inverted "U" shaped support structure and a front support structure to support the lights, the vision cameras inside the measurement tunnel.
  • These light and video camera mounts have the advantage of positioning the video cameras in such a way that a full scan of the vehicle within the measurement tunnel can be performed.
  • the lights have a minimum length of 400mm. Additionally or optionally, the lights have LED technology.
  • the method of measuring the leveling and separation of parts of a vehicle associated with the measuring tunnel of the first aspect of the invention comprises the following steps:
  • SCV Inverse (MR) x SCE
  • SCV is a matrix that defines the C, U, Z coordinates referenced to the vehicle reference system -SCV-
  • SCE is a matrix that defines the C, U, Z coordinates referenced to the common reference system -SCE-
  • MR is the relationship matrix between both reference systems and that defines the translation, rotation and scale necessary to go from a system to another reference;
  • the video camera calibration process described in the video camera calibration step involves calculating the intrinsic and extrinsic parameters.
  • To calculate the intrinsic parameters the following sub-steps are carried out:
  • the measurement method for leveling and separation of vehicle parts comprises the following sub-steps:
  • the next step is to calculate the 3D coordinates by stereovision of four reference points. of a vehicle based on the common reference system -SCE- obtaining the coordinates C, U, Z of each reference point.
  • the following steps are carried out:
  • recognition patterns can be generated for the recognition of subsequent identical vehicles by means of a vector search algorithm by contrast.
  • Figure 1 shows the measurement tunnel for leveling and separation of parts of a vehicle and a vehicle inside.
  • Figure 2 shows the measurement tunnel of the present invention where the calibration board has been located internally.
  • Figure 3 shows the calibration standard on the calibration board.
  • Figure 4 shows the total station taking 3D coordinates of four fixed points of the measurement tunnel.
  • Figure 5 shows the calculation of four vehicle reference points using video cameras.
  • Figure 6 shows a vehicle in perspective where four reference points are indicated.
  • FIG. 7 shows the common reference system SCE and the vehicle reference system SCV.
  • Figure 8 shows a vehicle on which it is desired to measure the flush and the distance between two parts of it.
  • Figure 9 schematizes a sweep of the surface of two parts of a vehicle and a discontinuity in said surface defined between two extremes.
  • Figure 10 shows a 2D image of a discontinuity between two parts of a vehicle and the position of the ends in 2D by X, Y coordinates of the ends.
  • Figure 11 shows a 3D image of a discontinuity between two parts of a vehicle and the position of the ends in 3D by C, U, Z coordinates of the ends.
  • Vehicle reference system -SCV- 18. 2D XY coordinates of one end;
  • FIG 1 the measurement tunnel 1 of the present invention is shown to perform a measurement of the flush and the separation between any two parts of the body of a vehicle.
  • Figure 1 shows the measuring tunnel 1 and, inside it, the chassis of the vehicle 7 on the conveyor 8.
  • the purpose of the conveyor 8 is to move the vehicle 7 through the interior of the measuring tunnel 1.
  • the measuring tunnel 1 is mainly composed of video cameras 2 and close to them, LED lights 22, all of them (2,22) are supported by the support structure 5 in the shape of an inverted "U" and also by the structure front support 6. Additionally, the measuring tunnel 1 has the vehicle conveyor 8, the position encoder 9 and the processing and storage means 10.
  • the processing and storage means 10 are processors and memories configured to execute the steps of the method.
  • the position encoder 9 serves so that the measurement tunnel 1 can know the position of the vehicle at all times. This allows synchronized images to be taken as will be described later.
  • the calibration of the video cameras 2 consists of calculating the intrinsic and extrinsic parameters of the video cameras.
  • a calibration board 3 is placed on the inside the measuring tunnel 1 as shown in figure 2.
  • the calibration standard 4 On the surface of the calibration table 3 is located the calibration standard 4 whose shape is shown in figure 3.
  • the calibration standard 4 is made up of squares 4c in black and white that alternate in a staggered fashion, similar to a chessboard.
  • the calibration pattern 4 comprises the data matrix code 4a and the fiducial mark 4b arranged in different white squares.
  • the processing and storage means 10 carry out the following steps to calculate the intrinsic parameters: they take at least two images of the calibration board 3 with the calibration standard 4 by the video cameras 2; decode the data matrix code 4a to obtain the size of the square 4c, the central square 4d, the number of rows and the number of columns of the calibration board 3.
  • the processing and storage means 10 calculate all the unions of the squares from the central square, and with the unions of the squares, the size of the optics included in the video cameras and the cell size of the camera's CCD, calculate the intrinsic parameters 13 which are: the optical center, the focal length, at least six Radial distortion parameters (K1-K6) and at least two tangential distortion parameters (P1, P2).
  • the total station 11 is used as shown in figure 4.
  • the calibration board 3 is placed inside the measuring tunnel 1 in a position where is visible by at least one video camera 2.
  • a measurement of the calibration board 3 is made by the total station 11. This involves creating the common reference system - SCE-15, for which, iterative measurements are made of four points of the structure of the measurement tunnel 1 and twelve points located on the calibration table 3 by means of the total station 11. That is, the same four points of the measurement tunnel 1 and twelve points located on the calibration table 3 are They measure from different positions of the total station 11 with respect to the measurement tunnel 1.
  • the different positions are, preferably, the positions that a vehicle would travel on the conveyor 8.
  • the relationship between the measurements taken from the four fixed points 12 of the measurement tunnel 1 and the twelve points located on the calibration board 3 allows creating the common reference system - SCE-15.
  • each video camera 2 must be referenced with respect to the common reference system - SCE-15 in order to subsequently determine the 3D coordinates from one end of a part of the vehicle.
  • the relationship between the common reference system -SCE- and the calibration board is calculated by transformation and estimation of rigid ones.
  • at least one image of the calibration board 3 is saved for each video camera 2, the local coordinate system of each video camera 2 is calculated and, finally, the transformation from the local coordinate system to the reference system is calculated common -SCE-.
  • the next step is applied consisting of calculating the 3D coordinates by stereovision of four reference points 15 of a vehicle based on the common reference system -SCE- obtaining the coordinates C, U, Z of each reference point as shown in figures 5 and 6.
  • two video cameras 2 take images of the reference point 15 and obtain the 3D coordinates of the reference point 15 with respect to the common reference system - SCE - 16. Therefore, the 3D coordinates of two reference points are obtained. reference 15, one for each side of the vehicle.
  • the 3D coordinates of two other reference points 15 are also calculated on both sides of the vehicle. It can be done simultaneously if there are video cameras 2 that can take images of the other two reference points 15 or sequentially moving the vehicle 7 through the conveyor 8 until the two video cameras 2 can have access to the others.
  • the 3D coordinates of the reference points 15 have a correction factor to eliminate the offset, for the sequential form, which is known from the position encoder or "encoder" 9 located on the conveyor 8.
  • the processing and storage means 10 can generate recognition patterns by means of a contrast vector search algorithm.
  • the surface of the vehicle 7 is then analyzed by scanning the surface 25 (FIG. 9) to detect the separation zones (or sections) 23 to be measured (FIG. 8).
  • the method of the present invention calculates the 3D coordinates of the ends 24 (figure 9) of the discontinuity that is generated between the different adjacent parts of the vehicle.
  • light shots are fired through lights 22, which are synchronized with the video cameras 2.
  • the light shots generate light reflection in the parts that make up the vehicle and darkness (absence of light reflection - see detail enlarged figure 10) in the separation (space between the ends 24 in figures 9 and 10) between said parts of the vehicle.
  • each 2D synchronized image 20 is applied an end recognition algorithm with which the processing and storage means can calculate the X, Y coordinates 18 of each end 24 based on the common reference system -SCE-, associate it with the identifier - ID - and store it for later treatment.
  • the 2D synchronized images 20 of the ends 18 are taken, the 2D synchronized images are combined into 3D images 21 to obtain 3D images where the ends in the 3D images have coordinates C, U, Z 19 referenced to the common reference system -SCE-. Since it is a matter of calculating the distance between two parts of the vehicle, that is, the distance between the extremes 24 on the vehicle itself, a transformation of the coordinates C, U, Z of the ends in the 3D images of the common reference system -SCE- to the vehicle reference system -SCV- through the relation equation:
  • SCV Inverse (MR) x SCE
  • SCV is a matrix that defines the C, U, Z coordinates referenced to the vehicle reference system -SCV-
  • SCE is a matrix that defines the C, U, Z coordinates referenced to the reference system common -SCE-
  • MR is the relationship matrix that defines the translation, rotation and scale necessary to go from the -SCV- to -SCE- reference system.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Manufacturing & Machinery (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Optics & Photonics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Se divulga un método que es capaz de medir el enrase y la separación de partes de un vehículo mediante un túnel de medición. El método es capaz de determinar las coordenadas en 3D de los extremos o bordes de dos partes adyacentes de un vehículo. El túnel de medición (1) comprende varias cámaras de video (2), luces LED (22), un transportador (8), un codificador de posición (9) que mide el desplazamiento del vehículo (7); una estación total (11) que mide unos puntos fijos de la estructura del túnel de medición (12), un tablero de calibración (3) y un patrón de calibración (4); unos medios de procesamiento y almacenamiento (10) que almacenan imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora de los vehículos y un algoritmo de reconocimiento de extremos.

Description

MÉTODO DE MEDICIÓN DE ENRASE Y SEPARACIÓN DE PARTES DE UN VEHÍCULO Y TÚNEL DE MEDICIÓN
DESCRIPCIÓN
Objeto de la invención
El objeto de la invención es un método de medición del enrase y la separación de partes de un vehículo y un túnel de medición dotado de los medios necesarios para llevar a cabo la medición del enrase y la separación de partes de un vehículo.
Mediante el método de la presente invención se trata de automatizar el proceso de medición del enrase y la separación que presentan las diferentes partes de un vehículo respecto de las que les rodean. Por ejemplo, una puerta de un vehículo tiene un borde perimetral que tiene que estar enrasado con las partes del vehículo que rodean a la puerta como pueden ser otras puertas, aletas, etc. Además, la puerta tiene que tener una separación concreta dentro de unos márgenes muy estrechos para que el movimiento de apertura y cierra de la puerta sea correcto.
Campo Técnico de la Invención
El campo técnico al que pertenece la presente invención es el campo de los dispositivos y métodos de medición aplicados a las superficies de un vehículo sin contacto con el mismo.
Antecedentes de la Invención
Actualmente, los sistemas de medición de “Enrase y Separación” conocidos en inglés como “Flush & Gap” son sistemas automáticos que suelen utilizar Robots con un sensor 3D embarcado para realizar las mediciones (sobre todo en montaje final). Existen sistemas con sensores fijos, pero no tienen la precisión suficiente. También existen sistemas manuales donde un operario con un dispositivo portátil va posicionando el medidor sobre los puntos de la carrocería del vehículo que se desea medir realizando movimientos oscilatorios para medir el enrasado.
Los sistemas donde intervienen operarios son lentos ya que un mismo operario se debe de trasladar a uno y otro lado del vehículo y además posicionar el dispositivo medidor sobre la carrocería puede afectar a la pintura del vehículo. En cuanto a los sistemas de medición basados en robots, estos sistemas presentan los inconvenientes tales como: son costosos de instalar por el alto coste de los robots, las seguridades, etc.; difíciles de configurar para usuarios no expertos en robots como suelen ser los operarios de montaje final; alto coste de mantenimiento; poco flexibles a cambios, ya que al añadir o eliminar nuevos puntos, hay que reprogramar los robots; número de secciones a medir acotadas, es decir, hay un número máximo de secciones posibles, ya que hay una fuerte dependencia de la velocidad de los robots, los cuales tienen un límite físico.
Sería deseable, por tanto, encontrar una solución completamente automatizada al problema de calcular la distancia y el enrase de las partes que componen un vehículo.
Descripción de la Invención
La presente invención divulga un método de medición de enrase y separación de partes de un vehículo y un túnel de medición de enrase y separación de partes de un vehículo.
En un primer aspecto de la invención se divulga el túnel de medición de enrase y separación de partes de un vehículo. El túnel de medición comprende: cámaras de video para tomar imágenes de un vehículo; un transportador que desplaza linealmente el vehículo y atraviesa longitudinalmente el túnel de medición; un codificador de posición que mide el desplazamiento del vehículo; una estación total que mide unos puntos fijos de la estructura del túnel de medición en 3D con precisión; un tablero de calibración sobre el que se sitúa un patrón de calibración; al menos dos luces sincronizadas con las cámaras de vídeo; y, unos medios de procesamiento y almacenamiento que almacenan al menos unas imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora - CAD - de los vehículos y un algoritmo de reconocimiento de extremos. Además, los medios de procesamiento y almacenamiento están conectados a las luces, a las cámaras de video, al transportador y al codificador de posición. Finalmente, los medios de procesamiento y almacenamiento están adaptados para ejecutar los pasos del método de medición de enrase y separación de partes de un vehículo que se definen posteriormente en el segundo aspecto de la invención. Puntualizar que el codificador de posición o “encoder” es un generador de pulsos, el cual se conecta al eje de un motor que mueve el transportador y genera pulsos mientras el motor va girando. En la presente invención, el codificador de posición sirve para medir el avance del vehículo a lo largo del transporte ya que los pulsos se traducen en medida de longitud.
En una forma de realización del túnel de medición, el patrón de calibración está formado por cuadrados dispuestos al tresbolillo. Adicionalmente, el patrón de calibración comprende un código datamatrix y una marca fiducial. El código datamatrix y la marca fiducial contienen información relativa al patrón de calibración como numero de filas y columnas, situación del cuadrado central, tamaño de los cuadrados, colores de los cuadrados, etc. De forma preferida, los cuadrados son blancos y negros porque tienen mejor contraste al tener que determinar sus puntos de unión.
En otra forma de realización del túnel de medición, el túnel de medición adicionalmente comprende una estructura soporte en forma de “U” invertida y una estructura soporte frontal para sustentar las luces, las cámaras de visión en el interior del túnel de medición. Estos soportes para las luces y las cámaras de video tienen la ventaja de situar las cámaras de video de tal forma que se puede realizar un escaneo completo del vehículo que se encuentre en el interior del túnel de medición.
En otra forma de realización del túnel de medición, las luces tienen una longitud mínima de 400mm. Adicionalmente u opcionalmente, las luces tienen tecnología LED.
En un segundo aspecto de la invención se divulga el método de medición de enrase y separación de partes de un vehículo asociado al túnel de medición del primer aspecto de la invención. El método de medición de enrase y separación de partes de un vehículo comprende los siguientes pasos:
• calibrar las cámaras de video comprendidas en el túnel de medición calculando los parámetros intrínsecos y los parámetros extrínsecos de las cámaras de video;
• construir un sistema de referencia común -SCE- para el túnel de medición y referenciar las cámaras de video al sistema de referencia común -SCE-;
• calcular unas coordenadas 3D por estereovisión de al menos cuatro puntos de referencia del vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia;
• calcular las coordenadas C,U,Z de cada punto de referencia en base a un sistema de referencia vehículo -SCV- a partir de un archivo de Diseño Asistido por Computadora - CAD - con las medidas del vehículo en 3-dimensiones;
• lanzar unos disparos, sincronizados con las cámaras de video, de al menos dos luces que generan reflejo de luz en unas partes del vehículo y ausencia de reflejo de luz en una separación entre las partes del vehículo de tal forma que la ausencia de reflejo de luz queda confinada entre unos extremos que sí generan reflejo de luz;
• tomar al menos dos imágenes sincronizadas 2D de las partes del vehículo con ausencia de reflejo mediante las cámaras de video, donde un identificador -ID- de cada imagen sincronizada 2D queda asociado con la posición espacial del vehículo respecto del túnel de medición, y aplicar un algoritmo de reconocimiento de extremos que calcula las coordenadas X,Y de cada extremo así como del identificador -ID- en base al sistema de referencia común -SCE-;
• combinar las imágines sincronizadas 2D en imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas C,U,Z referenciadas al sistema de referencia común-SCE-;
• calcular las coordenadas C,U,Z de los extremos en las imágenes 3D referenciadas al sistema de referencia vehículo -SCV- mediante la relación:
SCV = Inversa (MR) x SCE donde SCV es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-; SCE es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia común -SCE- y MR es la matriz de relación entre ambos sistemas de referencia y que define la traslación, rotación y escala necesarios para pasar de un sistema a otro de referencia;
• calcular un enrase y una separación de las partes del vehículo como la distancia de separación entre los extremos en coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-.
Como ejemplo de lo anterior, si se desea medir la distancia de la puerta delantera de un vehículo a la correspondiente aleta del vehículo, hay una “sección” (recta) determinada por el último punto de la puerta que genera reflejo de luz al ser iluminada por las luces, que será un extremo de la sección, y por el último punto de la aleta que genera reflejo de luz al ser iluminada por las luces, que será el otro extremo de la sección. La parte entre los extremos no genera reflejo de luz y representa la distancia en 3-dimensiones (enrase y separación) entre las partes (puerta y aleta) del vehículo.
El proceso de calibración de las cámaras de video descrito en el paso de calibración de las cámaras de video conlleva el cálculo de los parámetros intrínsecos y extrínsecos. Para calcular los parámetros intrínsecos se llevan a cabo los siguientes sub-pasos:
• tomar al menos dos imágenes del tablero de calibración que comprenda al menos el código datamatrix y la marca fiducial;
• decodificar el código datamatrix para obtener el tamaño del cuadrado, el número de filas y el número de columnas del tablero de calibración;
• determinar el cuadrado central del tablero de calibración en base al código datamatrix;
• calcular todas las uniones de los cuadrados partiendo del cuadrado central;
• calcular el Centro Óptico, la distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2) en base a las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara de video.
Por otro lado, para calcular los parámetros extrínsecos, el método de medición de enrase y separación de partes de un vehículo comprende los siguientes sub-pasos:
• situar el tablero de calibración dentro del túnel de medición en una posición donde sea visible por al menos una cámara de video;
• realizar una medición del tablero de calibración mediante la estación total, para lo cual: o medir cuatro puntos fijos sobre la estructura del túnel de medición mediante la estación total; o estacionar iterativamente la estación total obteniendo el sistema de referencia común - SCE - con respecto a un transportador de vehículos por el interior del túnel del inspección; o medir con la estación total en el sistema de referencia común - SCE - al menos doce puntos auxiliares ubicados sobre el tablero de calibración; • calcular la relación entre el sistema de referencia común - SCE - y el tablero de calibración utilizando transformación y estimación de rígidos;
• guardar al menos una imagen del tablero de calibración por cada cámara de video;
• calcular un sistema de coordenadas local de cada cámara de video y calcular la transformación del sistema de coordenadas local al sistema de referencia común -SCE- .
Una vez calibradas las cámaras de video y construido el sistema de referencia común -SCE-, referenciando las cámaras de video al sistema de referencia común -SCE-, se aplica el siguiente paso consistente en calcular las coordenadas 3D por estereovisión de cuatro puntos de referencia de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia. Para calcular las coordenadas 3D por estereovisión de los cuatro puntos de referencia de un vehículo, se llevan a cabo los siguientes pasos:
• elegir dos cámaras de video por lateral del vehículo que tengan acceso visual a los cuatro puntos de referencia que van a ser medidos;
• elegir los puntos de referencia a calcular sobre el vehículo teniendo en cuenta el desplazamiento sincronizado del vehículo sobre el transportador respecto del túnel de medición.
Opcional y adicionalmente a los dos pasos anteriores, se pueden generar patrones de reconocimiento para el reconocimiento de posteriores vehículos iguales mediante un algoritmo de búsqueda vectorial por contraste.
Breve descripción de las Figuras
La figura 1 muestra el túnel de medición de enrase y separación de partes de un vehículo y un vehículo en su interior.
La figura 2 muestra el túnel de medición de la presente invención en donde se ha situado interiormente el tablero de calibración.
La figura 3 muestra el patrón de calibración que porta el tablero de calibración.
La figura 4 muestra la estación total tomando coordenadas 3D de cuatro puntos fijos del túnel de medición.
La figura 5 muestra el cálculo de cuatro puntos de referencia del vehículo mediante las cámaras de video. La figura 6 muestra un vehículo en perspectiva donde se indican cuatro puntos de referencia.
La figura 7 muestra el sistema de referencia común SCE y el sistema de referencia vehículo SCV.
La figura 8 muestra un vehículo sobre el que se desea medir el enrase y la distancia entre dos partes del mismo.
La figura 9 esquematiza un barrido de la superficie de dos partes de un vehículo y una discontinuidad en dicha superficie definida entre dos extremos.
La figura 10 muestra una imagen en 2D de una discontinuidad entre dos partes de un vehículo y la posición de los extremos en 2D mediante coordenadas X,Y de los extremos.
La figura 11 muestra una imagen en 3D de una discontinuidad entre dos partes de un vehículo y la posición de los extremos en 3D mediante coordenadas C,U,Z de los extremos.
Descripción de una forma de realización
Lista de referencias
1. Túnel de medición;
2. Cámaras de video;
3. Tablero de calibración;
4. Patrón de calibración: 4a - código datamatrix; 4b - marca fiducial; 4c - cuadrados; 4d - cuadrado central;
5. Estructura soporte “U” invertida para las cámaras de video;
6. Estructura soporte frontal;
7. Vehículo;
8. Transportador del vehículo;
9. Codificador de posición o “encoder”;
10. Medios de procesamiento y almacenamiento;
11. Estación total;
12. Puntos fijos de la estructura del túnel de medición;
13. Parámetros intrínsecos;
14. Parámetros extrínsecos;
15. Puntos de referencia del vehículo;
16. Sistema de referencia común -SCE-;
17. Sistema de referencia vehículo -SCV-; 18. Coordenadas 2D XY de un extremo;
19. Coordenadas 3D XYZ de un extremo;
20. Imágenes sincronizadas 2D para los extremos;
21. Imágenes 3D para los extremos;
22. Luces LED;
23. Sección a medir;
24. Extremos de una discontinuidad en una sección;
25. Escaneado de la superficie de vehículo;
A continuación se describe una forma de realización de la invención en relación con las figuras.
En la figura 1 se muestra el túnel de medición 1 de la presente invención para realizar una medición del enrase y la separación entre cualesquiera dos partes de la carrocería de un vehículo. En la figura 1 se observa el túnel de medición 1 y, en el interior del mismo, el chasis del vehículo 7 sobre el transportador 8. El transportador 8 tiene la finalidad de desplazar el vehículo 7 por el interior del túnel de medición 1. El túnel de medición 1 se compone principalmente de las cámaras de video 2 y cercanas a las mismas, las luces LED 22, todas ellas (2,22) están soportadas por la estructura soporte 5 en forma de “U” invertida y también por la estructura soporte frontal 6. Adicionalmente, el túnel de medición 1 tiene el transportador 8 de vehículos, el codificador de posición 9 y los medios de procesamiento y almacenamiento 10. Los medios de procesamiento y almacenamiento 10 son procesadores y memorias configurados para ejecutar los pasos del método descrito en la presente invención así como interconectarse con el resto de elementos que forman el túnel de medición. Por su parte, el codificador de posición 9 sirve para que el túnel de medición 1 pueda conocer en todo momento la posición del vehículo. Esto permite tomar imágenes sincronizadas como de describirá más adelante.
Antes de comenzar el proceso de medición de la distancia en 3D entre partes de un vehículo, es necesario calibrar las cámaras de video 2. La calibración de las cámaras de video 2 consiste en calcular los parámetros intrínsecos y extrínsecos de las cámaras de video.
Para calcular los parámetros intrínsecos, se sitúa un tablero de calibración 3 en el interior del túnel de medición 1 tal y como se muestra en la figura 2. Sobre la superficie del tablero de calibración 3 se sitúa el patrón de calibración 4 cuya forma se muestra en la figura 3. El patrón de calibración 4 se compone de cuadrados 4c en blanco y negro que se alternan al tresbolillo, semejante a un tablero de ajedrez. El patrón de calibración 4 comprende el código datamatrix 4a y la marca fiducial 4b dispuestos en distintos cuadrados blancos. Los medios de procesamiento y almacenamiento 10 llevan a cabo los siguientes pasos para calcular los parámetros intrínsecos: toman al menos dos imágenes del tablero de calibración 3 con el patrón de calibración 4 mediante las cámaras de video 2; decodifican el código datamatrix 4a para obtener el tamaño del cuadrado 4c, el cuadrado central 4d, el número de filas y el número de columnas del tablero de calibración 3. Con la información anterior, los medios de procesamiento y almacenamiento 10 calculan todas las uniones de los cuadrados a partir del cuadrado central, y con las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara, calculan los parámetros intrínsecos 13 que son: el centro óptico, la distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2).
Respecto de los parámetros extrínsecos, además de utilizar el tablero de calibración 3, se utiliza la estación total 11 según se muestra en la figura 4. En primer lugar, se sitúa el tablero de calibración 3 dentro del túnel de medición 1 en una posición donde sea visible por al menos una cámara de video 2. A continuación, se realiza una medición del tablero de calibración 3 mediante la estación total 11. Esto implica crear el sistema de referencia común - SCE - 15, para lo cual, se realizan mediciones iterativas de cuatro puntos de la estructura del túnel de medición 1 y doce puntos ubicados sobre el tablero de calibración 3 mediante la estación total 11. Es decir, los mismos cuatro puntos del túnel de medición 1 y doce puntos ubicados sobre el tablero de calibración 3 se miden desde distintas posiciones de la estación total 11 respecto del túnel de medición 1. Las distintas posiciones son, de forma preferida, las posiciones que recorrería un vehículo sobre el transportador 8. Dicho de otra manera, la relación entre las mediciones tomadas de los cuatro puntos fijos 12 del túnel de medición 1 y los doce puntos ubicados sobre el tablero de calibración 3 permite crear el sistema de referencia común - SCE- 15. Una vez definido el sistema de referencia común - SCE- 15, hay que referenciar cada cámara de video 2 respecto del sistema de referencia común - SCE- 15 con objeto de poder determinar posteriormente las coordenadas 3D de un extremo de una parte del vehículo. Para ello, primero se calcula la relación entre el sistema de referencia común -SCE- y el tablero de calibración mediante transformación y estimación de rígidos. Posteriormente, se guarda al menos una imagen del tablero de calibración 3 por cada cámara de video 2, se calcula el sistema de coordenadas local de cada cámara de video 2 y, finalmente, se calcula la transformación del sistema de coordenadas local al sistema de referencia común -SCE-.
Una vez calibradas las cámaras de video 2 y construido el sistema de referencia común -SCE- 16, referenciando las cámaras de video al sistema de referencia común -SCE- 16, se aplica el siguiente paso consistente en calcular las coordenadas 3D por estereovisión de cuatro puntos de referencia 15 de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia como se muestra en las figuras 5 y 6. Como se muestra en la figura 5, sobre cada lateral del vehículo 7, dos cámaras de video 2 toman imágenes del punto de referencia 15 y obtienen las coordenadas 3D del punto de referencia 15 respecto del sistema de referencia común - SCE - 16. Se obtiene por tanto, las coordenadas 3D de dos puntos de referencia 15, uno por cada lado del vehículo. De forma simultánea o secuencial se calculan las coordenadas 3D de otros dos puntos de referencia 15 también a ambos lados del vehículo. Se puede realizar de forma simultánea si hay cámaras de video 2 que puedan tomar imágenes de los otros dos puntos de referencia 15 o de forma secuencial desplazando el vehículo 7 mediante el transportador 8 hasta que las dos cámaras de video 2 puedan tener acceso a los otros dos puntos de referencia 15. Las coordenadas 3D de los puntos de referencia 15 tienen un factor de corrección para eliminar el desplazamiento, para la forma secuencial, que se conoce por el codificador de posición o “encoder” 9 situado en el transportador 8. Para no tener que repetir los pasos descritos para las figuras 5 y 6 para posteriores vehículos iguales a inspeccionar por el túnel de medición 1, los medios de procesamiento y almacenamiento 10 pueden generar patrones de reconocimiento mediante un algoritmo de búsqueda vectorial por contraste.
Una vez calculadas las coordenadas 3D de cuatro puntos de referencia 16 del vehículo 7 respecto del sistema de referencia común - SCE- 16 es posible establecer una correspondencia entre las coordenadas 3D de los cuatro puntos de referencia 15 del vehículo respecto del sistema de referencia común - SCE- 16 y las coordenadas 3D de esos mismos cuatro puntos de referencia 15 del vehículo respecto del sistema de referencia vehículo - SCV - 17 (figura 7), localizando los cuatro puntos de referencia en un archivo de Diseño Asistido por Computadora - CAD - que contiene las medidas/coordenadas del vehículo en 3D. Es decir, se establece correspondencia entre cada uno de los puntos de referencia 15 calculados por las cámaras de video y los mismos puntos de referencia 15 extraídos del archivo CAD.
A continuación se analiza la superficie del vehículo 7 mediante un escaneo 25 (figura 9) de la superficie para detectar las zonas de separación (o secciones) 23 que se desean medir (figura 8). Concretamente, el método de la presente invención calcula las coordenadas 3D de los extremos 24 (figura 9) de la discontinuidad que se genera entre las distintas partes adyacentes del vehículo. Para ello, se lanzan disparos de luz mediante las luces 22, las cuales están sincronizadas con las cámaras de video 2. Los disparos de luz generan reflejo de luz en las partes que componen el vehículo y oscuridad (ausencia de reflejo de luz - ver detalle ampliado figura 10) en la separación (espacio entre los extremos 24 en la figuras 9 y 10) entre dichas partes del vehículo.
Para ello, se toman varias imágenes sincronizadas 2D 20 del vehículo 7 mediante las cámaras de video (figura 10). Las imágenes 2D se dicen que están “sincronizadas” porque para cada imagen “sincronizada”, existe una relación directa entre el identificador -ID- de la imagen, la posición espacial de la cámara de video y la posición espacial del vehículo, ya que el vehículo se encuentra sobre el transportador 8 cuya relación espacial con el túnel de medición 1 se conoce a través del codificador de posición 9. Como se muestra en la figura 10, a cada imagen sincronizada 2D 20 se le aplica un algoritmo de reconocimiento de extremos con el que los medios de procesamiento y almacenamiento pueden calcular las coordenadas X,Y 18 de cada extremo 24 en base al sistema de referencia común -SCE-, asociarlo al identificador - ID - y almacenarlo para su posterior tratamiento.
Una vez se toman varias imágenes (al menos dos) sincronizadas 2D 20 de los extremos 18, se combinan las imágines sincronizadas 2D en imágenes 3D 21 para obtener imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas C,U,Z 19 referenciadas al sistema de referencia común -SCE-. Como se trata de calcular la distancia entre dos partes del vehículo, es decir, las distancia entre los extremos 24 sobre el propio vehículo, se calcula una transformación de las coordenadas C,U,Z de los extremos en las imágenes 3D del sistema de referencia común -SCE- al sistema de referencia vehículo -SCV- mediante la relación ecuación:
SCV = Inversa (MR) x SCE donde SCV es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-, SCE es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia común -SCE-, MR es la matriz de relación que define la traslación, la rotación y la escala necesaria para pasar del sistema de referencia -SCV- al -SCE-. Con esto se obtiene las coordenadas 3D (C,U,Z) del extremo 19 en la pintura del vehículo 7 en una imagen en 3D referenciada al sistema de referencia vehículo -SCV-.

Claims

REIVINDICACIONES
1.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, caracterizado por que comprende los siguientes pasos:
• calibrar unas cámaras de video comprendidas en un túnel de medición calculando unos parámetros intrínsecos y unos parámetros extrínsecos de las cámaras de video;
• construir un sistema de referencia común -SCE- para el túnel de medición y referenciar las cámaras de video al sistema de referencia común -SCE-;
• calcular unas coordenadas 3D por estereovisión de al menos cuatro puntos de referencia de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia;
• calcular las coordenadas C,U,Z de cada punto de referencia en base a un sistema de referencia vehículo -SCV- a partir de un archivo de Diseño Asistido por Computadora -CAD- con las medidas del vehículo en 3-dimensiones;
• lanzar unos disparos, sincronizados con las cámaras de video, de al menos dos luces que generan reflejo de luz en unas partes del vehículo y ausencia de reflejo de luz en una separación entre las partes del vehículo de tal forma que la ausencia de reflejo de luz queda confinada entre unos extremos que sí generan reflejo de luz;
• tomar al menos dos imágenes sincronizadas 2D de las partes del vehículo con ausencia de reflejo mediante las cámaras de video, donde un identificador -ID- de cada imagen sincronizada 2D queda asociado con la posición espacial del vehículo respecto del túnel de medición, y aplicar un algoritmo de reconocimiento de extremos que calcula las coordenadas X,Y de cada extremo así como del identificador -ID- en base al sistema de referencia común -SCE-;
• combinar las imágines sincronizadas 2D en imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas C,U,Z referenciadas al sistema de referencia común-SCE-;
• calcular las coordenadas C,U,Z de los extremos en las imágenes 3D referenciadas al sistema de referencia vehículo -SCV- mediante la relación:
SCV = Inversa (MR) x SCE donde SCV es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-; MR es la matriz de relación y SCE es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia común -SCE-;
• calcular un enrase y una separación de las partes del vehículo como la distancia de separación entre los extremos en coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-.
2.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calibrar las cámaras de video adicionalmente comprende los siguientes sub-pasos para calcular los parámetros intrínsecos:
• tomar al menos dos imágenes de un tablero de calibración que comprenda al menos un código datamatrix y una marca fiducial;
• decodificar el código datamatrix para obtener un tamaño del cuadrado, un número de filas y un número de columnas del tablero de calibración;
• determinar un cuadrado central del tablero de calibración en base al código datamatrix;
• calcular todas las uniones de los cuadrados partiendo del cuadrado central;
• calcular un Centro Óptico, una distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2) en base a las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara.
3.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calibrar las cámaras de video adicionalmente comprende los siguientes sub-pasos para calcular los parámetros extrínsecos:
• situar un tablero de calibración dentro del túnel de medición en una posición donde sea visible por al menos una cámara de video;
• realizar una medición del tablero de calibración mediante una estación total, para lo cual: o medir cuatro puntos fijos sobre la estructura del túnel de medición mediante la estación total; o estacionar iterativamente la estación total obteniendo un sistema de referencia común -SCE- con respecto a un transportador de vehículos por el interior del túnel del inspección; o medir con la estación total en el sistema de referencia común -SCE- al menos doce puntos auxiliares ubicados sobre el tablero de calibración;
• calcular la relación entre el sistema de referencia común -SCE- y el tablero de calibración utilizando transformación y estimación de rígidos;
• guardar al menos una imagen del tablero de calibración por cada cámara de video;
• calcular un sistema de coordenadas local de cada cámara de video y calcular la transformación del sistema de coordenadas local al sistema de referencia común -SCE- .
4 - Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calcular las coordenadas 3D por estereovisión adicionalmente comprende los siguientes sub pasos:
• elegir dos cámaras de video por lateral del vehículo que tengan acceso visual a los cuatro puntos de referencia que van a ser medidos;
• elegir los puntos de referencia a calcular sobre el vehículo teniendo en cuenta el desplazamiento sincronizado del vehículo sobre un transportador respecto del túnel de medición;
• generar patrones de reconocimiento para el reconocimiento de posteriores vehículos iguales mediante un algoritmo de búsqueda vectorial por contraste.
5.- Túnel de medición de enrase y separación de partes de un vehículo, donde el túnel de medición (1) está caracterizado por que comprende:
• cámaras de video (2) para tomar imágenes de un vehículo (7);
• un transportador (8) que desplaza linealmente el vehículo (7) y atraviesa longitudinalmente el túnel de medición (1);
• un codificador de posición (9) que mide el desplazamiento del vehículo (7);
• una estación total (11) que mide unos puntos fijos de la estructura del túnel de medición (12);
• un tablero de calibración (3) sobre el que se sitúa un patrón de calibración (4);
• al menos dos luces (22) sincronizadas con las cámaras de video (2);
• unos medios de procesamiento y almacenamiento (10) que almacenan al menos unas imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora - CAD - de los vehículos y un algoritmo de reconocimiento de extremos; estando conectados a las luces (22), cámaras de video (2), transportador (8) y codificador de posición (9); y donde los medios de procesamiento y almacenamiento están adaptados para ejecutar los pasos del método de una cualquiera de las reivindicaciones 1 a 4.
6.- Túnel de medición de enrase y separación de partes de un vehículo según la reivindicación 5, caracterizado por que el patrón de calibración (4) está formado cuadrados (4c) dispuestos al tresbolillo; y donde adicionalmente comprende un código datamatrix (4a) y una marca fiducial (4b).
7.- Túnel de medición de enrase y separación de partes de un vehículo según la reivindicación 5, caracterizado por que el túnel de medición (1) adicionalmente comprende una estructura soporte (5) en forma de “U” invertida y una estructura soporte frontal (6) para sustentar las cámaras de visión (2) y las luces (22) en el interior del túnel de medición (1).
PCT/ES2020/070488 2019-10-23 2020-07-28 Método de medición de enrase y separación de partes de un vehículo y túnel de medición WO2021079018A1 (es)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20879248.1A EP4049920A4 (en) 2019-10-23 2020-07-28 METHOD OF MEASUREMENT OF FLATNESS AND DISTANCE OF VEHICLE PARTS AND MEASURING TUNNEL
US17/764,333 US11953310B2 (en) 2019-10-23 2020-07-28 Method for measuring gap and flush of vehicle parts and measuring tunnel
CN202080068189.1A CN114502456A (zh) 2019-10-23 2020-07-28 用于测量车辆零件的空隙和齐平度的方法以及测量隧道
JP2022506341A JP7373053B2 (ja) 2019-10-23 2020-07-28 車両部品のギャップ・フラッシュ測定方法及び測定用トンネル
KR1020227006606A KR102639910B1 (ko) 2019-10-23 2020-07-28 차량 부품의 갭 및 플러시의 측정 방법 및 측정 터널

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
ESP201930936 2019-10-23
ES201930936A ES2821104B2 (es) 2019-10-23 2019-10-23 Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion

Publications (1)

Publication Number Publication Date
WO2021079018A1 true WO2021079018A1 (es) 2021-04-29

Family

ID=75538890

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/ES2020/070488 WO2021079018A1 (es) 2019-10-23 2020-07-28 Método de medición de enrase y separación de partes de un vehículo y túnel de medición

Country Status (8)

Country Link
US (1) US11953310B2 (es)
EP (1) EP4049920A4 (es)
JP (1) JP7373053B2 (es)
KR (1) KR102639910B1 (es)
CN (1) CN114502456A (es)
ES (1) ES2821104B2 (es)
TW (1) TW202134098A (es)
WO (1) WO2021079018A1 (es)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313695A (en) * 1989-03-28 1994-05-24 Renault Automation Process and device for body assembly with lateral tools that can be interpositioned
GB2375741A (en) * 1999-12-28 2002-11-27 Honda Motor Co Ltd Production line construction method body assembly method and body assembly line
US20040221438A1 (en) * 2003-05-05 2004-11-11 Savoy Mark A. Assembly line and method for vehicle body manufacturing
US20190017847A1 (en) * 2017-07-12 2019-01-17 Hyundai Motor Company Vehicle body tracking system and method

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19910699B4 (de) * 1999-03-10 2006-04-27 Inos Automationssoftware Gmbh Anordnung zum Messen der Breite eines Spalts, Spaltmessanordnung und Messverfahren
JP4974489B2 (ja) * 2005-07-27 2012-07-11 トヨタ自動車株式会社 組付け精度計測システム
FR2922639B1 (fr) * 2007-10-23 2009-12-11 Peugeot Citroen Automobiles Sa Procede et dispositif de mesure de jeu et d'affleurement entre des pieces fixees sur un ensemble en l'absence de l'une d'elles
FR2928453B1 (fr) * 2008-03-06 2011-01-07 Peugeot Citroen Automobiles Sa Systeme de mesure de jeux et d'affleurements et procede correspondant
FR2941043B1 (fr) * 2009-01-14 2010-12-31 Peugeot Citroen Automobiles Sa Procede de mesure de jeux et affleurements
US8872897B2 (en) * 2011-05-11 2014-10-28 Intel Corporation Camera calibration using an easily produced 3D calibration pattern
EP2530647A1 (en) * 2011-06-01 2012-12-05 Harman Becker Automotive Systems GmbH Method of calibrating a vehicle vision system and vehicle vision system
CN103685936A (zh) * 2012-09-25 2014-03-26 通用汽车环球科技运作有限责任公司 宽视场摄像机图像的校准和扭曲恢复
CN107765257A (zh) * 2017-11-16 2018-03-06 深圳市唯特视科技有限公司 一种基于反射强度辅助外部校准的激光探测与测量方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313695A (en) * 1989-03-28 1994-05-24 Renault Automation Process and device for body assembly with lateral tools that can be interpositioned
GB2375741A (en) * 1999-12-28 2002-11-27 Honda Motor Co Ltd Production line construction method body assembly method and body assembly line
US20040221438A1 (en) * 2003-05-05 2004-11-11 Savoy Mark A. Assembly line and method for vehicle body manufacturing
US20190017847A1 (en) * 2017-07-12 2019-01-17 Hyundai Motor Company Vehicle body tracking system and method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4049920A4 *

Also Published As

Publication number Publication date
JP2022553597A (ja) 2022-12-26
KR102639910B1 (ko) 2024-02-23
US11953310B2 (en) 2024-04-09
ES2821104B2 (es) 2021-08-23
EP4049920A1 (en) 2022-08-31
EP4049920A4 (en) 2022-12-28
US20220333914A1 (en) 2022-10-20
ES2821104A1 (es) 2021-04-23
CN114502456A (zh) 2022-05-13
KR20220075309A (ko) 2022-06-08
JP7373053B2 (ja) 2023-11-01
TW202134098A (zh) 2021-09-16

Similar Documents

Publication Publication Date Title
ES2326035T3 (es) Procedimiento optico de determinacion de una dimension o la orientacion de un objeto movil.
AU2018282302B2 (en) Integrated sensor calibration in natural scenes
CN103344182B (zh) 一种基于双目视觉的糖果几何尺寸测量系统和方法
ES2348902T3 (es) Procedidmiento y sistema para la medicion de la forma de una superficie reflejante.
ES2711651T3 (es) Procedimiento para determinar las coordenadas 3D de un objeto y para calibrar un robot industrial
CN108802043B (zh) 隧道检测装置、检测系统及隧道病害信息提取方法
CN103837084B (zh) 基于激光光斑成像技术的三向位移量测方法
CN108444449B (zh) 一种对具有平行线特征的目标空间姿态测量方法
CN114998499B (zh) 一种基于线激光振镜扫描的双目三维重建方法及系统
Macknojia et al. Calibration of a network of kinect sensors for robotic inspection over a large workspace
CN103149560B (zh) Ccd成像侧向激光雷达的标定方法
CN106091983A (zh) 包含扫描方向信息的线结构光视觉测量系统完整标定方法
CN105627948A (zh) 一种大型复杂曲面测量系统及其应用
CN104567728A (zh) 激光视觉轮廓测量系统及测量方法、立体靶标
CN103759669A (zh) 一种大型零件的单目视觉测量方法
EA031929B1 (ru) Устройство и способ трехмерного измерения поверхности
US20130271573A1 (en) Method and apparatus for determining the 3d coordinates of an object
Hui et al. A novel line scan camera calibration technique with an auxiliary frame camera
US11259000B2 (en) Spatiotemporal calibration of RGB-D and displacement sensors
CN116051659A (zh) 一种线阵相机与2d激光扫描仪联合标定方法
Jiang et al. Combined shape measurement based on locating and tracking of an optical scanner
ES2821104B2 (es) Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion
CN205352322U (zh) 一种大型复杂曲面测量系统
ES2436660T3 (es) Dispositivo de medición y representación de las fuentes de ruido en el interior de un espacio
WO2021019111A1 (es) Método de inspección de defectos en la pintura de un vehículo y túnel de inspección

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20879248

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022506341

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020879248

Country of ref document: EP

Effective date: 20220523