WO2021079018A1 - Método de medición de enrase y separación de partes de un vehículo y túnel de medición - Google Patents
Método de medición de enrase y separación de partes de un vehículo y túnel de medición Download PDFInfo
- Publication number
- WO2021079018A1 WO2021079018A1 PCT/ES2020/070488 ES2020070488W WO2021079018A1 WO 2021079018 A1 WO2021079018 A1 WO 2021079018A1 ES 2020070488 W ES2020070488 W ES 2020070488W WO 2021079018 A1 WO2021079018 A1 WO 2021079018A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- vehicle
- tunnel
- sce
- video cameras
- measurement
- Prior art date
Links
- 238000000926 separation method Methods 0.000 title claims abstract description 32
- 238000000034 method Methods 0.000 title claims abstract description 16
- 238000012545 processing Methods 0.000 claims abstract description 13
- 238000005259 measurement Methods 0.000 claims description 53
- 230000001360 synchronised effect Effects 0.000 claims description 21
- 239000011159 matrix material Substances 0.000 claims description 18
- 230000009466 transformation Effects 0.000 claims description 7
- 238000000691 measurement method Methods 0.000 claims description 6
- 238000011960 computer-aided design Methods 0.000 claims description 5
- 230000003287 optical effect Effects 0.000 claims description 3
- 238000010845 search algorithm Methods 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 238000007689 inspection Methods 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 claims description 2
- 238000010422 painting Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 230000015654 memory Effects 0.000 description 1
- 230000003534 oscillatory effect Effects 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D65/00—Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
- B62D65/005—Inspection and final control devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B62—LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
- B62D—MOTOR VEHICLES; TRAILERS
- B62D65/00—Designing, manufacturing, e.g. assembling, facilitating disassembly, or structurally modifying motor vehicles or trailers, not otherwise provided for
- B62D65/02—Joining sub-units or components to, or positioning sub-units or components with respect to, body shell or other sub-units or components
- B62D65/024—Positioning of sub-units or components with respect to body shell or other sub-units or components
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/002—Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/02—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
- G01B11/03—Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness by measuring coordinates of points
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/14—Measuring arrangements characterised by the use of optical techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/245—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B21/00—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
- G01B21/02—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
- G01B21/04—Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
- G01B21/042—Calibration or calibration artifacts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B5/00—Measuring arrangements characterised by the use of mechanical techniques
- G01B5/0025—Measuring of vehicle parts
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B7/00—Measuring arrangements characterised by the use of electric or magnetic techniques
- G01B7/14—Measuring arrangements characterised by the use of electric or magnetic techniques for measuring distance or clearance between spaced objects or spaced apertures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
- G06T7/001—Industrial image inspection using an image reference approach
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N17/00—Diagnosis, testing or measuring for television systems or their details
- H04N17/002—Diagnosis, testing or measuring for television systems or their details for television cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
- G06T2207/10021—Stereoscopic video; Stereoscopic image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30156—Vehicle coating
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
- G06T2207/30164—Workpiece; Machine component
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
Definitions
- the object of the invention is a method for measuring the leveling and the separation of parts of a vehicle and a measuring tunnel equipped with the necessary means to carry out the measurement of the leveling and the separation of parts of a vehicle.
- the aim is to automate the process of measuring the leveling and the separation that the different parts of a vehicle present with respect to those that surround them.
- a vehicle door has a perimeter edge that has to be flush with the parts of the vehicle that surround the door, such as other doors, wings, etc.
- the door has to have a specific separation within very narrow margins so that the opening and closing movement of the door is correct.
- the technical field to which the present invention belongs is the field of measurement devices and methods applied to the surfaces of a vehicle without contact with it.
- the present invention discloses a method of measuring flush and separation of vehicle parts and a tunnel for measuring flush and separation of vehicle parts.
- the measurement tunnel for leveling and separation of vehicle parts.
- the measurement tunnel comprises: video cameras to take images of a vehicle; a conveyor that linearly moves the vehicle and longitudinally traverses the measuring tunnel; a position encoder that measures the displacement of the vehicle; a total station that measures fixed points of the structure of the measurement tunnel in 3D with precision; a calibration board on which a calibration standard is placed; at least two lights synchronized with the video cameras; and, processing and storage means that store at least some images taken by the video cameras, some Computer Aided Design - CAD - files of the vehicles and an endpoint recognition algorithm.
- the processing and storage means are connected to the lights, the video cameras, the conveyor and the position encoder.
- the processing and storage means are adapted to carry out the steps of the method of measurement of leveling and separation of parts of a vehicle that are defined later in the second aspect of the invention.
- the position encoder or "encoder” is a pulse generator, which is connected to the shaft of a motor that moves the conveyor and generates pulses while the motor is turning.
- the position encoder serves to measure the advancement of the vehicle along the transport as the pulses are translated into a measure of length.
- the calibration standard is made up of squares arranged in a staggered fashion. Additionally, the calibration standard comprises a data matrix code and a fiducial mark.
- the data matrix code and the fiducial mark contain information related to the calibration pattern such as number of rows and columns, location of the central square, size of the squares, colors of the squares, etc.
- the squares are black and white because they have better contrast when you have to determine their junction points.
- the measurement tunnel additionally comprises an inverted "U" shaped support structure and a front support structure to support the lights, the vision cameras inside the measurement tunnel.
- These light and video camera mounts have the advantage of positioning the video cameras in such a way that a full scan of the vehicle within the measurement tunnel can be performed.
- the lights have a minimum length of 400mm. Additionally or optionally, the lights have LED technology.
- the method of measuring the leveling and separation of parts of a vehicle associated with the measuring tunnel of the first aspect of the invention comprises the following steps:
- SCV Inverse (MR) x SCE
- SCV is a matrix that defines the C, U, Z coordinates referenced to the vehicle reference system -SCV-
- SCE is a matrix that defines the C, U, Z coordinates referenced to the common reference system -SCE-
- MR is the relationship matrix between both reference systems and that defines the translation, rotation and scale necessary to go from a system to another reference;
- the video camera calibration process described in the video camera calibration step involves calculating the intrinsic and extrinsic parameters.
- To calculate the intrinsic parameters the following sub-steps are carried out:
- the measurement method for leveling and separation of vehicle parts comprises the following sub-steps:
- the next step is to calculate the 3D coordinates by stereovision of four reference points. of a vehicle based on the common reference system -SCE- obtaining the coordinates C, U, Z of each reference point.
- the following steps are carried out:
- recognition patterns can be generated for the recognition of subsequent identical vehicles by means of a vector search algorithm by contrast.
- Figure 1 shows the measurement tunnel for leveling and separation of parts of a vehicle and a vehicle inside.
- Figure 2 shows the measurement tunnel of the present invention where the calibration board has been located internally.
- Figure 3 shows the calibration standard on the calibration board.
- Figure 4 shows the total station taking 3D coordinates of four fixed points of the measurement tunnel.
- Figure 5 shows the calculation of four vehicle reference points using video cameras.
- Figure 6 shows a vehicle in perspective where four reference points are indicated.
- FIG. 7 shows the common reference system SCE and the vehicle reference system SCV.
- Figure 8 shows a vehicle on which it is desired to measure the flush and the distance between two parts of it.
- Figure 9 schematizes a sweep of the surface of two parts of a vehicle and a discontinuity in said surface defined between two extremes.
- Figure 10 shows a 2D image of a discontinuity between two parts of a vehicle and the position of the ends in 2D by X, Y coordinates of the ends.
- Figure 11 shows a 3D image of a discontinuity between two parts of a vehicle and the position of the ends in 3D by C, U, Z coordinates of the ends.
- Vehicle reference system -SCV- 18. 2D XY coordinates of one end;
- FIG 1 the measurement tunnel 1 of the present invention is shown to perform a measurement of the flush and the separation between any two parts of the body of a vehicle.
- Figure 1 shows the measuring tunnel 1 and, inside it, the chassis of the vehicle 7 on the conveyor 8.
- the purpose of the conveyor 8 is to move the vehicle 7 through the interior of the measuring tunnel 1.
- the measuring tunnel 1 is mainly composed of video cameras 2 and close to them, LED lights 22, all of them (2,22) are supported by the support structure 5 in the shape of an inverted "U" and also by the structure front support 6. Additionally, the measuring tunnel 1 has the vehicle conveyor 8, the position encoder 9 and the processing and storage means 10.
- the processing and storage means 10 are processors and memories configured to execute the steps of the method.
- the position encoder 9 serves so that the measurement tunnel 1 can know the position of the vehicle at all times. This allows synchronized images to be taken as will be described later.
- the calibration of the video cameras 2 consists of calculating the intrinsic and extrinsic parameters of the video cameras.
- a calibration board 3 is placed on the inside the measuring tunnel 1 as shown in figure 2.
- the calibration standard 4 On the surface of the calibration table 3 is located the calibration standard 4 whose shape is shown in figure 3.
- the calibration standard 4 is made up of squares 4c in black and white that alternate in a staggered fashion, similar to a chessboard.
- the calibration pattern 4 comprises the data matrix code 4a and the fiducial mark 4b arranged in different white squares.
- the processing and storage means 10 carry out the following steps to calculate the intrinsic parameters: they take at least two images of the calibration board 3 with the calibration standard 4 by the video cameras 2; decode the data matrix code 4a to obtain the size of the square 4c, the central square 4d, the number of rows and the number of columns of the calibration board 3.
- the processing and storage means 10 calculate all the unions of the squares from the central square, and with the unions of the squares, the size of the optics included in the video cameras and the cell size of the camera's CCD, calculate the intrinsic parameters 13 which are: the optical center, the focal length, at least six Radial distortion parameters (K1-K6) and at least two tangential distortion parameters (P1, P2).
- the total station 11 is used as shown in figure 4.
- the calibration board 3 is placed inside the measuring tunnel 1 in a position where is visible by at least one video camera 2.
- a measurement of the calibration board 3 is made by the total station 11. This involves creating the common reference system - SCE-15, for which, iterative measurements are made of four points of the structure of the measurement tunnel 1 and twelve points located on the calibration table 3 by means of the total station 11. That is, the same four points of the measurement tunnel 1 and twelve points located on the calibration table 3 are They measure from different positions of the total station 11 with respect to the measurement tunnel 1.
- the different positions are, preferably, the positions that a vehicle would travel on the conveyor 8.
- the relationship between the measurements taken from the four fixed points 12 of the measurement tunnel 1 and the twelve points located on the calibration board 3 allows creating the common reference system - SCE-15.
- each video camera 2 must be referenced with respect to the common reference system - SCE-15 in order to subsequently determine the 3D coordinates from one end of a part of the vehicle.
- the relationship between the common reference system -SCE- and the calibration board is calculated by transformation and estimation of rigid ones.
- at least one image of the calibration board 3 is saved for each video camera 2, the local coordinate system of each video camera 2 is calculated and, finally, the transformation from the local coordinate system to the reference system is calculated common -SCE-.
- the next step is applied consisting of calculating the 3D coordinates by stereovision of four reference points 15 of a vehicle based on the common reference system -SCE- obtaining the coordinates C, U, Z of each reference point as shown in figures 5 and 6.
- two video cameras 2 take images of the reference point 15 and obtain the 3D coordinates of the reference point 15 with respect to the common reference system - SCE - 16. Therefore, the 3D coordinates of two reference points are obtained. reference 15, one for each side of the vehicle.
- the 3D coordinates of two other reference points 15 are also calculated on both sides of the vehicle. It can be done simultaneously if there are video cameras 2 that can take images of the other two reference points 15 or sequentially moving the vehicle 7 through the conveyor 8 until the two video cameras 2 can have access to the others.
- the 3D coordinates of the reference points 15 have a correction factor to eliminate the offset, for the sequential form, which is known from the position encoder or "encoder" 9 located on the conveyor 8.
- the processing and storage means 10 can generate recognition patterns by means of a contrast vector search algorithm.
- the surface of the vehicle 7 is then analyzed by scanning the surface 25 (FIG. 9) to detect the separation zones (or sections) 23 to be measured (FIG. 8).
- the method of the present invention calculates the 3D coordinates of the ends 24 (figure 9) of the discontinuity that is generated between the different adjacent parts of the vehicle.
- light shots are fired through lights 22, which are synchronized with the video cameras 2.
- the light shots generate light reflection in the parts that make up the vehicle and darkness (absence of light reflection - see detail enlarged figure 10) in the separation (space between the ends 24 in figures 9 and 10) between said parts of the vehicle.
- each 2D synchronized image 20 is applied an end recognition algorithm with which the processing and storage means can calculate the X, Y coordinates 18 of each end 24 based on the common reference system -SCE-, associate it with the identifier - ID - and store it for later treatment.
- the 2D synchronized images 20 of the ends 18 are taken, the 2D synchronized images are combined into 3D images 21 to obtain 3D images where the ends in the 3D images have coordinates C, U, Z 19 referenced to the common reference system -SCE-. Since it is a matter of calculating the distance between two parts of the vehicle, that is, the distance between the extremes 24 on the vehicle itself, a transformation of the coordinates C, U, Z of the ends in the 3D images of the common reference system -SCE- to the vehicle reference system -SCV- through the relation equation:
- SCV Inverse (MR) x SCE
- SCV is a matrix that defines the C, U, Z coordinates referenced to the vehicle reference system -SCV-
- SCE is a matrix that defines the C, U, Z coordinates referenced to the reference system common -SCE-
- MR is the relationship matrix that defines the translation, rotation and scale necessary to go from the -SCV- to -SCE- reference system.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Manufacturing & Machinery (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Signal Processing (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Optics & Photonics (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Se divulga un método que es capaz de medir el enrase y la separación de partes de un vehículo mediante un túnel de medición. El método es capaz de determinar las coordenadas en 3D de los extremos o bordes de dos partes adyacentes de un vehículo. El túnel de medición (1) comprende varias cámaras de video (2), luces LED (22), un transportador (8), un codificador de posición (9) que mide el desplazamiento del vehículo (7); una estación total (11) que mide unos puntos fijos de la estructura del túnel de medición (12), un tablero de calibración (3) y un patrón de calibración (4); unos medios de procesamiento y almacenamiento (10) que almacenan imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora de los vehículos y un algoritmo de reconocimiento de extremos.
Description
MÉTODO DE MEDICIÓN DE ENRASE Y SEPARACIÓN DE PARTES DE UN VEHÍCULO Y TÚNEL DE MEDICIÓN
DESCRIPCIÓN
Objeto de la invención
El objeto de la invención es un método de medición del enrase y la separación de partes de un vehículo y un túnel de medición dotado de los medios necesarios para llevar a cabo la medición del enrase y la separación de partes de un vehículo.
Mediante el método de la presente invención se trata de automatizar el proceso de medición del enrase y la separación que presentan las diferentes partes de un vehículo respecto de las que les rodean. Por ejemplo, una puerta de un vehículo tiene un borde perimetral que tiene que estar enrasado con las partes del vehículo que rodean a la puerta como pueden ser otras puertas, aletas, etc. Además, la puerta tiene que tener una separación concreta dentro de unos márgenes muy estrechos para que el movimiento de apertura y cierra de la puerta sea correcto.
Campo Técnico de la Invención
El campo técnico al que pertenece la presente invención es el campo de los dispositivos y métodos de medición aplicados a las superficies de un vehículo sin contacto con el mismo.
Antecedentes de la Invención
Actualmente, los sistemas de medición de “Enrase y Separación” conocidos en inglés como “Flush & Gap” son sistemas automáticos que suelen utilizar Robots con un sensor 3D embarcado para realizar las mediciones (sobre todo en montaje final). Existen sistemas con sensores fijos, pero no tienen la precisión suficiente. También existen sistemas manuales donde un operario con un dispositivo portátil va posicionando el medidor sobre los puntos de la carrocería del vehículo que se desea medir realizando movimientos oscilatorios para medir el enrasado.
Los sistemas donde intervienen operarios son lentos ya que un mismo operario se debe de trasladar a uno y otro lado del vehículo y además posicionar el dispositivo medidor sobre la carrocería puede afectar a la pintura del vehículo.
En cuanto a los sistemas de medición basados en robots, estos sistemas presentan los inconvenientes tales como: son costosos de instalar por el alto coste de los robots, las seguridades, etc.; difíciles de configurar para usuarios no expertos en robots como suelen ser los operarios de montaje final; alto coste de mantenimiento; poco flexibles a cambios, ya que al añadir o eliminar nuevos puntos, hay que reprogramar los robots; número de secciones a medir acotadas, es decir, hay un número máximo de secciones posibles, ya que hay una fuerte dependencia de la velocidad de los robots, los cuales tienen un límite físico.
Sería deseable, por tanto, encontrar una solución completamente automatizada al problema de calcular la distancia y el enrase de las partes que componen un vehículo.
Descripción de la Invención
La presente invención divulga un método de medición de enrase y separación de partes de un vehículo y un túnel de medición de enrase y separación de partes de un vehículo.
En un primer aspecto de la invención se divulga el túnel de medición de enrase y separación de partes de un vehículo. El túnel de medición comprende: cámaras de video para tomar imágenes de un vehículo; un transportador que desplaza linealmente el vehículo y atraviesa longitudinalmente el túnel de medición; un codificador de posición que mide el desplazamiento del vehículo; una estación total que mide unos puntos fijos de la estructura del túnel de medición en 3D con precisión; un tablero de calibración sobre el que se sitúa un patrón de calibración; al menos dos luces sincronizadas con las cámaras de vídeo; y, unos medios de procesamiento y almacenamiento que almacenan al menos unas imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora - CAD - de los vehículos y un algoritmo de reconocimiento de extremos. Además, los medios de procesamiento y almacenamiento están conectados a las luces, a las cámaras de video, al transportador y al codificador de posición. Finalmente, los medios de procesamiento y almacenamiento están adaptados para ejecutar los pasos del método de medición de enrase y separación de partes de un vehículo que se definen posteriormente en el segundo aspecto de la invención.
Puntualizar que el codificador de posición o “encoder” es un generador de pulsos, el cual se conecta al eje de un motor que mueve el transportador y genera pulsos mientras el motor va girando. En la presente invención, el codificador de posición sirve para medir el avance del vehículo a lo largo del transporte ya que los pulsos se traducen en medida de longitud.
En una forma de realización del túnel de medición, el patrón de calibración está formado por cuadrados dispuestos al tresbolillo. Adicionalmente, el patrón de calibración comprende un código datamatrix y una marca fiducial. El código datamatrix y la marca fiducial contienen información relativa al patrón de calibración como numero de filas y columnas, situación del cuadrado central, tamaño de los cuadrados, colores de los cuadrados, etc. De forma preferida, los cuadrados son blancos y negros porque tienen mejor contraste al tener que determinar sus puntos de unión.
En otra forma de realización del túnel de medición, el túnel de medición adicionalmente comprende una estructura soporte en forma de “U” invertida y una estructura soporte frontal para sustentar las luces, las cámaras de visión en el interior del túnel de medición. Estos soportes para las luces y las cámaras de video tienen la ventaja de situar las cámaras de video de tal forma que se puede realizar un escaneo completo del vehículo que se encuentre en el interior del túnel de medición.
En otra forma de realización del túnel de medición, las luces tienen una longitud mínima de 400mm. Adicionalmente u opcionalmente, las luces tienen tecnología LED.
En un segundo aspecto de la invención se divulga el método de medición de enrase y separación de partes de un vehículo asociado al túnel de medición del primer aspecto de la invención. El método de medición de enrase y separación de partes de un vehículo comprende los siguientes pasos:
• calibrar las cámaras de video comprendidas en el túnel de medición calculando los parámetros intrínsecos y los parámetros extrínsecos de las cámaras de video;
• construir un sistema de referencia común -SCE- para el túnel de medición y referenciar las cámaras de video al sistema de referencia común -SCE-;
• calcular unas coordenadas 3D por estereovisión de al menos cuatro puntos de referencia del vehículo en base al sistema de referencia común -SCE-
obteniéndose las coordenadas C,U,Z de cada punto de referencia;
• calcular las coordenadas C,U,Z de cada punto de referencia en base a un sistema de referencia vehículo -SCV- a partir de un archivo de Diseño Asistido por Computadora - CAD - con las medidas del vehículo en 3-dimensiones;
• lanzar unos disparos, sincronizados con las cámaras de video, de al menos dos luces que generan reflejo de luz en unas partes del vehículo y ausencia de reflejo de luz en una separación entre las partes del vehículo de tal forma que la ausencia de reflejo de luz queda confinada entre unos extremos que sí generan reflejo de luz;
• tomar al menos dos imágenes sincronizadas 2D de las partes del vehículo con ausencia de reflejo mediante las cámaras de video, donde un identificador -ID- de cada imagen sincronizada 2D queda asociado con la posición espacial del vehículo respecto del túnel de medición, y aplicar un algoritmo de reconocimiento de extremos que calcula las coordenadas X,Y de cada extremo así como del identificador -ID- en base al sistema de referencia común -SCE-;
• combinar las imágines sincronizadas 2D en imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas C,U,Z referenciadas al sistema de referencia común-SCE-;
• calcular las coordenadas C,U,Z de los extremos en las imágenes 3D referenciadas al sistema de referencia vehículo -SCV- mediante la relación:
SCV = Inversa (MR) x SCE donde SCV es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-; SCE es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia común -SCE- y MR es la matriz de relación entre ambos sistemas de referencia y que define la traslación, rotación y escala necesarios para pasar de un sistema a otro de referencia;
• calcular un enrase y una separación de las partes del vehículo como la distancia de separación entre los extremos en coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-.
Como ejemplo de lo anterior, si se desea medir la distancia de la puerta delantera de un vehículo a la correspondiente aleta del vehículo, hay una “sección” (recta) determinada por el último punto de la puerta que genera reflejo de luz al ser iluminada por las luces, que será un extremo de la sección, y por el último punto de la aleta que
genera reflejo de luz al ser iluminada por las luces, que será el otro extremo de la sección. La parte entre los extremos no genera reflejo de luz y representa la distancia en 3-dimensiones (enrase y separación) entre las partes (puerta y aleta) del vehículo.
El proceso de calibración de las cámaras de video descrito en el paso de calibración de las cámaras de video conlleva el cálculo de los parámetros intrínsecos y extrínsecos. Para calcular los parámetros intrínsecos se llevan a cabo los siguientes sub-pasos:
• tomar al menos dos imágenes del tablero de calibración que comprenda al menos el código datamatrix y la marca fiducial;
• decodificar el código datamatrix para obtener el tamaño del cuadrado, el número de filas y el número de columnas del tablero de calibración;
• determinar el cuadrado central del tablero de calibración en base al código datamatrix;
• calcular todas las uniones de los cuadrados partiendo del cuadrado central;
• calcular el Centro Óptico, la distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2) en base a las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara de video.
Por otro lado, para calcular los parámetros extrínsecos, el método de medición de enrase y separación de partes de un vehículo comprende los siguientes sub-pasos:
• situar el tablero de calibración dentro del túnel de medición en una posición donde sea visible por al menos una cámara de video;
• realizar una medición del tablero de calibración mediante la estación total, para lo cual: o medir cuatro puntos fijos sobre la estructura del túnel de medición mediante la estación total; o estacionar iterativamente la estación total obteniendo el sistema de referencia común - SCE - con respecto a un transportador de vehículos por el interior del túnel del inspección; o medir con la estación total en el sistema de referencia común - SCE - al menos doce puntos auxiliares ubicados sobre el tablero de calibración;
• calcular la relación entre el sistema de referencia común - SCE - y el tablero de calibración utilizando transformación y estimación de rígidos;
• guardar al menos una imagen del tablero de calibración por cada cámara de video;
• calcular un sistema de coordenadas local de cada cámara de video y calcular la transformación del sistema de coordenadas local al sistema de referencia común -SCE- .
Una vez calibradas las cámaras de video y construido el sistema de referencia común -SCE-, referenciando las cámaras de video al sistema de referencia común -SCE-, se aplica el siguiente paso consistente en calcular las coordenadas 3D por estereovisión de cuatro puntos de referencia de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia. Para calcular las coordenadas 3D por estereovisión de los cuatro puntos de referencia de un vehículo, se llevan a cabo los siguientes pasos:
• elegir dos cámaras de video por lateral del vehículo que tengan acceso visual a los cuatro puntos de referencia que van a ser medidos;
• elegir los puntos de referencia a calcular sobre el vehículo teniendo en cuenta el desplazamiento sincronizado del vehículo sobre el transportador respecto del túnel de medición.
Opcional y adicionalmente a los dos pasos anteriores, se pueden generar patrones de reconocimiento para el reconocimiento de posteriores vehículos iguales mediante un algoritmo de búsqueda vectorial por contraste.
Breve descripción de las Figuras
La figura 1 muestra el túnel de medición de enrase y separación de partes de un vehículo y un vehículo en su interior.
La figura 2 muestra el túnel de medición de la presente invención en donde se ha situado interiormente el tablero de calibración.
La figura 3 muestra el patrón de calibración que porta el tablero de calibración.
La figura 4 muestra la estación total tomando coordenadas 3D de cuatro puntos fijos del túnel de medición.
La figura 5 muestra el cálculo de cuatro puntos de referencia del vehículo mediante las cámaras de video.
La figura 6 muestra un vehículo en perspectiva donde se indican cuatro puntos de referencia.
La figura 7 muestra el sistema de referencia común SCE y el sistema de referencia vehículo SCV.
La figura 8 muestra un vehículo sobre el que se desea medir el enrase y la distancia entre dos partes del mismo.
La figura 9 esquematiza un barrido de la superficie de dos partes de un vehículo y una discontinuidad en dicha superficie definida entre dos extremos.
La figura 10 muestra una imagen en 2D de una discontinuidad entre dos partes de un vehículo y la posición de los extremos en 2D mediante coordenadas X,Y de los extremos.
La figura 11 muestra una imagen en 3D de una discontinuidad entre dos partes de un vehículo y la posición de los extremos en 3D mediante coordenadas C,U,Z de los extremos.
Descripción de una forma de realización
Lista de referencias
1. Túnel de medición;
2. Cámaras de video;
3. Tablero de calibración;
4. Patrón de calibración: 4a - código datamatrix; 4b - marca fiducial; 4c - cuadrados; 4d - cuadrado central;
5. Estructura soporte “U” invertida para las cámaras de video;
6. Estructura soporte frontal;
7. Vehículo;
8. Transportador del vehículo;
9. Codificador de posición o “encoder”;
10. Medios de procesamiento y almacenamiento;
11. Estación total;
12. Puntos fijos de la estructura del túnel de medición;
13. Parámetros intrínsecos;
14. Parámetros extrínsecos;
15. Puntos de referencia del vehículo;
16. Sistema de referencia común -SCE-;
17. Sistema de referencia vehículo -SCV-;
18. Coordenadas 2D XY de un extremo;
19. Coordenadas 3D XYZ de un extremo;
20. Imágenes sincronizadas 2D para los extremos;
21. Imágenes 3D para los extremos;
22. Luces LED;
23. Sección a medir;
24. Extremos de una discontinuidad en una sección;
25. Escaneado de la superficie de vehículo;
A continuación se describe una forma de realización de la invención en relación con las figuras.
En la figura 1 se muestra el túnel de medición 1 de la presente invención para realizar una medición del enrase y la separación entre cualesquiera dos partes de la carrocería de un vehículo. En la figura 1 se observa el túnel de medición 1 y, en el interior del mismo, el chasis del vehículo 7 sobre el transportador 8. El transportador 8 tiene la finalidad de desplazar el vehículo 7 por el interior del túnel de medición 1. El túnel de medición 1 se compone principalmente de las cámaras de video 2 y cercanas a las mismas, las luces LED 22, todas ellas (2,22) están soportadas por la estructura soporte 5 en forma de “U” invertida y también por la estructura soporte frontal 6. Adicionalmente, el túnel de medición 1 tiene el transportador 8 de vehículos, el codificador de posición 9 y los medios de procesamiento y almacenamiento 10. Los medios de procesamiento y almacenamiento 10 son procesadores y memorias configurados para ejecutar los pasos del método descrito en la presente invención así como interconectarse con el resto de elementos que forman el túnel de medición. Por su parte, el codificador de posición 9 sirve para que el túnel de medición 1 pueda conocer en todo momento la posición del vehículo. Esto permite tomar imágenes sincronizadas como de describirá más adelante.
Antes de comenzar el proceso de medición de la distancia en 3D entre partes de un vehículo, es necesario calibrar las cámaras de video 2. La calibración de las cámaras de video 2 consiste en calcular los parámetros intrínsecos y extrínsecos de las cámaras de video.
Para calcular los parámetros intrínsecos, se sitúa un tablero de calibración 3 en el
interior del túnel de medición 1 tal y como se muestra en la figura 2. Sobre la superficie del tablero de calibración 3 se sitúa el patrón de calibración 4 cuya forma se muestra en la figura 3. El patrón de calibración 4 se compone de cuadrados 4c en blanco y negro que se alternan al tresbolillo, semejante a un tablero de ajedrez. El patrón de calibración 4 comprende el código datamatrix 4a y la marca fiducial 4b dispuestos en distintos cuadrados blancos. Los medios de procesamiento y almacenamiento 10 llevan a cabo los siguientes pasos para calcular los parámetros intrínsecos: toman al menos dos imágenes del tablero de calibración 3 con el patrón de calibración 4 mediante las cámaras de video 2; decodifican el código datamatrix 4a para obtener el tamaño del cuadrado 4c, el cuadrado central 4d, el número de filas y el número de columnas del tablero de calibración 3. Con la información anterior, los medios de procesamiento y almacenamiento 10 calculan todas las uniones de los cuadrados a partir del cuadrado central, y con las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara, calculan los parámetros intrínsecos 13 que son: el centro óptico, la distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2).
Respecto de los parámetros extrínsecos, además de utilizar el tablero de calibración 3, se utiliza la estación total 11 según se muestra en la figura 4. En primer lugar, se sitúa el tablero de calibración 3 dentro del túnel de medición 1 en una posición donde sea visible por al menos una cámara de video 2. A continuación, se realiza una medición del tablero de calibración 3 mediante la estación total 11. Esto implica crear el sistema de referencia común - SCE - 15, para lo cual, se realizan mediciones iterativas de cuatro puntos de la estructura del túnel de medición 1 y doce puntos ubicados sobre el tablero de calibración 3 mediante la estación total 11. Es decir, los mismos cuatro puntos del túnel de medición 1 y doce puntos ubicados sobre el tablero de calibración 3 se miden desde distintas posiciones de la estación total 11 respecto del túnel de medición 1. Las distintas posiciones son, de forma preferida, las posiciones que recorrería un vehículo sobre el transportador 8. Dicho de otra manera, la relación entre las mediciones tomadas de los cuatro puntos fijos 12 del túnel de medición 1 y los doce puntos ubicados sobre el tablero de calibración 3 permite crear el sistema de referencia común - SCE- 15. Una vez definido el sistema de referencia común - SCE- 15, hay que referenciar cada cámara de video 2 respecto del sistema de referencia común - SCE- 15 con objeto de poder determinar posteriormente las coordenadas 3D
de un extremo de una parte del vehículo. Para ello, primero se calcula la relación entre el sistema de referencia común -SCE- y el tablero de calibración mediante transformación y estimación de rígidos. Posteriormente, se guarda al menos una imagen del tablero de calibración 3 por cada cámara de video 2, se calcula el sistema de coordenadas local de cada cámara de video 2 y, finalmente, se calcula la transformación del sistema de coordenadas local al sistema de referencia común -SCE-.
Una vez calibradas las cámaras de video 2 y construido el sistema de referencia común -SCE- 16, referenciando las cámaras de video al sistema de referencia común -SCE- 16, se aplica el siguiente paso consistente en calcular las coordenadas 3D por estereovisión de cuatro puntos de referencia 15 de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia como se muestra en las figuras 5 y 6. Como se muestra en la figura 5, sobre cada lateral del vehículo 7, dos cámaras de video 2 toman imágenes del punto de referencia 15 y obtienen las coordenadas 3D del punto de referencia 15 respecto del sistema de referencia común - SCE - 16. Se obtiene por tanto, las coordenadas 3D de dos puntos de referencia 15, uno por cada lado del vehículo. De forma simultánea o secuencial se calculan las coordenadas 3D de otros dos puntos de referencia 15 también a ambos lados del vehículo. Se puede realizar de forma simultánea si hay cámaras de video 2 que puedan tomar imágenes de los otros dos puntos de referencia 15 o de forma secuencial desplazando el vehículo 7 mediante el transportador 8 hasta que las dos cámaras de video 2 puedan tener acceso a los otros dos puntos de referencia 15. Las coordenadas 3D de los puntos de referencia 15 tienen un factor de corrección para eliminar el desplazamiento, para la forma secuencial, que se conoce por el codificador de posición o “encoder” 9 situado en el transportador 8. Para no tener que repetir los pasos descritos para las figuras 5 y 6 para posteriores vehículos iguales a inspeccionar por el túnel de medición 1, los medios de procesamiento y almacenamiento 10 pueden generar patrones de reconocimiento mediante un algoritmo de búsqueda vectorial por contraste.
Una vez calculadas las coordenadas 3D de cuatro puntos de referencia 16 del vehículo 7 respecto del sistema de referencia común - SCE- 16 es posible establecer una correspondencia entre las coordenadas 3D de los cuatro puntos de referencia 15 del vehículo respecto del sistema de referencia común - SCE- 16 y las coordenadas
3D de esos mismos cuatro puntos de referencia 15 del vehículo respecto del sistema de referencia vehículo - SCV - 17 (figura 7), localizando los cuatro puntos de referencia en un archivo de Diseño Asistido por Computadora - CAD - que contiene las medidas/coordenadas del vehículo en 3D. Es decir, se establece correspondencia entre cada uno de los puntos de referencia 15 calculados por las cámaras de video y los mismos puntos de referencia 15 extraídos del archivo CAD.
A continuación se analiza la superficie del vehículo 7 mediante un escaneo 25 (figura 9) de la superficie para detectar las zonas de separación (o secciones) 23 que se desean medir (figura 8). Concretamente, el método de la presente invención calcula las coordenadas 3D de los extremos 24 (figura 9) de la discontinuidad que se genera entre las distintas partes adyacentes del vehículo. Para ello, se lanzan disparos de luz mediante las luces 22, las cuales están sincronizadas con las cámaras de video 2. Los disparos de luz generan reflejo de luz en las partes que componen el vehículo y oscuridad (ausencia de reflejo de luz - ver detalle ampliado figura 10) en la separación (espacio entre los extremos 24 en la figuras 9 y 10) entre dichas partes del vehículo.
Para ello, se toman varias imágenes sincronizadas 2D 20 del vehículo 7 mediante las cámaras de video (figura 10). Las imágenes 2D se dicen que están “sincronizadas” porque para cada imagen “sincronizada”, existe una relación directa entre el identificador -ID- de la imagen, la posición espacial de la cámara de video y la posición espacial del vehículo, ya que el vehículo se encuentra sobre el transportador 8 cuya relación espacial con el túnel de medición 1 se conoce a través del codificador de posición 9. Como se muestra en la figura 10, a cada imagen sincronizada 2D 20 se le aplica un algoritmo de reconocimiento de extremos con el que los medios de procesamiento y almacenamiento pueden calcular las coordenadas X,Y 18 de cada extremo 24 en base al sistema de referencia común -SCE-, asociarlo al identificador - ID - y almacenarlo para su posterior tratamiento.
Una vez se toman varias imágenes (al menos dos) sincronizadas 2D 20 de los extremos 18, se combinan las imágines sincronizadas 2D en imágenes 3D 21 para obtener imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas C,U,Z 19 referenciadas al sistema de referencia común -SCE-. Como se trata de calcular la distancia entre dos partes del vehículo, es decir, las distancia entre los extremos 24 sobre el propio vehículo, se calcula una transformación de las
coordenadas C,U,Z de los extremos en las imágenes 3D del sistema de referencia común -SCE- al sistema de referencia vehículo -SCV- mediante la relación ecuación:
SCV = Inversa (MR) x SCE donde SCV es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-, SCE es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia común -SCE-, MR es la matriz de relación que define la traslación, la rotación y la escala necesaria para pasar del sistema de referencia -SCV- al -SCE-. Con esto se obtiene las coordenadas 3D (C,U,Z) del extremo 19 en la pintura del vehículo 7 en una imagen en 3D referenciada al sistema de referencia vehículo -SCV-.
Claims
1.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, caracterizado por que comprende los siguientes pasos:
• calibrar unas cámaras de video comprendidas en un túnel de medición calculando unos parámetros intrínsecos y unos parámetros extrínsecos de las cámaras de video;
• construir un sistema de referencia común -SCE- para el túnel de medición y referenciar las cámaras de video al sistema de referencia común -SCE-;
• calcular unas coordenadas 3D por estereovisión de al menos cuatro puntos de referencia de un vehículo en base al sistema de referencia común -SCE- obteniéndose las coordenadas C,U,Z de cada punto de referencia;
• calcular las coordenadas C,U,Z de cada punto de referencia en base a un sistema de referencia vehículo -SCV- a partir de un archivo de Diseño Asistido por Computadora -CAD- con las medidas del vehículo en 3-dimensiones;
• lanzar unos disparos, sincronizados con las cámaras de video, de al menos dos luces que generan reflejo de luz en unas partes del vehículo y ausencia de reflejo de luz en una separación entre las partes del vehículo de tal forma que la ausencia de reflejo de luz queda confinada entre unos extremos que sí generan reflejo de luz;
• tomar al menos dos imágenes sincronizadas 2D de las partes del vehículo con ausencia de reflejo mediante las cámaras de video, donde un identificador -ID- de cada imagen sincronizada 2D queda asociado con la posición espacial del vehículo respecto del túnel de medición, y aplicar un algoritmo de reconocimiento de extremos que calcula las coordenadas X,Y de cada extremo así como del identificador -ID- en base al sistema de referencia común -SCE-;
• combinar las imágines sincronizadas 2D en imágenes 3D donde los extremos en las imágenes 3D tienen coordenadas C,U,Z referenciadas al sistema de referencia común-SCE-;
• calcular las coordenadas C,U,Z de los extremos en las imágenes 3D referenciadas al sistema de referencia vehículo -SCV- mediante la relación:
SCV = Inversa (MR) x SCE donde SCV es una matriz que define las coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-; MR es la matriz de relación y SCE es una matriz que define las coordenadas C,U,Z referenciadas al sistema de
referencia común -SCE-;
• calcular un enrase y una separación de las partes del vehículo como la distancia de separación entre los extremos en coordenadas C,U,Z referenciadas al sistema de referencia vehículo -SCV-.
2.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calibrar las cámaras de video adicionalmente comprende los siguientes sub-pasos para calcular los parámetros intrínsecos:
• tomar al menos dos imágenes de un tablero de calibración que comprenda al menos un código datamatrix y una marca fiducial;
• decodificar el código datamatrix para obtener un tamaño del cuadrado, un número de filas y un número de columnas del tablero de calibración;
• determinar un cuadrado central del tablero de calibración en base al código datamatrix;
• calcular todas las uniones de los cuadrados partiendo del cuadrado central;
• calcular un Centro Óptico, una distancia focal, al menos seis parámetros de distorsión Radial (K1-K6) y al menos dos parámetros de distorsión tangencial (P1, P2) en base a las uniones de los cuadrados, el tamaño de la óptica comprendida en las cámaras de video y el tamaño de celda del CCD de la cámara.
3.- Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calibrar las cámaras de video adicionalmente comprende los siguientes sub-pasos para calcular los parámetros extrínsecos:
• situar un tablero de calibración dentro del túnel de medición en una posición donde sea visible por al menos una cámara de video;
• realizar una medición del tablero de calibración mediante una estación total, para lo cual: o medir cuatro puntos fijos sobre la estructura del túnel de medición mediante la estación total; o estacionar iterativamente la estación total obteniendo un sistema de referencia común -SCE- con respecto a un transportador de vehículos por el interior del túnel del inspección;
o medir con la estación total en el sistema de referencia común -SCE- al menos doce puntos auxiliares ubicados sobre el tablero de calibración;
• calcular la relación entre el sistema de referencia común -SCE- y el tablero de calibración utilizando transformación y estimación de rígidos;
• guardar al menos una imagen del tablero de calibración por cada cámara de video;
• calcular un sistema de coordenadas local de cada cámara de video y calcular la transformación del sistema de coordenadas local al sistema de referencia común -SCE- .
4 - Método de medición de enrase y separación de partes de un vehículo mediante túnel de medición, según la reivindicación 1, caracterizado por que el paso de calcular las coordenadas 3D por estereovisión adicionalmente comprende los siguientes sub pasos:
• elegir dos cámaras de video por lateral del vehículo que tengan acceso visual a los cuatro puntos de referencia que van a ser medidos;
• elegir los puntos de referencia a calcular sobre el vehículo teniendo en cuenta el desplazamiento sincronizado del vehículo sobre un transportador respecto del túnel de medición;
• generar patrones de reconocimiento para el reconocimiento de posteriores vehículos iguales mediante un algoritmo de búsqueda vectorial por contraste.
5.- Túnel de medición de enrase y separación de partes de un vehículo, donde el túnel de medición (1) está caracterizado por que comprende:
• cámaras de video (2) para tomar imágenes de un vehículo (7);
• un transportador (8) que desplaza linealmente el vehículo (7) y atraviesa longitudinalmente el túnel de medición (1);
• un codificador de posición (9) que mide el desplazamiento del vehículo (7);
• una estación total (11) que mide unos puntos fijos de la estructura del túnel de medición (12);
• un tablero de calibración (3) sobre el que se sitúa un patrón de calibración (4);
• al menos dos luces (22) sincronizadas con las cámaras de video (2);
• unos medios de procesamiento y almacenamiento (10) que almacenan al menos unas imágenes tomadas por las cámaras de video, unos archivos de Diseño Asistido por Computadora - CAD - de los vehículos y un algoritmo de
reconocimiento de extremos; estando conectados a las luces (22), cámaras de video (2), transportador (8) y codificador de posición (9); y donde los medios de procesamiento y almacenamiento están adaptados para ejecutar los pasos del método de una cualquiera de las reivindicaciones 1 a 4.
6.- Túnel de medición de enrase y separación de partes de un vehículo según la reivindicación 5, caracterizado por que el patrón de calibración (4) está formado cuadrados (4c) dispuestos al tresbolillo; y donde adicionalmente comprende un código datamatrix (4a) y una marca fiducial (4b).
7.- Túnel de medición de enrase y separación de partes de un vehículo según la reivindicación 5, caracterizado por que el túnel de medición (1) adicionalmente comprende una estructura soporte (5) en forma de “U” invertida y una estructura soporte frontal (6) para sustentar las cámaras de visión (2) y las luces (22) en el interior del túnel de medición (1).
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP20879248.1A EP4049920A4 (en) | 2019-10-23 | 2020-07-28 | METHOD OF MEASUREMENT OF FLATNESS AND DISTANCE OF VEHICLE PARTS AND MEASURING TUNNEL |
US17/764,333 US11953310B2 (en) | 2019-10-23 | 2020-07-28 | Method for measuring gap and flush of vehicle parts and measuring tunnel |
CN202080068189.1A CN114502456A (zh) | 2019-10-23 | 2020-07-28 | 用于测量车辆零件的空隙和齐平度的方法以及测量隧道 |
JP2022506341A JP7373053B2 (ja) | 2019-10-23 | 2020-07-28 | 車両部品のギャップ・フラッシュ測定方法及び測定用トンネル |
KR1020227006606A KR102639910B1 (ko) | 2019-10-23 | 2020-07-28 | 차량 부품의 갭 및 플러시의 측정 방법 및 측정 터널 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ESP201930936 | 2019-10-23 | ||
ES201930936A ES2821104B2 (es) | 2019-10-23 | 2019-10-23 | Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2021079018A1 true WO2021079018A1 (es) | 2021-04-29 |
Family
ID=75538890
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/ES2020/070488 WO2021079018A1 (es) | 2019-10-23 | 2020-07-28 | Método de medición de enrase y separación de partes de un vehículo y túnel de medición |
Country Status (8)
Country | Link |
---|---|
US (1) | US11953310B2 (es) |
EP (1) | EP4049920A4 (es) |
JP (1) | JP7373053B2 (es) |
KR (1) | KR102639910B1 (es) |
CN (1) | CN114502456A (es) |
ES (1) | ES2821104B2 (es) |
TW (1) | TW202134098A (es) |
WO (1) | WO2021079018A1 (es) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313695A (en) * | 1989-03-28 | 1994-05-24 | Renault Automation | Process and device for body assembly with lateral tools that can be interpositioned |
GB2375741A (en) * | 1999-12-28 | 2002-11-27 | Honda Motor Co Ltd | Production line construction method body assembly method and body assembly line |
US20040221438A1 (en) * | 2003-05-05 | 2004-11-11 | Savoy Mark A. | Assembly line and method for vehicle body manufacturing |
US20190017847A1 (en) * | 2017-07-12 | 2019-01-17 | Hyundai Motor Company | Vehicle body tracking system and method |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19910699B4 (de) * | 1999-03-10 | 2006-04-27 | Inos Automationssoftware Gmbh | Anordnung zum Messen der Breite eines Spalts, Spaltmessanordnung und Messverfahren |
JP4974489B2 (ja) * | 2005-07-27 | 2012-07-11 | トヨタ自動車株式会社 | 組付け精度計測システム |
FR2922639B1 (fr) * | 2007-10-23 | 2009-12-11 | Peugeot Citroen Automobiles Sa | Procede et dispositif de mesure de jeu et d'affleurement entre des pieces fixees sur un ensemble en l'absence de l'une d'elles |
FR2928453B1 (fr) * | 2008-03-06 | 2011-01-07 | Peugeot Citroen Automobiles Sa | Systeme de mesure de jeux et d'affleurements et procede correspondant |
FR2941043B1 (fr) * | 2009-01-14 | 2010-12-31 | Peugeot Citroen Automobiles Sa | Procede de mesure de jeux et affleurements |
US8872897B2 (en) * | 2011-05-11 | 2014-10-28 | Intel Corporation | Camera calibration using an easily produced 3D calibration pattern |
EP2530647A1 (en) * | 2011-06-01 | 2012-12-05 | Harman Becker Automotive Systems GmbH | Method of calibrating a vehicle vision system and vehicle vision system |
CN103685936A (zh) * | 2012-09-25 | 2014-03-26 | 通用汽车环球科技运作有限责任公司 | 宽视场摄像机图像的校准和扭曲恢复 |
CN107765257A (zh) * | 2017-11-16 | 2018-03-06 | 深圳市唯特视科技有限公司 | 一种基于反射强度辅助外部校准的激光探测与测量方法 |
-
2019
- 2019-10-23 ES ES201930936A patent/ES2821104B2/es active Active
-
2020
- 2020-07-28 KR KR1020227006606A patent/KR102639910B1/ko active IP Right Grant
- 2020-07-28 JP JP2022506341A patent/JP7373053B2/ja active Active
- 2020-07-28 CN CN202080068189.1A patent/CN114502456A/zh active Pending
- 2020-07-28 US US17/764,333 patent/US11953310B2/en active Active
- 2020-07-28 EP EP20879248.1A patent/EP4049920A4/en active Pending
- 2020-07-28 WO PCT/ES2020/070488 patent/WO2021079018A1/es unknown
- 2020-08-18 TW TW109128023A patent/TW202134098A/zh unknown
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5313695A (en) * | 1989-03-28 | 1994-05-24 | Renault Automation | Process and device for body assembly with lateral tools that can be interpositioned |
GB2375741A (en) * | 1999-12-28 | 2002-11-27 | Honda Motor Co Ltd | Production line construction method body assembly method and body assembly line |
US20040221438A1 (en) * | 2003-05-05 | 2004-11-11 | Savoy Mark A. | Assembly line and method for vehicle body manufacturing |
US20190017847A1 (en) * | 2017-07-12 | 2019-01-17 | Hyundai Motor Company | Vehicle body tracking system and method |
Non-Patent Citations (1)
Title |
---|
See also references of EP4049920A4 * |
Also Published As
Publication number | Publication date |
---|---|
JP2022553597A (ja) | 2022-12-26 |
KR102639910B1 (ko) | 2024-02-23 |
US11953310B2 (en) | 2024-04-09 |
ES2821104B2 (es) | 2021-08-23 |
EP4049920A1 (en) | 2022-08-31 |
EP4049920A4 (en) | 2022-12-28 |
US20220333914A1 (en) | 2022-10-20 |
ES2821104A1 (es) | 2021-04-23 |
CN114502456A (zh) | 2022-05-13 |
KR20220075309A (ko) | 2022-06-08 |
JP7373053B2 (ja) | 2023-11-01 |
TW202134098A (zh) | 2021-09-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2326035T3 (es) | Procedimiento optico de determinacion de una dimension o la orientacion de un objeto movil. | |
AU2018282302B2 (en) | Integrated sensor calibration in natural scenes | |
CN103344182B (zh) | 一种基于双目视觉的糖果几何尺寸测量系统和方法 | |
ES2348902T3 (es) | Procedidmiento y sistema para la medicion de la forma de una superficie reflejante. | |
ES2711651T3 (es) | Procedimiento para determinar las coordenadas 3D de un objeto y para calibrar un robot industrial | |
CN108802043B (zh) | 隧道检测装置、检测系统及隧道病害信息提取方法 | |
CN103837084B (zh) | 基于激光光斑成像技术的三向位移量测方法 | |
CN108444449B (zh) | 一种对具有平行线特征的目标空间姿态测量方法 | |
CN114998499B (zh) | 一种基于线激光振镜扫描的双目三维重建方法及系统 | |
Macknojia et al. | Calibration of a network of kinect sensors for robotic inspection over a large workspace | |
CN103149560B (zh) | Ccd成像侧向激光雷达的标定方法 | |
CN106091983A (zh) | 包含扫描方向信息的线结构光视觉测量系统完整标定方法 | |
CN105627948A (zh) | 一种大型复杂曲面测量系统及其应用 | |
CN104567728A (zh) | 激光视觉轮廓测量系统及测量方法、立体靶标 | |
CN103759669A (zh) | 一种大型零件的单目视觉测量方法 | |
EA031929B1 (ru) | Устройство и способ трехмерного измерения поверхности | |
US20130271573A1 (en) | Method and apparatus for determining the 3d coordinates of an object | |
Hui et al. | A novel line scan camera calibration technique with an auxiliary frame camera | |
US11259000B2 (en) | Spatiotemporal calibration of RGB-D and displacement sensors | |
CN116051659A (zh) | 一种线阵相机与2d激光扫描仪联合标定方法 | |
Jiang et al. | Combined shape measurement based on locating and tracking of an optical scanner | |
ES2821104B2 (es) | Metodo de medicion de enrase y separacion de partes de un vehiculo y tunel de medicion | |
CN205352322U (zh) | 一种大型复杂曲面测量系统 | |
ES2436660T3 (es) | Dispositivo de medición y representación de las fuentes de ruido en el interior de un espacio | |
WO2021019111A1 (es) | Método de inspección de defectos en la pintura de un vehículo y túnel de inspección |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 20879248 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022506341 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2020879248 Country of ref document: EP Effective date: 20220523 |