WO2022053089A1 - Fahrzeugoberflächenanalysesystem - Google Patents

Fahrzeugoberflächenanalysesystem Download PDF

Info

Publication number
WO2022053089A1
WO2022053089A1 PCT/DE2021/000127 DE2021000127W WO2022053089A1 WO 2022053089 A1 WO2022053089 A1 WO 2022053089A1 DE 2021000127 W DE2021000127 W DE 2021000127W WO 2022053089 A1 WO2022053089 A1 WO 2022053089A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
vehicle
difference value
image
repair
Prior art date
Application number
PCT/DE2021/000127
Other languages
English (en)
French (fr)
Inventor
Jozsef Bugovics
Dudasz ZSOLT
Hans Schlüter
Original Assignee
Twinner Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE202020003891.1U external-priority patent/DE202020003891U1/de
Priority claimed from DE102020005611.3A external-priority patent/DE102020005611A1/de
Application filed by Twinner Gmbh filed Critical Twinner Gmbh
Priority to US18/245,186 priority Critical patent/US20230360187A1/en
Priority to JP2023516542A priority patent/JP2023542103A/ja
Priority to EP21763228.0A priority patent/EP4211419A1/de
Publication of WO2022053089A1 publication Critical patent/WO2022053089A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8806Specially adapted optical and illumination features
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/20Administration of product repair or maintenance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8887Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges based on image processing techniques

Definitions

  • the invention relates to a vehicle analysis system for the digital detection and evaluation of the surface condition of the vehicle to be detected, in particular a paint surface, and for providing the surface condition as a digital image.
  • the object of the invention is to show a tamper-proof solution for detecting and evaluating the condition of a vehicle surface that is independent of subjective assessments and easy to use, with which different surface types of a vehicle can be detected with the least possible expenditure of time and personnel.
  • the vehicle surface analysis system has a vehicle positioning unit, an optical image acquisition unit and an evaluation unit as main components.
  • the vehicle positioning unit is intended to accommodate a vehicle to be analyzed and to define its spatial position in relation to other components of the system according to the invention.
  • it has a platform and a platform position detection unit.
  • the platform is designed in terms of size and load capacity so that a vehicle can be set up.
  • the vehicle itself is not part of the device according to the invention.
  • Land vehicles, in particular passenger cars, are understood to be vehicles in this sense.
  • the platform is rotatable.
  • the axis of rotation of the platform corresponds to the vertical axis of the installed vehicle, so that the platform is arranged essentially horizontally.
  • the platform thus preferably corresponds to the design of a turntable.
  • the platform position detection unit is designed in such a way that platform position data can be detected with it.
  • the platform position data describe the angular position of the rotatable platform and thus indirectly the angular position of the vehicle that is set up. If the platform is rotated during a detection process, object points of the vehicle that have different coordinates in space at different angular positions can be assigned to one another.
  • the platform position data are made available in a transferrable manner for transmission to the evaluation unit.
  • the vehicle positioning unit and the evaluation unit are data-connected to one another for the transmission of the platform position data.
  • the optical image capturing unit is designed to provide a plurality of, preferably a large number of, image recordings of the surface of the vehicle, with the entire surface of the vehicle being preferably recorded in the first place and secondly, one and the same surface sections are captured by several image recordings at the same time.
  • the optical image capturing unit has a number of individual image capturing units.
  • a plurality of individual image acquisition units is understood to mean that there are at least two individual image acquisition units. Preferably, however, there are at least three or a higher number of individual image acquisition units.
  • the individual image capturing units each have a light radiation source and an image camera.
  • the light radiation source and the imaging camera have a wavelength working spectrum that is matched to one another. This means that the emission spectrum of the light radiation source and the recording spectrum of the video camera at least partially overlap.
  • the wavelength working spectrum of the multiple image capturing individual units differs from each other.
  • the optical image capturing unit preferably has an image capturing unit in the infrared wavelength range (hereinafter also abbreviated as IR), an image capturing unit in the visible wavelength range and an image acquisition unit in the ultraviolet wavelength range (hereinafter also abbreviated as UV).
  • IR infrared wavelength range
  • UV ultraviolet wavelength range
  • further image acquisition units in further wavelength ranges can also be present.
  • the wavelength range from 380 nm to 780 nm is understood as visible light.
  • IR is the wavelength range above 780 nm
  • UV is the wavelength range below 380 nm.
  • the light radiation source can preferably be an LED, which advantageously has a narrow-band emission spectrum that can be precisely determined.
  • the spectrum reflected by the vehicle surface depends both on the properties of the vehicle surface and on the spectrum impinged on by the light radiation source.
  • a precisely definable emission spectrum can be used on the basis of the reflected spectrum obtained high analysis quality in relation to the properties of the vehicle surface can be achieved.
  • the reflected spectrum is recorded by the associated image camera as an image recording, with the associated image camera being matched in its working spectrum to the emission spectrum of the light radiation source.
  • the wavelength working spectra of the multiple image capturing units differ from each other. This means that the light radiation source of the respective individual image capturing units have different emission spectra and that the video cameras also have different working spectra, the working spectrum of each video camera being matched to the respectively associated light radiation source.
  • each of the individual image capturing units is designed to have a plurality of different radiation energy levels of the light radiation source.
  • a plurality of different radiation energy levels is preferably understood to mean at least two different radiation energy levels.
  • the invention also covers the fact that the light radiation source is supplied with different power and thus shines with a different level of luminous flux, as well as that, for example, a light radiation source has a plurality of LEDs, with a different number of LEDs depending on the radiation energy level to be set switched on.
  • light-directing devices for example through lenses or screens.
  • the different levels of radiation energy applied to the respective detection area of the vehicle surface are decisive.
  • the respective radiation energy level is particularly preferably defined by the evaluation unit.
  • the light radiation source receives a control signal from the evaluation unit for this purpose, which can be transmitted via a separate connection or optionally also via the existing data connection between the respective individual image acquisition unit and the evaluation unit.
  • All image capturing individual units provide surface coordinates directly and spatial coordinate data of object points of the vehicle surface indirectly via the inclusion of platform position data.
  • the spatial coordinate data of all individual image capturing units of the optical image capturing unit are related to one and the same spatial coordinate system. To this end, the individual image acquisition units are calibrated in the same spatial coordinate system. This is also referred to below as the uniform spatial coordinate system.
  • Each image capturing unit has an image capturing area.
  • the image capture area includes at least sections of the surface of the vehicle.
  • the image capture areas of the individual image capture units overlap and form a common image capture area.
  • the platform is positioned in such a way that a parked vehicle is located at least in sections in the common image capture area.
  • the vehicle is rotated by means of the vehicle positioning unit.
  • detection processes are carried out sequentially, so that detections are carried out in a large number of different angular positions of the platform and thus of the vehicle, also referred to below as detection angles.
  • Each image recording represents an individual recording.
  • the different individual recordings are therefore carried out in relation to a specific object point, firstly by different individual image recording units and thus in different wavelength working spectra, secondly by one and the same image socket single unit with different radiant energy levels and thirdly with different coverage angles.
  • the image acquisition unit has a positioning unit.
  • the positioning unit establishes a fixed positional relationship between the individual image capturing units and between the individual image capturing units and the vehicle positioning unit. It is preferably a rack or a frame.
  • the positioning unit can also be formed by an enclosure.
  • markings are preferably arranged in the common image capturing area in order to enable calibration of the individual image capturing units in the same uniform spatial coordinate system.
  • the markings are preferably attached to the inside of an enclosure.
  • each of the individual image capturing units is further characterized in that pixel data of object points of the vehicle can be captured in an image recording and can be made available in a manner that can be transmitted to the evaluation unit.
  • the image acquisition units are designed in such a way that the image point data obtained by means of the image acquisition firstly have coordinate data of the object points and secondly wavelength-related and radiation energy level-related light intensity value data.
  • the pixel data of an object point are preferably combined as data tuples (x, y, g) and processed further.
  • the coordinate data is in the form of area coordinate data (x, y). They can then be assigned to the spatial coordinates of the common spatial coordinate system by the evaluation unit.
  • wavelength-related light intensity value data means that the light intensity value data of the images recorded by the video cameras of different individual image capturing units are determined by the respective wavelength working spectra.
  • the light intensity value data from the different individual image capturing units can differ for one and the same object point.
  • Radiant energy level-related light intensity value data in the sense of the present invention is understood to mean that the light intensity value data of the images recorded by the image cameras of the same individual image capturing units are determined by the applied radiant energy level.
  • the light intensity value data from the different image recordings of the same individual image acquisition units for one and the same object point differ, as expected, at different radiation energy levels.
  • the evaluation unit has a difference value generation module, a difference value evaluation module, an overall evaluation module and a generation module.
  • the evaluation unit is preferably designed as a computer with computer programs.
  • the evaluation unit receives the pixel data from the optical image acquisition unit and the platform position data from the vehicle positioning unit.
  • the difference value generation module generates difference value data from the different light value intensity value data.
  • the difference value module is designed to assign the light intensity value data of the image recording for an object point using the associated coordinate data to the light intensity value data of at least one other image recording for the same object point.
  • the data tuple (x, y, g1) of a first recorded image and the data tuple (x, y, g2) of a second recorded image are combined to form a data tuple (x, y, g1, g2).
  • the association can be related in particular to those images recorded by different individual image recording units that were recorded with the same radiation energy level.
  • the images are based on different wavelength working spectra.
  • a multiple assignment to take place in the sense that, for example, a first recorded image is assigned in a first assignment to a further recorded image that was recorded by the same individual image capturing unit but with a different radiation energy level, and that then the same first recorded image is assigned in a second assignment to a further recorded image of a different individual image capturing unit.
  • the difference value generation module is designed to compare the light intensity value data in a light intensity value data comparison after assignment has taken place and to generate difference value data from this, and to provide the difference value data for the difference value evaluation module. Difference value data can thus be provided from each assignment.
  • the difference value evaluation module is designed to carry out an evaluation of a data quality of the difference value data. On the basis of the evaluation, this differential value data is categorized using an adjustable quality value. If the difference value data reaches the adjustable quality value of the data quality, it is categorized as usable difference value data. If the difference value data falls short of the quality value, it is categorized as difference value data that cannot be used.
  • the adjustable quality value can be defined, for example, by allowable deviations in difference values from neighboring object points.
  • the difference values are generated and difference value evaluated in relation to each object point used and for each image recorded by the different individual image acquisition units.
  • the difference value generation module and the difference value evaluation module carry out a large number of difference value evaluations. It is possible for the difference value generation module and the difference value evaluation module to each have multiple configurations. It is both possible that the difference value generation module elements and the difference value evaluation module elements process the pixel data from the image recordings in parallel, as well as that a separate sequential processing is carried out by one and the same module or module element with subsequent intermediate storage.
  • the usable differential value data from the above-described acquisition for this specific object point, the differential value generation and the subsequent differential value evaluation are transmitted to the overall evaluation module and form the basis for an overall evaluation of all usable differential value data for this object point
  • the total evaluation module assigns the usable difference value data from the difference value evaluation module and thus from the individual image capturing units to one another.
  • the overall evaluation module is designed in such a way that a comparison of the quality value of the usable difference value data from a difference value generation can be carried out with the quality value of the usable difference value data from a further difference value generation.
  • an object point-related weighting for example as a rank categorization, can be carried out for the usable difference value data of the difference value generations as a function of the quality value. For example, it is possible to assign a weighting factor to the difference value data according to the rank categorization. For example, the difference value data for a specific object point with the highest quality value receives the highest weighting factor. Difference value data on that particular object point with a lower quality value is only given a low weighting factor.
  • the weighting factor can be used for subsequent processing are used and in particular help determine how the different weighted difference value data are related to one and the same object point.
  • the weighted difference value data is made available to the generation module in a transferrable manner.
  • the weighting is therefore based on an evaluation of the quality of the difference value data using the quality value.
  • the quality can be evaluated in absolute terms or relative to the recorded data quality of the differential value data.
  • algorithms that include an "n - to - n" relation in the quality assessment can also be used. This makes it possible, for example, if the quality of the difference value data from a difference value generation from individual recordings from one detection angle is low, through the use of the difference value data from difference value generations from individual recordings from several detection angles, or if the quality of the difference value data from a difference value generation from individual recordings in a radiation energy level is low, through the use of the difference value data from difference value generations from several different radiation energy levels in each case to the same object point to increase the resulting quality of the analysis.
  • a plausibility check can be carried out by the overall evaluation module. If at least three weighted difference value data are available for one and the same object point, the overall evaluation module can carry out a comparison of the weighted difference value data available for a specific object point and be designed in such a way that from an adjustable degree of deviation of the first weighted difference value data from the second and third weighted difference value data, the first weighted difference value data are discarded and no longer made available to the generation module in a transferrable manner.
  • the generation module is designed in such a way that it combines the coordinate data from the weighted differential value data of the individual image capturing units, including the platform position data, into a uniform spatial coordinate system assigns. With different angular positions of the platform, different coordinate data of the weighted differential value data of one and the same object point of the vehicle are available. Nevertheless, all weighted differential value data that relate to one and the same object point can be unambiguously assigned to this object point, since the evaluation unit also knows the platform coordinate data.
  • a digital surface contour image of the vehicle is first generated in the uniform spatial coordinate system.
  • the digital surface contour image generated in this way is initially based only on the coordinate data.
  • the generation module now supplements the digital surface contour image of the vehicle by adding the further data from the weighted difference value data using the coordinate data to form a digital surface condition image of the vehicle.
  • the other weighted difference value data is the data from the data tuples which are not coordinate data, that is, in particular, data on the differences in light intensity values, data on weighting, data on wavelengths and radiant energy levels, and so on.
  • the digital surface texture image is provided in an outputtable manner.
  • the digital surface condition map provides comprehensive information on the overall condition, damage and previous touch-ups and repairs related to the vehicle surface.
  • a further advantage lies in the non-contact determination of the properties under conditions in which all potentially disruptive or falsifying influences can be excluded.
  • the vehicle surface analysis system enables the generation of a uniform digital surface texture image of a vehicle on the basis of several different image acquisition units.
  • Pixel data from individual acquisitions of different individual image acquisition units are available for one and the same object point.
  • the individual image capture units can support each other.
  • images in a specific wavelength range can provide a high quality of information for certain sections of the vehicle surface, but not for other sections, while conversely images with a different wavelength range provide a particularly high quality of information for these other sections.
  • the vehicle surface analysis system independently recognizes the quality and thus the suitability for use of the pixel data from different images and uses the pixel data that provide a higher quality of the digital surface texture image.
  • the pixel data are advantageously first set in a subtractive association by generating difference values. A cumulative assignment of the difference values then takes place in order to further improve the quality of the analysis result.
  • the digital surface texture image enables the vehicle to be displayed in different views, for example with closed or open doors, and in different perspectives, for example as a 360° view.
  • a particular advantage lies in the fact that a digital image of the vehicle can be obtained as a result, which has an adequate database, in particular for the following two important applications.
  • the digital surface condition image is suitable for detecting vehicle damage and from this automatically determining the necessary repair measures, specifying the required spare parts and necessary work steps and deriving the repair costs, whereby everything can be done in digital form. It is particularly advantageous here that special damage concealed by overcoating can be found and displayed.
  • further processing of the digital image can be used to carry out an automated vehicle evaluation, for example to support long-distance sales of used vehicles.
  • additional data such as vehicle age, mileage, number of previous owners and other value-determining factors can be included in the automated calculation of the vehicle value.
  • vehicle surface analysis system can be provided with different individual image acquisition units or only specific image acquisition units can be involved in the image acquisition.
  • the basis of the vehicle surface analysis system according to the invention is in particular that all individual image acquisition units and thus all image recordings are calibrated to one and the same coordinate system.
  • the pixel data are recorded multiple times both due to the different design of the image recording units and insofar as recording can be carried out in different angular positions as a result of the rotational movement of the vehicle on the platform.
  • the quality from the recorded pixel data is increased because uncertain statements from an individual acquisition can also be used by including other uncertain statements from one or more further individual acquisitions.
  • the digital surface texture image can advantageously be represented as several layers, which is why this is also referred to as multi-layer information.
  • Each layer contains different types of information, for example one layer for surface damage and another layer for hidden repairs of previous damage.
  • the viewer or, for example, a vehicle assessor receives more information than with a purely pictorial representation of the surface of the vehicle.
  • the result of the vehicle surface detection is provided as a digital surface texture map with multiple types of information, such that the digital surface texture map is configured to represent a digital twin of the surface of the detected vehicle.
  • the digital surface texture image as a digital twin also enables the information aggregated in it to be further processed automatically, for example for a repair calculation.
  • the vehicle surface analysis system has an enclosure.
  • the vehicle positioning unit is arranged within the housing.
  • the housing has the advantage that defined lighting conditions can be achieved in the detection processes both in the visible and in the non-visible spectrum and, in particular, sources of interfering light are shielded. The accuracy of the detected object data can thus advantageously be increased.
  • the environment and in particular the personnel are protected from light sources of the individual image capturing units, which is particularly relevant in the case of UV light radiation sources with a higher radiation energy level.
  • the housing can at the same time completely or partially form the positioning unit of the optical image capturing unit and fix the positional relationship of the individual image capturing units.
  • the optical image acquisition unit is preferably also arranged within the housing.
  • the vehicle detection system has a comparison module.
  • the comparison module has a database with data on a normative digital image.
  • the database can be used as an internal database or also available as an external database.
  • an external database enables central data maintenance.
  • the normative digital image describes a vehicle of the same type as it was originally manufactured.
  • the comparison module is designed to carry out a comparison between the digital surface texture image and the normative surface texture image and to generate a digital difference image.
  • the digital difference image describes the extent to which the condition of the vehicle whose vehicle condition is being recorded deviates from the original manufacturing condition of the vehicle surface.
  • the digital difference image thus shows in particular the degree of aging, damage and repairs to the surface, i.e. in particular paint repairs and overpainting of damage lying beneath the surface.
  • an output can be made as a status report.
  • This vehicle condition information can also be a basis for statements about necessary repairs, especially paint repairs, or about the value of the vehicle in question.
  • the vehicle detection system has a repair calculation module.
  • the repair calculation module has a database with repair data, the repair data having data on repair work times and repair costs, and possibly also on spare parts such as plastic parts of the vehicle surface.
  • This database can also be present as an internal database or as an external database.
  • Repair data on spare parts includes which spare parts are required for a repair in the event of which damage.
  • Repair labor time data includes the repair times, typically referred to as labor values, required to complete a repair.
  • Repair cost data indicates the prices at which replacement parts are available and the prices at which repair labor is available. The repair costs are therefore preferably stored in the database as unit prices.
  • the repair calculation module is designed to create a repair evaluation on the basis of the digital difference image and the repair data, the repair evaluation having spare parts required for a repair, repair work times to be expended and repair costs.
  • the vehicle detection system has a value determination module.
  • the valuation module has a database with vehicle price data. It also applies here that this database can exist as an internal database or as an external database.
  • Vehicle price data is understood to mean, for example, list prices depending on the vehicle configuration, price tables depending on the vehicle age, mileage, number of previous owners and any additional price data.
  • the value determination module is designed to create a value determination on the basis of the vehicle price data, the digital surface condition image, the digital difference image and the repair data.
  • This can preferably be an impairment or increase in value based on the surface condition, which expresses the extent to which the surface condition of the vehicle is above or below the average of comparable vehicles in relation to the age of the vehicle.
  • FIG. 1 Schematic representation in top view
  • FIG. 2 Schematic diagram of image recordings from detection processes
  • FIG. 3 Block diagram with repair calculation module and value determination module explained in more detail.
  • FIG. 1 shows a first exemplary embodiment of the vehicle surface analysis system in a schematic representation.
  • the vehicle 4 can be fixed in its positional relationship relative to the optical image acquisition unit 2 by means of a vehicle positioning unit.
  • the vehicle positioning unit 1 has a rotatable platform 11 .
  • the vehicle 4 can be driven onto this as intended.
  • the arrow illustrates the rotatability of the platform 11.
  • Another element of the vehicle positioning unit 1 is the platform position detection unit 12. It detects the rotational position and thus the angular position of the platform 11 and transmits this to the evaluation unit 3 using a wired data connection.
  • FIG. 1 also shows the optical image capturing unit 2.
  • this has three individual image capturing units 21.
  • FIG. Each of the individual image capturing units has a light radiation source 211 and an image camera 212 .
  • a first of the three individual image capturing units 21 has an infrared light radiation source and an infrared image camera
  • a second of the three individual image capturing units 21 has a light radiation source and an image camera, each in the visible light wavelength range
  • a third of the three individual image capturing units 21 has an ultraviolet light radiation source and a Ultraviolet camera trained.
  • each individual image capturing unit 21 is oriented in such a way that the vehicle 4 located on the platform 11 is captured by it.
  • the image capture areas 22 overlap.
  • the positioning unit 23 is designed as a frame.
  • the individual image capturing units 21 are rigidly mounted on this and are thus fixed in their positional relationship to one another and to the platform 11 .
  • This design makes it possible for all pixel data recorded by the individual image recording units 21 to be assigned to object points of the vehicle to a uniform spatial coordinate system after the calibration has taken place.
  • the vehicle surface analysis system has a housing 2 which is impermeable to the wavelength ranges of all three individual image acquisition units.
  • the vehicle positioning unit 1 and the optical image acquisition unit 2 are arranged in the interior of the housing 5 .
  • This has a closable opening (not shown in FIG. 1) through which the vehicle 4 can be driven into the interior onto the platform 11 and can be driven out again after detection has taken place.
  • evaluation unit 3 which, in the exemplary embodiment, is a computer system consisting of a computer with software.
  • the evaluation unit 3 is connected to the three individual image acquisition units 21 via data connections and receives the pixel data of the object points of the vehicle surface of the vehicle 4 from image recordings, also called individual recordings. (The data connections to the evaluation unit 3 from the individual image acquisition units 21 and from the platform position acquisition unit 12 are shown without reference numbers.)
  • the evaluation unit 3 has a difference value generation module 31 , a difference value evaluation module 32 , an overall evaluation module 33 and a generation module 34 .
  • the individual recorded images are assigned by means of the difference value generation module 31 .
  • the difference value generation module 31 is designed in such a way that the images recorded by the different individual image acquisition units 21 are assigned, i.e. with different wavelength working spectra but the same radiation energy level in each case, and that the difference in the light intensity values is determined from each assignment and made available as a difference value .
  • the difference value evaluation module 32 receives the difference values from the difference value generation module 31 and is designed to carry out an evaluation of the data quality of the difference values. Each of the difference values obtained is evaluated on the basis of a comparison with difference values for neighboring object points as to whether it is a plausible difference value. A difference value that meets this criterion is categorized as usable in the present exemplary embodiment and forwarded to the overall evaluation module 33 as a usable difference value. Otherwise, the difference value is categorized as not usable and is therefore discarded and not forwarded. In this way, all difference values obtained are processed sequentially by the difference value evaluation module 32 .
  • the difference value evaluation module 32 thus provides the feature that only sufficiently reliable data is entered into the surface condition image of the vehicle received, so that the surface condition image has a high degree of reliability.
  • the usable difference value data received from the difference value evaluation module 32 are assigned to one another and evaluated in relation to one another on the basis of the coordinate data for the object points.
  • the assignment of the differential value data that can be used as belonging to the same object point is based on the fact that the evaluation unit 3 is assigned an assignment by the defined position of the individual image acquisition units 21 based on their position determination by the positioning unit 23 and by means of the platform position detection unit 12 a uniform spatial coordinate system for all individual image capturing units 21 is possible.
  • the overall evaluation module 33 in the present exemplary embodiment carries out a comparison of the quality value of the usable difference value data.
  • the compared usable differential value data are sorted according to the rank of the quality value, for example, and a weighting factor is assigned to them.
  • the usable difference value data with the highest quality value receive the highest weighting factor and vice versa.
  • the weighting factor corresponds to the quality value.
  • the usable difference value data for each detected object point is provided to the generation module 34 together with the weighting factor.
  • the generation module 34 assigns the coordinate data from the differential value data that can be used, including the platform position data, to the uniform spatial coordinate system.
  • a digital surface contour image of the vehicle 4 is first generated in the uniform spatial coordinate system.
  • the digital surface contour image is formed by a point cloud that corresponds to the geometry of the vehicle surface.
  • the further data from the weighted difference value data are then added to the digital surface contour image of the vehicle 4 using the coordinate data, and a digital surface texture image of the vehicle 4 is thus generated.
  • This digital surface texture image is then made available for output.
  • the digital image is transmitted as a file.
  • the digital surface texture image can also be visualized on a monitor as a data output unit.
  • the digital surface texture image goes beyond mere visualization.
  • FIG. 2 shows a possible system of recording images from detection processes.
  • the abscissa represents the wavelength A and the ordinate the radiation energy level E.
  • the images are recorded by three individual image acquisition units 21, the first individual image acquisition unit 21 in the wavelength working spectrum A1 in the UV range, the second individual image acquisition unit 21 in the wavelength working spectrum A2 in the visible light range and the third image acquisition unit 21 operates in the wavelength working spectrum A3 in the IR range.
  • Each of the image capturing units generates three image recordings with different radiant energy levels E1, E2 and E3.
  • the recorded images A1E1 to A3E3 are transmitted to the evaluation unit.
  • an assignment is first made within a working wavelength spectrum and the difference value generation module thus forms a difference value from recorded images A1E1 and A1E2 and also a further difference value from recorded images A1E2 and A1E3.
  • difference values are formed from the image recordings A2E1 and A2E2 as well as from A2E2 and A2E3 and so on.
  • additional difference values are formed between the image recordings of different wavelength working spectra but the same radiation energy levels, such as from the image recordings A1E1 and A2E1 and so on.
  • difference values from any “n-to-n” assignments such as A1 E2 and A3E3 are also possible.
  • FIG. 3 shows a further exemplary embodiment in a representation as a block diagram, in which case both a repair assessment and a valuation can be carried out.
  • the comparison module 35 contains a database 351 as a database with data on normative digital surface texture images of many vehicle models in different configurations, the normative surface texture image of the detected vehicle 4 also being included. This database is regularly supplemented with new vehicle models appearing on the market.
  • the comparison module 35 uses the digital surface texture image to identify the vehicle model of the detected vehicle 4 and makes a comparison between the digital surface texture image of the detected vehicle 4 that it received from the generation module 34 and the normative surface texture image of the corresponding model that it extracted from the database 351 and generates a digital difference image.
  • the digital difference image contains the information about deviations of the detected vehicle 4 from an originally manufactured vehicle, so that hidden damage in particular can be identified.
  • the digital difference image is made available both to the repair evaluation module 36 and in parallel to the value determination module 37 .
  • the repair calculation module 36 has a database 361 with repair data.
  • the repair data is model-related data on spare parts, repair work times and repair costs, with the repair costs being stored as unit prices.
  • the repair evaluation module determines which spare parts are required for a repair and which repair working hours are to be expended as well as what repair costs are incurred according to the stored unit prices and outputs this as a repair evaluation.
  • the commercial value of the recorded vehicle 4 can be determined cumulatively or alternatively by means of the value determination module 37 .
  • the valuation module 37 has a database 371 with vehicle price data.
  • the vehicle price data contains in particular data on list prices and age- and mileage-dependent market prices of many vehicle models, with data on the model of the vehicle 4 being recorded also being contained.
  • the valuation module 37 creates a vehicle valuation on the basis of the vehicle price data, the digital difference image and the repair data.
  • additional vehicle data such as the number of previous owners, can also be entered manually via the digital image and the digital difference image and taken into account by the valuation module 37 when creating the vehicle valuation. Reference signs used

Abstract

Die Erfindung betrifft ein Fahrzeugoberflächenanalysesystem aufweisend eine Fahrzeugpositionierungseinheit, eine optische Bilderfassungseinheit und eine Auswertungseinheit. Die Fahrzeugpositionierungseinheit weist insbesondere eine drehbare Plattform zum Aufstellen eines Fahrzeugs auf. Die Bilderfassungseinheit weist mehrere Bilderfassungseinzeleinheiten auf, die mit unterschiedlichen Wellenlängenarbeitsspektren und Strahlungsenergieniveaus arbeiten und eine Anzahl von Bildaufnahmen erzeugen. Die Auswertungseinheit weist ein Differenzwerteerzeugungsmodul, ein Differenzwertebewertungsmodul, ein Gesamtbewertungsmodul und ein Generierungsmodul auf und ist ausgebildet, ein digitales Oberflächenbeschaffenheitsabbild des Fahrzeugs bereitzustellen.

Description

Fahrzeugoberflächenanalysesystem
Die Erfindung betrifft ein Fahrzeuganalysesystem zur digitalen Erfassung und Bewertung der Oberflächenbeschaffenheit des zu erfassenden Fahrzeugs, insbesondere einer Lackoberfläche, sowie zur Bereitstellung der Oberflächenbeschaffenheit als ein digitales Abbild.
Aus dem Stand der Technik ist es dem Grunde nach bekannt, Fahrzeugoberflächen, insbesondere den Fahrzeuglack auf dessen Zustand zu überprüfen. Beispielsweise ist es bekannt, Lackschichtdickenmessungen mittels magnetinduktiver Verfahren durchzuführen. Nachteilig ist hierbei, dass diese bei nichtmagnetischen Fahrzeugbereichen nicht durchgeführt werden können. Ferner sind aus dem Stand der Technik Lackschichtmessgeräte mittels des Wirbelstromverfahrens bekannt. Diese können auch bei nichtmagnetischen Untergründen wie beispielsweise Aluminium eingesetzt werden. Als Nachteil verbleibt, dass eine Messung auf nichtmetallischen Untergründen wie beispielsweise an Kunststoffstoßstangen nicht möglich ist. Ferner liefern solche nach dem Stand der Technik bekannte Messgeräte lediglich eine Information über die Lackdicke, nicht jedoch über weitere Parameter, die für eine Beurteilung des Zustands relevant sein können. Nachteilig ist zudem, dass die Bestimmung lediglich punktuell und manuell erfolgt und es sich nicht um eine berührungslose Technologie handelt.
Die Aufgabe der Erfindung ist es, eine manipulationssichere, von subjektiven Beurteilungen unabhängige und einfach zu bedienende Lösung für die Erfassung und Bewertung des Zustands einer Fahrzeugoberfläche aufzuzeigen, mit der unterschiedliche Oberflächenarten eines Fahrzeugs mit möglichst geringem Zeit- und Personalaufwand erfassbar sind.
Die Aufgabe wird durch ein Fahrzeugoberflächenanalysesystem mit den im Patentanspruch 1 aufgeführten Merkmalen gelöst. Bevorzugte Weiterbildungen ergeben sich aus den Unteransprüchen. i
BESTÄTIGUNGSKOPIE Das erfindungsgemäße Fahrzeugoberflächenanalysesystem weist als Hauptkomponenten eine Fahrzeugpositionierungseinheit, eine optische Bilderfassungseinheit und eine Auswertungseinheit auf.
Die Fahrzeugpositionierungseinheit ist erfindungsgemäß dazu bestimmt, ein zu analysierendes Fahrzeug aufzunehmen und dessen räumliche Position in Bezug zu weiteren Komponenten des erfindungsgemäßen Systems zu definieren. Hierzu weist dies eine Plattform und eine Plattformpositionserfassungseinheit auf.
Die Plattform ist nach Größe und Belastbarkeit so ausgebildet, dass ein Fahrzeug aufstellbar ist. Das Fahrzeug selbst ist nicht Bestandteil der erfindungsgemäßen Vorrichtung. Als Fahrzeuge in diesem Sinne werden Landfahrzeuge, insbesondere Personenkraftwagen, verstanden. Die Plattform ist drehbar ausgebildet. Die Drehachse der Plattform entspricht der Vertikalachse des aufgestellten Fahrzeugs, so dass die Plattform im Wesentlichen waagerecht angeordnet ist. Die Plattform entspricht damit vorzugsweise der Bauform eines Drehtellers.
Die Plattformpositionserfassungseinheit ist so ausgebildet, dass mit ihr Plattformpositionsdaten erfassbar sind. Die Plattformpositionsdaten beschreiben die Winkelstellung der rotierbaren Plattform und damit mittelbar die Winkelstellung des aufgestellten Fahrzeugs. Wird die Plattform während eines Erfassungsvorgangs gedreht, können so Objektpunkte des Fahrzeuges, die bei unterschiedlichen Winkelstellungen unterschiedliche Koordinaten im Raum aufweisen, einander zugeordnet werden. Die Plattformpositionsdaten werden für die Übertragung an die Auswertungseinheit übertragbar bereitgestellt. Für die Übertragung der Plattformpositionsdaten sind die Fahrzeugpositionierungseinheit und die Auswertungseinheit miteinander datenverbunden.
Die optische Bilderfassungseinheit ist ausgebildet, mehrere, vorzugsweise eine hohe Anzahl von Bildaufnahmen von der Oberfläche des Fahrzeugs bereitzustellen, wobei hierbei erstens vorzugsweise die gesamte Oberfläche des Fahrzeugs erfasst wird und zweitens ein und dieselben Oberflächenabschnitte durch mehrere Bildaufnahmen zugleich erfasst werden.
Hierfür weist die optische Bilderfassungseinheit mehrere Bilderfassungseinzeleinheiten auf. Erfindungsgemäß wird unter mehreren Bilderfassungseinzeleinheiten verstanden, dass mindestens zwei Bilderfassungseinzeleinheiten vorliegen. Vorzugsweise handelt es sich jedoch mindestens um drei oder um eine höhere Anzahl von Bilderfassungseinzeleinheiten.
Die Bilderfassungseinzeleinheiten weisen jeweils eine Lichtstrahlungsquelle und eine Bildkamera auf. Die Lichtstrahlungsquelle und die Bildkamera weisen ein aufeinander abgestimmtes Wellenlängenarbeitsspektrum auf. Dies bedeutet, dass sich das Emissionsspektrum der Lichtstrahlungsquelle und das Aufnahmespektrum der Bildkamera zumindest teilweise überdecken. Das Wellenlängenarbeitsspektrum der mehreren Bilderfassungseinzeleinheiten unterscheidet sich dabei voneinander.
Vorzugsweise weist die optische Bilderfassungseinheit eine Bilderfassungseinzeleinheit im Infrarot-Wellenlängenbereich (nachfolgend auch verkürzt IR genannt), eine Bilderfassungseinzeleinheit im sichtbaren Wellenlängenbereich und eine Bilderfassungseinheit im Ultraviolett-Wellenlängenbereich (nachfolgend auch verkürzt UV genannt) auf. Es können aber auch weitere Bilderfassungseinheiten in weiteren Wellenlängenbereichen vorhanden sein. Als sichtbares Licht wird der Wellenlängenbereich von 380 nm bis 780 nm verstanden. Als IR wird der Wellenlängenbereich über 780 nm und als UV der Wellenlängenbereich unter 380 nm verstanden.
Bei der Lichtstrahlungsquelle kann es sich vorzugsweise um eine LED handeln, welche vorteilhaft ein präzise bestimmbares und engbandiges Emissionsspektrum aufweist. Das von der Fahrzeugoberfläche reflektierte Spektrum ist sowohl abhängig von den Eigenschaften der Fahrzeugoberfläche als auch von dem durch die Lichtstrahlungsquelle beaufschlagten Spektrum. Durch ein exakt definierbares Emissionsspektrum kann auf der Basis des erhaltenen reflektierten Spektrums eine hohe Analysequalität in Bezug auf die Eigenschaften der Fahrzeugoberfläche erzielt werden.
Das reflektierte Spektrum wird von der zugehörigen Bildkamera als Bildaufnahme aufgenommen, wobei die zugehörige Bildkamera in ihrem Arbeitsspektrum auf das Emissionsspektrum der Lichtstrahlungsquelle abgestimmt ist.
Erfindungsgemäß unterscheiden sich die Wellenlängenarbeitsspektren der mehreren Bilderfassungseinzeleinheiten voneinander. Dies bedeutet, dass die Lichtstrahlungsquelle der jeweiligen Bilderfassungseinzeleinheiten unterschiedliche Emissionsspektren aufweisen und dass die Bildkameras ebenfalls unterschiedliche Arbeitsspektren aufweisen, wobei das Arbeitsspektrum einer jeden Bildkamera auf die jeweils zugeordnete Lichtstrahlungsquelle abgestimmt ist.
Durch die unterschiedlichen Wellenlängenarbeitsspektren werden von ein und demselben Objektpunkt der Fahrzeugoberfläche unterschiedliche reflektierte Spektren erhalten, die in den jeweiligen Bildaufnahmen für eine Analyse zur Verfügung stehen.
Weiterhin ist erfindungsgemäß jede der Bilderfassungseinzeleinheiten dafür ausgebildet, mehrere unterschiedliche Strahlungsenergieniveaus der Lichtstrahlungsquelle aufzuweisen. Als mehrere unterschiedliche Stahlungsenergieniveaus werden vorzugsweise mindestens zwei unterschiedliche Strahlungsenergieniveaus verstanden. Hierbei ist es von der Erfindung in gleicher Weise erfasst, dass die Lichtstrahlungsquelle mit unterschiedlicher Leistung beaufschlagt wird und so mit einem unterschiedlich hohen Lichtstrom leuchtet, als auch dass beispielsweise eine Lichtstrahlungsquelle eine Mehrzahl von LED aufweist, wobei je nach einzustellendem Strahlungsenergieniveau eine unterschiedliche Anzahl von LED zugeschaltet wird. Ebenfalls umfasst sind lichtlenkenden Einrichtungen, beispielsweise durch Linsen oder Blenden. Maßgeblich ist das auf den jeweiligen Erfassungsbereich der Fahrzeugoberfläche jeweils applizierte unterschiedlich hohe Strahlungsenergieniveau. Besonders bevorzugt wird das jeweilige Strahlungsenergieniveau durch die Auswertungseinheit festgelegt. Nach diesem Aspekt der Erfindung erhält die Lichtstrahlungsquelle hierzu ein Steuersignal von der Auswertungseinheit, welches über eine separate Verbindung oder optional auch über die ohnehin bestehende Datenverbindung zwischen der jeweiligen Bilderfassungseinzeleinheit und der Auswertungseinheit übertragen werden kann.
Alle Bilderfassungseinzeleinheiten stellen unmittelbar Flächenkoordinaten und mittelbar über die Einbeziehung von Plattformpositionsdaten Raumkoordinatendaten von Objektpunkten der Fahrzeugoberfläche bereit. Die Raumkoordinatendaten aller Bilderfassungseinzeleinheiten der optischen Bilderfassungseinheit sind auf ein und dasselbe Raumkoordinatensystem bezogen. Hierzu werden die Bilderfassungseinzeleinheiten in dasselbe Raumkoordinatensystem kalibriert. Dieses wird nachfolgend auch als das einheitliche Raumkoordinatensystem bezeichnet.
Jede Bilderfassungseinzeleinheit weist einen Bilderfassungsbereich auf. Der Bilderfassungsbereich umfasst zumindest abschnittsweise die Oberfläche des Fahrzeugs. Die Bilderfassungsbereiche der Bilderfassungseinzeleinheiten überlagern sich und bilden einen gemeinsamen Bilderfassungsbereich aus. Die Plattform ist so positioniert, dass sich ein aufgestelltes Fahrzeug zumindest abschnittsweise in dem gemeinsamen Bilderfassungsbereich befindet.
Mittels der Fahrzeugpositionierungseinheit wird das Fahrzeug gedreht. Dabei erfolgt eine sequentielle Durchführung von Erfassungsvorgängen, so dass Erfassungen in einer Vielzahl unterschiedlicher Winkelstellungen der Plattform und damit des Fahrzeugs, nachfolgend auch Erfassungswinkel genannt, durchgeführt werden.
Dabei stellt jede Bildaufnahme eine Einzelerfassung dar. Die unterschiedlichen Einzelerfassungen erfolgen somit bezogen auf einen bestimmten Objektpunkt erstens durch unterschiedliche Bilderfassungseinzeleinheiten und somit in unterschiedlichen Wellenlängenarbeitsspektren, zweitens durch ein und dieselbe Bilder- fassungseinzeleinheit mit unterschiedlichen Strahlungsenergieniveaus und drittens mit unterschiedlichen Erfassungswinkeln.
Damit wird ein dreidimensionaler Raum von Wellenlängenarbeitsspektrum, Strahlungsenergieniveau und Erfassungswinkel aufgespannt, in die sich die Einzelerfassungen einordnen.
Ferner weist die Bilderfassungseinheit eine Positionierungseinheit auf. Die Positionierungseinheit stellt eine feste Lagebeziehung der Bilderfassungseinzeleinheiten zueinander sowie der Bilderfassungseinzeleinheiten zu der Fahrzeugpositionierungseinheit her. Es handelt sich vorzugsweise um ein Gestell oder einen Rahmen. Die Positionierungseinheit kann auch durch eine Umhausung ausgebildet sein.
Vorzugsweise sind ferner Markierungen in dem gemeinsamen Bilderfassungsbereich angeordnet, um ein Kalibrieren der Bilderfassungseinzeleinheiten in dasselbe einheitliche Raumkoordinatensystem zu ermöglichen. Vorzugsweise sind die Markierungen an der Innenseite einer Umhausung angebracht.
Erfindungsgemäß ist jede der Bilderfassungseinzeleinheiten ferner dadurch gekennzeichnet, dass Bildpunktdaten von Objektpunkten des Fahrzeugs in einer Bildaufnahme erfassbar und an die Auswertungseinheit übertragbar bereitstellbar sind. Die Bilderfassungseinheiten sind so ausgebildet, dass die mittels der Bildaufnahme erhaltenen Bildpunktdaten zum einen Koordinatendaten der Objektpunkte und zum zweiten wellenlängenbezogene und strahlungsenergieniveaubezogene Lichtintensitätswertdaten aufweisen. Die Bildpunktdaten eines Objektpunktes werden vorzugsweise als Datentupel zusammengefasst (x, y, g) und weiterverarbeitet.
Die Koordinatendaten liegen als Flächenkoordinatendaten (x, y) vor. Sie können von der Auswertungseinheit dann den Raumkoordinaten des gemeinsamen Raumkoordinatensystems zugeordnet werden. Als wellenlängenbezogene Lichtintensitätswertdaten im Sinne der vorliegenden Erfindung wird verstanden, dass die Lichtintensitätswertdaten der Bildaufnahmen der Bildkameras unterschiedlicher Bilderfassungseinzeleinheiten durch die jeweiligen Wellenlängenarbeitsspektren bestimmt sind. Somit können sich die Lichtintensitätswertdaten aus den unterschiedlichen Bilderfassungseinzeleinheiten zu ein und demselben Objektpunkt unterscheiden.
Als strahlungsenergieniveaubezogene Lichtintensitätswertdaten im Sinne der vorliegenden Erfindung wird verstanden, dass die Lichtintensitätswertdaten der Bildaufnahmen der Bildkameras gleicher Bilderfassungseinzeleinheiten durch das applizierte Strahlungsenergieniveau bestimmt sind. Die Lichtintensitätswertdaten aus den unterschiedlichen Bildaufnahmen derselben Bilderfassungseinzeleinheiten zu ein und demselben Objektpunkt unterscheiden sich zwar erwartungsgemäß bei unterschiedlichen Strahlungsenergieniveaus.
Überraschend wurde jedoch gefunden, dass die strahlungsenergieniveaubedingten Unterschiede je nach Unterschieden der Strahlungsenergieniveaus und je nach Unterschieden der Wellenlängenarbeitsspektren unterschiedlich korrelieren und dass diese unterschiedlichen Korrelationen eine genauere Analyse der Oberfläche des Fahrzeugs ermöglichen.
Erfindungsgemäß weist die Auswertungseinheit ein Differenzwerteerzeugungsmodul, ein Differenzwertebewertungsmodul, ein Gesamtbewertungsmodul sowie ein Generierungsmodul auf. Physisch ist die Auswertungseinheit vorzugsweise als ein Computer mit Computerprogrammen ausgebildet.
Die Auswertungseinheit erhält die Bildpunktdaten von der optischen Bilderfassungseinheit sowie die Plattformpositionsdaten von der Fahrzeugpositionierungseinheit.
Das Differenzwerterzeugungsmodul erzeugt Differenzwertdaten aus den unterschiedlichen Lichtwertintensitätswertdaten. Hierzu ist das Differenzwertmodul ausgebildet, die Lichtintensitätswertdaten der Bildaufnahme für einen Objektpunkt mittels der zugehörigen Koordinatendaten den Lichtintensitätswertdaten mindestens einer weiteren Bildaufnahme für denselben Objektpunkt zuzuordnen. Somit werden beispielsweise das Datentupel (x, y, g1) einer ersten Bildaufnahme und das Datentupel (x, y, g2) einer zweiten Bildaufnahme zu einem Datentupel (x, y, g1 , g2) zusammengefasst.
Hierbei kann die Zuordnung insbesondere auf solche Bildaufnahmen von unterschiedlichen Bilderfassungseinzeleinheiten bezogen sein, die mit gleichem Strahlungsenergieniveau aufgenommen wurden. In diesem Fall beruhen die Bildaufnahmen auf unterschiedlichen Wellenlängenarbeitsspektren.
Ferner kann die Zuordnung von solchen Bildaufnahmen von ein und der derselben Bilderfassungseinzeleinheit erfolgen, die mit unterschiedlichen Strahlungsenergieniveaus aufgenommen wurden.
Es sind jedoch auch Zuordnungen solcher Bildaufnahmen möglich, bei denen sowohl unterschiedliche Wellenlängenarbeitsspektren als auch unterschiedliche Strahlungsenergieniveaus vorliegen.
Weiterhin sind Zuordnungen solcher Bildaufnahmen möglich, bei denen gleiche Wellenlängenarbeitsspektren, gleiche Strahlungsenergieniveaus aber unterschiedliche Erfassungswinkel vorliegen.
Letztlich sind Zuordnungen in allen Kombinationen aus den Wellenlängenarbeitsspektren, Strahlungsenergieniveaus und Erfassungswinkeln möglich.
Zudem ist es möglich, dass eine mehrfache Zuordnung in dem Sinne erfolgt, dass beispielsweise eine erste Bildaufnahme in einer ersten Zuordnung einer weiteren Bildaufnahme, die von derselben Bilderfassungseinzeleinheit aber mit einem abweichenden Strahlungsenergieniveau aufgenommen, zugeordnet wird und dass dann dieselbe erste Bildaufnahme in einer zweiten Zuordnung einer weiteren Bildaufnahme einer anderen Bilderfassungseinzeleinheit zugeordnet wird.
Ferner ist das Differenzwerteerzeugungsmodul ausgebildet, nach erfolgter Zuordnung in einem Lichtintensitätswertdatenvergleich die Lichtintensitätswertdaten zu vergleichen und hieraus Differenzwertdaten zu erzeugen, sowie die Differenzwertdaten für das Differenzwertbewertungsmodul bereitzustellen. Aus jeder Zuordnung können so Differenzwertdaten bereitgestellt werden.
Insbesondere bei mehrfachen Zuordnungen sind somit eine Vielzahl von Differenzwertdaten bereitstellbar.
Das Differenzwertbewertungsmodul ist ausgebildet, eine Bewertung einer Datenqualität der Differenzwertdaten durchzuführen. Auf der Grundlage der Bewertung erfolgt eine Kategorisierung dieser Differenzwertdaten anhand eines einstellbaren Qualitätswertes. Erreichen die Differenzwertdaten den einstellbaren Qualitätswert der Datenqualität, erfolgt eine Kategorisierung als verwertbare Differenzwertdaten. Unterschreiten die Differenzwertdaten den Qualitätswert, erfolgt eine Kategorisierung als nicht verwertbare Differenzwertdaten. Der einstellbare Qualitätswert kann beispielsweise durch zulässige Abweichungen von Differenzwerten von benachbarten Objektpunkten festgelegt werden.
Die Differenzwerteerzeugung und Differenzwertebewertung erfolgen bezogen auf jeden herangezogenen Objektpunkt und für jede Bildaufnahme der unterschiedlichen Bilderfassungseinzeleinheiten.
Das Differenzwerteerzeugungsmodul und das Differenzwertebewertungsmodul führen eine Vielzahl von Differenzwertbewertungen durch. Es ist möglich, dass das Differenzwerterzeugungsmodul und das Differenzwertbewertungsmodul jeweils mehrfach ausgebildet sind. Dabei ist es sowohl möglich, dass die Differenzwerterzeugungsmodulelemente und die Differenzwertbewertungsmodulelemente die Bildpunktdaten aus den Bildaufnahmen parallel verarbeiten, als auch dass eine se- quentielle Abarbeitung durch ein und dasselbe Modul oder Modulelement mit nachfolgender Zwischenspeicherung erfolgt.
Insbesondere ist es bei einer Zuordnung von Bildaufnahmen mit unterschiedlichen Strahlungsenergieniveaus aus ein und derselben Bilderfassungseinzeleinheit vorteilhaft möglich, jeweils ein solches Differenzwerteerzeugungsmodulelement oder ein Differenzwertebewertungsmodulelement einer Bilderfassungseinzeleinheit zuzuordnen.
Die verwertbaren Differenzwertdaten aus der vorbeschriebenen Erfassung zu diesem bestimmten Objektpunkt, der Differenzwerteerzeugung und der nachfolgenden Differenzwertebewertung werden an das Gesamtbewertungsmodul übertragen und bilden die Grundlage für eine Gesamtbewertung aus allen verwertbaren Differenzwertdaten zu diesem Objektpunkt
Durch das Gesamtbewertungsmodul werden anhand der Koordinatendaten zu den Objektpunkten die verwertbaren Differenzwertdaten aus dem Differenzwertbewertungsmodule und damit aus den Bilderfassungseinzeleinheiten einander zugeordnet.
Das Gesamtbewertungsmodul ist so ausgebildet, dass ein Vergleich des Qualitätswertes der verwertbaren Differenzwertdaten einer Differenzwerterzeugung mit dem Qualitätswert der verwertbaren Differenzwertdaten einer weiteren Differenzwerterzeugung durchführbar ist. Auf dieser Grundlage ist eine objektpunktbezogene Gewichtung, beispielsweise als Rangkategorisierung, der verwertbaren Differenzwertdaten der Differenzwerterzeugungen in Abhängigkeit von dem Qualitätswert durchführbar. Beispielsweise ist es möglich, gemäß der Rangkategorisierung den Differenzwertdaten einen Gewichtungsfaktor zuzuordnen. Die Differenzwertdaten zu einem bestimmten Objektpunkt mit dem höchsten Qualitätswert erhalten beispielsweise den höchsten Gewichtungsfaktor. Differenzwertdaten zu diesem bestimmten Objektpunkt mit einem niedrigeren Qualitätswert erhalten lediglich einen niedrigen Gewichtungsfaktor. Der Gewichtungsfaktor kann für die nachfolgende Verarbeitung herangezogen werden und insbesondere mitbestimmen, wie die unterschiedlichen gewichteten Differenzwertdaten zu ein und demselben Objektpunkt in Beziehung gesetzt werden. Die gewichteten Differenzwertdaten werden dem Generierungsmodul übertragbar zur Verfügung gestellt.
Der Gewichtung liegt also eine Bewertung der Qualität der Differenzwertdaten anhand des Qualitätswerts zu Grunde. Die Bewertung der Qualität kann absolut oder relativ zu der erfassten Datenqualität der Differenzwertdaten erfolgen. Dabei sind neben diskreten Algorithmen auch Algorithmen verwendbar, die eine „n - zu - n“ Relation in die Qualitätsbewertung mit einbeziehen. Damit ist es beispielsweise möglich, bei einer geringen Qualität der Differenzwertdaten aus einer Differenzwerterzeugung aus Einzelerfassungen aus einem Erfassungswinkel durch die Nutzung der Differenzwertdaten aus Differenzwerterzeugungen aus Einzelerfassungen aus mehreren Erfassungswinkeln oder bei einer geringen Qualität der Differenzwertdaten aus einer Differenzwerterzeugung aus Einzelerfassungen in einem Strahlungsenergieniveau durch die Nutzung der Differenzwertdaten aus Differenzwerterzeugungen aus mehreren unterschiedlichen Strahlungsenergieniveaus jeweils zu demselben Objektpunkt die resultierende Qualität der Analyse zu erhöhen.
Ferner kann durch das Gesamtbewertungsmodul eine Plausibilitätskontrolle erfolgen. Soweit mindestens drei gewichtete Differenzwertdaten zu ein und demselben Objektpunkt vorhanden sind, kann das Gesamtbewertungsmodul einen Vergleich der zu einem bestimmten Objektpunkt vorliegenden gewichteten Differenzwertdaten durchführen und so ausgebildet sein, das ab einem einstellbaren Abweichungsgrad der ersten gewichteten Differenzwertdaten von den zweiten und dritten gewichteten Differenzwertdaten die ersten gewichteten Differenzwertdaten verworfen und nicht weiter dem Generierungsmodul übertragbar zur Verfügung gestellt werden.
Das Generierungsmodul ist so ausgebildet, dass es die Koordinatendaten aus den gewichteten Differenzwertdaten der Bilderfassungseinzeleinheiten unter Einbeziehung der Plattformpositionsdaten einem einheitlichen Raumkoordinatensystem zuordnet. Bei unterschiedlichen Winkelstellungen der Plattform liegen unterschiedliche Koordinatendaten der gewichteten Differenzwertdaten ein und desselben Objektpunktes des Fahrzeugs vor. Trotzdem kann eine eindeutige Zuordnung aller gewichteten Differenzwertdaten, die sich auf ein und denselben Objektpunkt beziehen, auf diesen Objektpunkt erfolgen, da der Auswertungseinheit zusätzlich die Plattformkoordinatendaten bekannt sind.
Auf dieser Grundlage wird zunächst ein digitales Oberflächenkonturabbild des Fahrzeugs in dem einheitlichen Raumkoordinatensystem erzeugt.
Das so erzeugte digitale Oberflächenkonturabbild beruht zunächst nur auf den Koordinatendaten.
Das digitale Oberflächenkonturabbild des Fahrzeugs wird von dem Generierungsmodul nun durch Hinzufügung der weiteren Daten aus den gewichteten Differenzwertdaten anhand der Koordinatendaten zu einem digitalen Oberflächenbeschaffenheitsabbild des Fahrzeugs ergänzt. Bei den weiteren gewichteten Differenzwertdaten handelt es sich um die Datemaus den Datentupeln, die nicht Koordinatendaten sind, also insbesondere um Daten zu den Differenzen der Lichtintensitätswerte, Daten zur Gewichtung, Daten zu Wellenlängen und Strahlungsenergieniveaus und so weiter.
Das digitale Oberflächenbeschaffenheitsabbild wird ausgebbar bereitgestellt.
Das digitale Oberflächenbeschaffenheitsabbild stellt als besonderen Vorteil umfassende Informationen zum Gesamtzustand, zu Beschädigungen und früheren Ausbesserungen und Reparaturen bezogen auf die Fahrzeugoberfläche bereit.
Insbesondere stellt es Informationen zu folgenden Eigenschaften der Oberfläche des Fahrzeugs bereit:
Bestimmung des relativen Alters des Lacks einer lackierten Oberfläche Bestimmung der Dicke einer Klarlackschicht visualisierte Darstellung von Fehlstellen und Unregelmäßigkeiten einer lackierten Oberfläche
Erkennung von Kratzern oder Beschädigungen an einer Lackoberfläche und in darunter liegenden Schichten
Bestimmung der UV-Durchlässigkeit von Glasflächen
Bewertung des Alterungszustands von Plastikoberflächen
Erkennung von Bruchstellen und Rissen von Plastikoberflächen
Erkennung von Farbunterschieden bei lackierten Oberflächen Bestimmung des Glanzgrades und der Glätte und Oberflächengüte bei lackierten Oberflächen
Ein weiterer Vorteil liegt in der berührungslosen Bestimmung der Eigenschaften unter Bedingungen, bei der alle möglicherweise störenden oder verfälschenden Einflüsse ausgeschlossen werden können.
Das Fahrzeugoberflächenanalysesystem ermöglicht als besonderen Vorteil die Erzeugung eines einheitlichen digitalen Oberflächenbeschaffenheitsabbilds eines Fahrzeugs auf der Basis von mehreren unterschiedlichen Bilderfassungseinzeleinheiten.
Es stehen zu jeweils ein und demselben Objektpunkt Bildpunktdaten aus Einzelerfassungen unterschiedlicher Bilderfassungseinzeleinheiten zur Verfügung.
Obwohl der Fachmann geneigt ist, durch die Kumulation einer großen Datenbasis die Aussagekraft eines Analyseergebnisses zu erhöhen, wurde überraschend gefunden, dass im Gegenteil durch die Bestimmung von Differenzwerten aus der erhobenen Datenbasis und damit zunächst einer Reduktion der Datenbasis eine Verbesserung der Qualität des Analyseergebnisses erzielbar ist.
Vorteilhaft ist weiterhin insbesondere Folgendes: Erstens können sich vorteilhaft die Bilderfassungseinzeleinheiten wechselseitig unterstützen. Beispielsweise können Bildaufnahmen in einem bestimmten Wellenlängenbereich für bestimmte Abschnitte der Fahrzeugoberfläche eine hohe Aussagequalität bereitstellen, für andere Abschnitte jedoch nicht, während für diese anderen Abschnitte umgekehrt Bildaufnahmen mit einem anderen Wellenlängenbereich eine besonders hohe Aussagequalität bereitstellen.
Zweitens ist es vorteilhaft, dass das Fahrzeugoberflächenanalysesystem die Qualität und damit die Verwertungseignung der Bildpunktdaten aus unterschiedlichen Bildaufnahmen selbstständig erkennt und jeweils die Bildpunktdaten verwendet, die eine höhere Qualität des digitalen Oberflächenbeschaffenheitsabbilds zur Verfügung stellen.
Drittens werden vorteilhaft zunächst die Bildpunktdaten in subtraktive Zuordnung gesetzt, indem Differenzwerte erzeugt werden. Nachfolgend erfolgt dann eine kumulative Zuordnung der Differenzwerte zur weiteren Verbesserung der Qualität des Analyseergebnisses.
Ferner ermöglicht das digitale Oberflächenbeschaffenheitsabbild es als weiteren Vorteil, das Fahrzeug in verschiedenen Ansichten, beispielsweise mit geschlossenen oder geöffneten Türen sowie in verschiedenen Perspektiven, beispielsweise als 360°-Ansicht, darzustellen.
Ein besonderer Vorteil liegt darin, dass im Ergebnis ein digitales Abbild des Fahrzeugs erlangbar ist, das eine ausreichende Datenbasis insbesondere für folgende zwei wichtige Anwendungen aufweist.
Zum ersten ist das digitale Oberflächenbeschaffenheitsabbild geeignet, um Fahrzeugbeschädigungen zu erfassen und hieraus automatisiert erforderliche Reparaturmaßnahmen unter Spezifizierung benötigter Ersatzteile und erforderlicher Arbeitsschritte sowie daraus abgeleitet der Reparaturkosten zu bestimmen, wobei alles in digitaler Form erfolgen kann. Besonders vorteilhaft ist hierbei, dass insbe- sondere durch Überlackierung kaschierte Beschädigungen auffindbar und darstellbar sind.
Zum zweiten kann durch Weiterverarbeitung des digitalen Abbilds automatisiert eine Fahrzeugbewertung erfolgen, um beispielsweise einen Fernabsatz von gebrauchten Fahrzeugen zu unterstützen. Bei der Fahrzeugbewertung sind zusätzliche Daten wie Fahrzeugalter, Laufleistung, Anzahl der Vorbesitzer und weitere wertbestimmende Faktoren in die automatisierte Berechnung des Fahrzeugwerts einbeziehbar.
Von besonderem Vorteil sind die Manipulationssicherheit und die zuverlässige Dokumentation einer Fahrzeugbeschädigungserfassung oder einer Fahrzeugbewertung.
Ein weiterer Vorteil liegt in der Modularität des Fahrzeugoberflächenerfassungssystems. Je nach Bedarf, also je nach Qualitätsvorgabe oder nach zu analysierenden Fahrzeugoberflächenarten wie Lackoberflächen, Glasoberflächen oder Plastikteiloberflächen kann das Fahrzeugoberflächenanalysesystem mit unterschiedlichen Bilderfassungseinzeleinheiten versehen werden oder es können gezielt lediglich bestimmte Bilderfassungseinheiten an der Bilderfassung beteiligt werden.
Dem erfindungsgemäßen Fahrzeugoberflächenanalysesystem liegt insbesondere zu Grunde, dass alle Bilderfassungseinzeleinheiten und damit alle Bildaufnahmen, auf ein und dasselbe Koordinatensystem kalibriert sind. Die Bildpunktdaten werden dabei sowohl durch die unterschiedliche Ausbildung der Bilderfassungseinheiten als auch insofern mehrfach erfasst, weil eine Erfassung in unterschiedlichen Winkelpositionen infolge der Drehbewegung des Fahrzeugs auf der Plattform vorgenommen werden kann. Die Qualität aus den erfassten Bildpunktdaten wird erhöht, weil auch unsichere Aussagen aus einer Einzelerfassung durch das Hinzuziehen anderer unsicherer Aussagen aus einer oder mehreren weiteren Einzelerfassungen verwertbar werden.
Das digitale Oberflächenbeschaffenheitsabbild kann vorteilhaft als mehrere Layer dargestellt werden, weshalb dies auch als Multi-Layer-Information bezeichnet wer- den kann. Jeder Layer beinhaltet Informationen unterschiedlicher Art, beispielsweise in einem Layer zu Oberflächenbeschädigungen und in einem anderen Layer zu verdeckten Ausbesserungen von Vorschäden. Hierdurch erhält der Betrachter oder beispielsweise ein Fahrzeugbewerter mehr Informationen als bei einer lediglich bildlichen Darstellung der Oberfläche des Fahrzeugs.
Das Ergebnis der Fahrzeugoberflächenerfassung wird als digitales Oberflächenbeschaffenheitsabbild mit mehreren Informationsarten bereitgestellt, so dass das digitale Oberflächenbeschaffenheitsabbild ausgebildet ist, einen digitalen Zwilling der Oberfläche des erfassten Fahrzeugs darzustellen.
Das digitale Oberflächenbeschaffenheitsabbild als digitaler Zwilling ermöglicht es darüber hinaus, dass die in ihm aggregierten Informationen automatisiert, beispielsweise für eine Reparaturberechnung, weiterverarbeitet werden können.
Gemäß einer vorteilhaften Weiterbildung weist das Fahrzeugoberflächenanalysesystem eine Umhausung auf. Dabei ist die Fahrzeugpositionierungseinheit innerhalb der Umhausung angeordnet. Die Umhausung bewirkt insbesondere den Vorteil, dass sowohl im sichtbaren als auch nichtsichtbaren Spektrum definierte Lichtverhältnisse bei den Erfassungsvorgängen erreicht werden können und insbesondere Störlichtquellen abgeschirmt werden. Damit kann vorteilhaft die Genauigkeit der erfassten Objektdaten erhöht werden. Zugleich wird die Umgebung und insbesondere das Personal vor Lichtquellen der Bilderfassungseinzeleinheiten geschützt, was insbesondere bei UV-Lichtstrahlungsquellen mit höherem Strahlungsenergieniveau relevant ist. Vorzugsweise kann die Umhausung zugleich ganz oder teilweise die Positionierungseinheit der optischen Bilderfassungseinheit ausbilden und die Lagebeziehung der Bilderfassungseinzeleinheiten festlegen. Vorzugsweise ist hierzu auch die optische Bilderfassungseinheit innerhalb der Umhausung angeordnet.
Nach einer anderen Weiterbildung weist das Fahrzeugerfassungssystem ein Vergleichsmodul auf. Das Vergleichsmodul weist eine Datenbasis mit Daten zu einem normativen digitalen Abbild auf. Die Datenbasis kann als interne Datenbank oder auch als eine externe Datenbank vorliegen. Eine externe Datenbank ermöglicht als zusätzlichen Vorteil eine zentrale Datenpflege. Das normative digitale Abbild beschreibt ein typengleiches Fahrzeug, wie es dem originalen Herstellungszustand entspricht.
Das Vergleichsmodul ist ausgebildet, einen Vergleich zwischen dem digitalen Oberflächenbeschaffenheitsabbild und dem normativen Oberflächenbeschaffenheitsabbild durchzuführen und ein digitales Differenzabbild zu erzeugen. Das digitale Differenzabbild beschreibt, inwiefern der Zustand des Fahrzeugs, dessen Fahrzeugzustand erfasst wird, von dem originalen Herstellungszustand der Fahrzeugoberfläche abweicht. Das digitale Differenzabbild weist somit insbesondere den Alterungsgrad, Beschädigungen und Reparaturen der Oberfläche, also insbesondere Lackausbesserungen sowie Überlackierungen von unter der Oberfläche liegenden Schäden, aus. Somit kann beispielsweise eine Ausgabe als Zustandsbericht erfolgen. Diese Fahrzeugzustandsinformationen können zudem eine Grundlage für Aussagen zu erforderlichen Reparaturen, insbesondere Lackreparaturen, oder zu dem Wert des betreffenden Fahrzeugs sein.
Eine weitere Weiterbildung sieht vor, dass das Fahrzeugerfassungssystem ein Reparaturberechnungsmodul aufweist. Das Reparaturberechnungsmodul weist eine Datenbasis mit Reparaturdaten auf, wobei die Reparaturdaten Daten zu Repa- raturarbeitszeiten und zu Reparaturkosten, sowie gegebenenfalls auch Ersatzteilen wie Kunststoffteilen der Fahrzeugoberfläche, aufweisen. Auch diese Datenbasis kann als interne Datenbank oder auch als eine externe Datenbank vorliegen.
Daten zu Ersatzteilen beinhalten, bei welcher Beschädigung welche Ersatzteile für eine Reparatur benötigt werden. Daten zu Reparaturarbeitszeiten beinhalten, welche Reparaturzeiten, in der Regel als Arbeitswerte bezeichnet, für die Durchführung einer Reparatur erforderlich sind. Daten zu Reparaturkosten geben an, zu welchen Preisen Ersatzteile und zu welchen Preisen Reparaturarbeitsleistungen verfügbar sind. Die Reparaturkosten sind in der Datenbasis daher vorzugsweise als Einheitspreise hinterlegt. Das Reparaturberechnungsmodul ist ausgebildet, auf der Grundlage des digitalen Differenzabbilds und der Reparaturdaten eine Reparaturbewertung zu erstellen, wobei die Reparaturbewertung für eine Reparatur benötigte Ersatzteile, aufzuwendende Reparaturarbeitszeiten und Reparaturkosten aufweist.
Mittels dieser Weiterbildung ist es vorteilhaft möglich, automatisiert und manipulationssicher Aussagen zu erforderlichen Reparaturen und zu deren Kosten zu erlangen. Somit können automatisiert Kostenvoranschläge erstellt werden. Als Vorteil können somit erhebliche Personalkosten eingespart werden.
In einer vorteilhaften Weiterbildung hierzu ist es ferner möglich, auf der Grundlage der Reparaturbewertung automatisch Ersatzteilbestellungen auszulösen.
Nach einer weiteren Weiterbildung weist das Fahrzeugerfassungssystem ein Wertermittlungsmodul auf. Das Wertermittlungsmodul weist eine Datenbasis mit Fahrzeugpreisdaten auf. Es gilt auch hier, dass diese Datenbasis als interne Datenbank oder auch als eine externe Datenbank vorliegen kann.
Als Fahrzeugpreisdaten werden beispielsweise Listenpreise je nach Fahrzeugkonfiguration, Preistabellen in Abhängigkeit von Fahrzeugalter, Laufleistung, Anzahl der Vorbesitzer und etwaige zusätzliche Preisdaten verstanden.
Das Wertermittlungsmodul ist ausgebildet, auf der Grundlage der Fahrzeugpreisdaten des digitalen Oberflächenzustandsabbilds, des digitalen Differenzabbilds und der Reparaturdaten eine Wertermittlung zu erstellen. Hierbei kann es sich vorzugsweise um einen auf dem Oberflächenzustand beruhenden Wertminderungs- oder Werterhöhungsbetrag handeln der ausdrückt, in welchem Maße der Oberflächenzustand des Fahrzeugs bezogen auf das Alter des Fahrzeugs über oder unter dem Durchschnitt von vergleichbaren Fahrzeugen liegt. Gemäß dieser Weiterbildung steht vorteilhaft eine Lösung zur Unterstützung der Bestimmung eines Handelswertes eines Fahrzeugs zur Verfügung, die automatisiert erfolgt und damit nur geringen Arbeitsaufwand erfordert, manipulationssicher ist und zuverlässig dokumentierbar ist.
Die Erfindung wird als Ausführungsbeispiel anhand von
Fig. 1 Schematische Darstellung in Draufsicht
Fig. 2 Schematisches Diagramm zu Bildaufnahmen aus Erfassungsvorgängen
Fig. 3 Blockschaltbild mit Reparaturberechnungsmodul und Wertermittlungsmodul näher erläutert.
Fig. 1 zeigt in einer schematischen Darstellung ein erstes Ausführungsbeispiel des Fahrzeugoberflächenanalysesystems.
Das Fahrzeug 4 ist mittels einer Fahrzeugpositionierungseinheit relativ zu der optischen Bilderfassungseinheit 2 in seiner Lagebeziehung festlegbar. Hierzu weist die Fahrzeugpositionierungseinheit 1 eine drehbare Plattform 11 auf. Auf diese kann bestimmungsgemäß das Fahrzeug 4 aufgefahren werden. Der Pfeil veranschaulicht die Drehbarkeit der Plattform 11. Ein weiteres Element der Fahrzeugpositionierungseinheit 1 ist die Plattformpositionserfassungseinheit 12. Sie erfasst die Drehposition und damit die Winkelstellung der Plattform 11 und überträgt diese an die Auswertungseinheit 3 mittels einer drahtgebundenen Datenverbindung.
Fig. 1 zeigt ferner die optische Bilderfassungseinheit 2. Diese weist im vorliegenden Ausführungsbeispiel drei Bilderfassungseinzeleinheiten 21 auf. Jede der Bilderfassungseinzeleinheit weist eine Lichtstrahlungsquelle 211 und eine Bildkamera 212 auf. Im Ausführungsbeispiel ist eine erste der drei Bilderfassungseinzeleinheiten 21 mit einer Infrarot-Lichtstrahlungsquelle und einer Infrarot-Bildkamera, eine zweite der drei Bilderfassungseinzeleinheiten 21 mit einer Lichtstrahlungsquelle und einer Bildkamera jeweils im sichtbaren Lichtwellenlängenbereich und eine dritte der drei Bilderfassungseinzeleinheiten 21 mit einer Ultraviolett-Lichtstrahlungsquelle und einer Ultraviolett-Kamera ausgebildet.
Der Bilderfassungsbereich 22 jeder Bilderfassungseinzeleinheit 21 ist so ausgerichtet, dass das auf der Plattform 11 befindliche Fahrzeug 4 davon erfasst wird. Im Ausführungsbeispiel überschneiden sich die Bilderfassungsbereiche 22.
Die Positionierungseinheit 23 ist im Ausführungsbeispiel als ein Gestell ausgebildet. Hieran sind die Bilderfassungseinzeleinheiten 21 starr montiert und so in ihrer Lagebeziehung zueinander sowie zu der Plattform 11 festgelegt. Diese Ausbildung ermöglicht es, dass nach erfolgter Kalibrierung alle von den Bilderfassungseinzeleinheiten 21 erfassten Bildpunkdaten zu Objektpunkten des Fahrzeugs einem einheitlichen Raumkoordinatensystem zuordenbar sind.
In dem Ausführungsbeispiel nach Fig. 1 weist das Fahrzeugoberflächenanalysesystem eine Umhausung 2 auf, welche für die Wellenlängenbereiche aller drei Bilderfassungseinzeleinheiten undurchlässig ausgebildet ist. Insbesondere die Fahrzeugpositionierungseinheit 1 als auch die optische Bilderfassungseinheit 2 sind in dem Innenraum der Umhausung 5 angeordnet. Diese weist eine verschließbare Öffnung (in Fig. 1 nicht dargestellt) auf, durch welche das Fahrzeug 4 in den Innenraum auf die Plattform 11 gefahren und nach erfolgter Erfassung wieder herausgefahren werden kann.
Fig. 1 zeigt ferner die Auswertungseinheit 3 auf bei der es sich im Ausführungsbeispiel um ein Computersystem aus einem Rechner mit einer Software handelt.
Die Auswertungseinheit 3 ist über Datenverbindungen mit den drei Bilderfassungseinzeleinheiten 21 verbunden und erhält von dort die Bildpunktdaten der Objekt- punkte der Fahrzeugoberfläche des Fahrzeugs 4 aus Bildaufnahmen, auch Einzelerfassungen genannt. (Die Datenverbindungen zur Auswertungseinheit 3 von den Bilderfassungseinzeleinheiten 21 und von der Plattformpositionserfassungseinheit 12 sind ohne Bezugszeichen dargestellt.)
Die Auswertungseinheit 3 weist gemäß Fig. 1 ein Differenzwerteerzeugungsmodul 31 , ein Differenzwertebewertungsmodul 32, ein Gesamtbewertungsmodul 33 sowie ein Generierungsmodul 34 auf.
Mittels des Differenzwerteerzeugungsmoduls 31 erfolgt eine Zuordnung der einzelnen Bildaufnahmen. Im vorliegenden Ausführungsbeispiel liegen von jeder Bilderfassungseinzeleinheit 21 mehrere Bildaufnahmen vor, die mit jeweils unterschiedlichen Strahlungsenergieniveaus aufgenommen wurden. Gemäß dem ersten Aus- führungsbeisp'iel ist das Differenzwerteerzeugungsmodul 31 so ausgebildet, dass eine Zuordnung der Bildaufnahmen der unterschiedlichen Bilderfassungseinzeleinheiten 21 , also mit unterschiedlichen Wellenlängenarbeitsspektren aber jeweils gleichem Strahlungsenergieniveau erfolgt und dass aus jeder Zuordnung die Differenz der Lichtintensitätswerte“ermittelt und als Differenzwert bereitgestellt wird.
Das Differenzwertebewertungsmodul 32 erhält die Differenzwerte von dem Differenzwerteerzeugungsmodul 31 und ist zur Durchführung einer Bewertung der Datenqualität der Differenzwerte ausgebildet. Jeder der erhaltenen Differenzwerte wird anhand eines Vergleichs mit Differenzwerten zu benachbarten Objektpunkten danach bewertet, ob es sich um eine plausiblen Differenzwert handelt. Ein Differenzwert, der dieses Kriterium erfüllt wird im vorliegenden Ausführungsbeispiel als verwertbar kategorisiert und als verwertbarer Differenzwert an das Gesamtbewertungsmodul 33 weitergeleitet. Anderenfalls wird der Differenzwert als nicht verwertbar kategorisiert und damit verworfen und nicht weitergeleitet. Auf diese Weise werden alle erhaltenen Differenzwerte aufeinanderfolgend von dem Differenzwertebewertungsmodul 32 verarbeitet.
Das Differenzwertebewertungsmodul 32 stellt somit das Merkmal bereit, dass ausschließlich ausreichend zuverlässige Daten in das später zu bildende Oberflächen- beschaffen heitsabbild des Fahrzeugs eingehen, so dass auch das Oberflächenbeschaffenheitsabbild einen hohen Zuverlässigkeitsgrad aufweist.
In dem Gesamtbewertungsmodul 33 werden anhand der Koordinatendaten zu den Objektpunkten die von dem Differenzwertebewertungsmodul 32 erhaltenen verwertbaren Differenzwertdaten einander zugeordnet und in Beziehung zueinander bewertet.
Die Zuordnung der verwertbaren Differenzwertdaten als einem selben Objektpunkt zugehörig beruht darauf, dass der Auswertungseinheit 3 durch die definierte Position der Bilderfassungseinzeleinheiten 21 aufgrund deren Lagefestlegung durch die Positionierungseinheit 23 sowie mittels der Plattformpositionserfassungseinheit 12 bekannten Winkelposition der Plattform 11 und damit des aufgestellten Fahrzeugs 4 eine Zuordnung zu einem einheitlichen Raumkoordinatensystem für alle Bilderfassungseinzeleinheiten 21 möglich ist.
Nach erfolgter Zuordnung wird durch das Gesamtbewertungsmodul 33 im vorliegenden Ausführungsbeispiel ein Vergleich des Qualitätswertes der verwertbaren Differenzwertdaten durchgeführt. Im Ergebnis das Vergleichs werden die verglichenen verwertbaren Differenzwertdaten beispielsweise nach dem Rang des Qualitätswertes geordnet und diesen ein Gewichtungsfaktor zugeordnet. Die verwertbaren Differenzwertdaten mit dem höchsten Qualitätswert erhalten dabei den höchsten Gewichtungsfaktor und umgekehrt. Der Gewichtungsfaktor entspricht dem Qualitätswert. Die verwertbaren Differenzwertdaten zu jedem erfassten Objektpunkt werden zusammen mit dem Gewichtungsfaktor für das Generierungsmodul 34 bereitgestellt.
Das Generierungsmodul 34 ordnet die Koordinatendaten aus den verwertbaren Differenzwertdaten unter Einbeziehung der Plattformpositionsdaten dem einheitlichen Raumkoordinatensystem zu. Auf der Grundlage der Koordinatendaten wird zunächst ein digitales Oberflächenkonturabbild des Fahrzeugs 4 in dem einheitlichen Raumkoordinatensystem erzeugt. Das digitale Oberflächenkonturabbild wird durch eine Punktewolke gebildet, die der Geometrie der Fahrzeugoberfläche entspricht.
Anschließend werden die weiteren Daten aus den gewichteten Differenzwertdaten anhand der Koordinatendaten dem digitale Oberflächenkonturabbild des Fahrzeugs 4 hinzugefügt und so ein digitales Oberflächenbeschaffenheitsabbild des Fahrzeugs 4 erzeugt.
Dieses digitale Oberflächenbeschaffenheitsabbild wird dann ausgebbar bereitgestellt. Im Ausführungsbeispiel wird das digitale Abbild als Datei übertragen. Das digitale Oberflächenbeschaffenheitsabbild kann in einem Monitor als einer Datenausgabeeinheit zudem visualisiert werden. Das digitale Oberflächenbeschaffenheitsabbild geht jedoch über die bloße Visualisierung hinaus. Insbesondere ist es in dem Ausführungsbeispiel möglich, die Visualisierung nach bestimmten Analysekriterien wie beispielsweise Lackdicke, Lackalter oder überdeckten Korrosionsstellen einzustellen. Die Visualisierung kann dabei je nach Analysekriterium so eingestellt werden, dass sie von dem optischen Eindruck abweicht und die graduelle Ausbildung der Analysekriterien farblich hervorhebt.
Fig. 2 zeigt in einem Ausführungsbeispiel eine mögliche Systematik von Bildaufnahmen aus Erfassungsvorgängen. Die Abszisse repräsentiert die Wellenlänge A und die Ordinate das Strahlungsenergieniveau E. In dem Ausführungsbeispiel werden die Bildaufnahmen durch drei Bilderfassungseinzeleinheiten 21 aufgenommen, wobei die erste Bilderfassungseinzeleinheit 21 im Wellenlängenarbeitsspektrum A1 im UV-Bereich, die zweite Bilderfassungseinzeleinheit 21 im Wellenlängenarbeitsspektrum A2 im sichtbaren Lichtbereich und die dritte Bilderfassungseinzeleinheit 21 im Wellenlängenarbeitsspektrum A3 im IR-Bereich arbeitet. Jede der Bilderfassungseinheiten erzeugt drei Bildaufnahmen mit unterschiedlichen Strahlungsenergieniveaus E1, E2 und E3. Die Bildaufnahmen A1 E1 bis A3E3 werden an die Auswertungseinheit übertragen. Im Ausführungsbeispiel wird zunächst eine Zuordnung innerhalb eines Wellenlängenarbeitsspektrums vorgenommen und so beispielsweise von dem Differenzwerteerzeugungsmodul ein Differenzwert aus den Bildaufnahmen A1 E1 und A1 E2 sowie ferner ein weiterer Differenzwert aus den Bildaufnahmen A1E2 und A1E3 gebildet. In gleicher weise werden jeweils Differenzwerte aus den Bildaufnahmen A2E1 und A2E2 sowie aus A2E2 und A2E3 uns so weiter gebildet. Zudem werden zusätzliche Differenzwerte zwischen den Bildaufnahmen unterschiedlicher Wellenlängenarbeitsspektren aber gleicher Strahlungsenergieniveaus wie beispielsweise aus den Bildaufnahmen A1 E1 und A2E1 und so weiter gebildet. Möglich sind aber auch Differenzwerte aus beliebigen „n-zu-n“-Zuordnungen wie beispielsweise A1 E2 und A3E3.
Fig. 3 zeigt ein weiteres Ausführungsbeispiel in einer Darstellung als Blockschaltbild, wobei hier zusätzlich sowohl eine Reparaturbewertung als auch eine Wertermittlung durchführbar ist.
Für die Bilderfassungseinzeleinheiten 21 der optischen Bilderfassungseinheit 2, das Differenzwerteerzeugungsmodul 31 , das Differenzwertebewertungsmodul 33, das Gesamtbewertungsmodul 33 und das Generierungsmodul 34 gelten in entsprechender Weise die Erläuterungen zu dem Ausführungsbeispiel gemäß Fig.1 und Fig. 2.
Nachdem das digitale Oberflächenbeschaffenheitsabbild durch das Generierungsmodul 33 erzeugt wurde, wird es in dem Ausführungsbeispiel gemäß Fig. 3 an ein Vergleichsmodul 35 übertragen. Das Vergleichsmodul 35 enthält eine Datenbasis 351 als Datenbank mit Daten zu normativen digitalen Oberflächenbeschaffenheitsabbildern vieler Fahrzeugmodelle in unterschiedlichen Ausstattungen, wobei auch das normative Oberflächenbeschaffenheitsabbild des erfassten Fahrzeugs 4 enthalten ist. Diese Datenbank wird regelmäßig um neu auf dem Markt erscheinende Fahrzeugmodelle ergänzt. Das Vergleichsmodul 35 erkennt anhand des digitalen Oberflächenbeschaffenheitsabbilds das Fahrzeugmodell des erfassten Fahrzeugs 4 und nimmt einen Vergleich zwischen dem digitalen Oberflächenbeschaffenheitsabbild des erfassten Fahrzeugs 4, das es von dem Generierungsmodul 34 erhalten hat, und dem normativen Oberflächenbeschaffenheitsabbild des entsprechenden Modells, dass es der Datenbasis 351 entnommen hat, vor und erzeugt ein digitales Differenzabbild. Das digitale Differenzabbild enthält die Informationen über Abweichungen des erfassten Fahrzeugs 4 von einem original hergestellten Fahrzeug, so dass insbesondere verdeckte Beschädigungen erkennbar sind.
Das digitale Differenzabbild wird sowohl dem Reparaturbewertungsmodul 36 als auch parallel dem Wertermittlungsmodul 37 zur Verfügung gestellt.
Das Reparaturberechnungsmodul 36 verfügt über eine Datenbasis 361 mit Reparaturdaten. Bei den Reparaturdaten handelt es sich um modellbezogene Daten zu Ersatzteilen, zu Reparaturarbeitszeiten und zu Reparaturkosten, wobei die Reparaturkosten als Einheitspreise hinterlegt sind. Auf der Grundlage des digitalen Differenzabbilds und der Reparaturdaten bestimmt das Reparaturbewertungsmodul, welche Ersatzteile für eine Reparatur benötigt werden und welche Reparaturarbeitszeiten aufzuwenden sind sowie welche Reparaturkosten gemäß den hinterlegten Einheitspreisen anfallen und gibt dies als Reparaturbewertung aus.
Kumulativ oder alternativ kann mittels des Wertermittlungsmoduls 37 der Handelswert des erfassten Fahrzeugs 4 bestimmt werden.
Das Wertermittlungsmodul 37 weist hierzu eine Datenbasis 371 mit Fahrzeugpreisdaten auf. Die Fahrzeugpreisdaten enthalten insbesondere Daten zu Listenpreisen und alters- sowie laufleistungsabhängigen Marktpreisen vieler Fahrzeugmodelle, wobei auch Daten zu dem Modell des erfassten Fahrzeugs 4 enthalten sind. Auf der Grundlage der Fahrzeugpreisdaten, des digitalen Differenzabbilds und der Reparaturdaten erstellt das Wertermittlungsmodul 37 eine Fahrzeugwertermittlung. Optional können über das digitale Abbild und das digitale Differenzabbild auch ergänzende Fahrzeugdaten, wie beispielsweise die Anzahl der Vorbesitzer, manuell eingegeben und von dem Wertermittlungsmodul 37 bei der Erstellung der Fahrzeugwertermittlung berücksichtigt werden. Verwendete Bezugszeichen
1 Fahrzeugpositionierungseinheit
11 Plattform
12 Plattformpositionserfassungseinheit
2 optische Bilderfassungseinheit
21 Bilderfassungseinzeleinheit
211 Lichtstrahlungsquelle
212 Bildkamera
22 Bilderfassungsbereich
23 Positionierungseinheit
3 Auswertungseinheit
31 Differenzwerteerzeugungsmodul
32 Differenzwertebewertungsmodul
33 Gesamtwertbewertungsmodul
34 Generierungsmodul
35 Vergleichsmodul
351 Datenbasis des Vergleichsmoduls
36 Reparaturberechnungsmodul
361 Datenbasis des Reparaturberechnungsmoduls
37 Wertermittlungsmodul
371 Datenbasis des Wertermittlungsmoduls
4 Fahrzeug
5 Umhausung

Claims

Patentansprüche
1 . Fahrzeugoberflächenanalysesystem, aufweisend eine Fahrzeugpositionierungseinheit (1), eine optische Bilderfassungseinheit (2) und eine Auswertungseinheit (3), wobei die Fahrzeugpositionierungseinheit eine Plattform (11) und eine Plattformpositionserfassungseinheit (12) aufweist, wobei die Plattform (11) ausgebildet ist, ein Fahrzeug (4) hierauf aufzustellen, wobei die Plattform (11) rotierbar um eine Vertikalachse des aufgestellten Fahrzeugs (4) ist, und wobei die Plattformpositionserfassungseinheit (12) ausgebildet ist, Plattformpositionsdaten zu erfassen und diese an die Auswertungseinheit (3) übertragbar bereitzustellen, wobei die optischen Bilderfassungseinheit (2) mehrere Bilderfassungseinzeleinheiten (21) und eine Positionierungseinheit (23) aufweist, wobei jede der Bilderfassungseinzeleinheiten (21) eine Lichtstrahlungsquelle (211) und eine Bildkamera (212) aufweist, wobei jede der Bilderfassungseinzeleinheiten (21) einen Bilderfassungsbereich (22) aufweist, wobei der Bilderfassungsbereich (22) eine Oberfläche des Fahrzeugs (4) zumindest abschnittsweise umfasst, wobei jede der Bilderfassungseinzeleinheiten (21) ein Wellenlängenarbeitsspektrum aufweist, welches sich von einem Wellenlängenarbeitsspektrum einer anderen der Bildeinzelerfassungseinheiten (21) unterscheidet, wobei die Lichtstrahlungsquelle (221) jeder der Bilderfassungseinzeleinheiten (21) ausgebildet ist, mehrere unterschiedliche Strahlungsenergieniveaus bereitzustellen, wobei die Positionierungseinheit (23) eine Lagebeziehung der optischen Bilderfassungseinzeleinheiten (21) zueinander und zu der Fahrzeugpositionierungseinheit (1) festlegt,
27 wobei die Bilderfassungseinzeleinheiten (21) ausgebildet sind, Bildpunktdaten einer Bildaufnahme von Objektpunkten des Fahrzeugs (4) zu erfassen und an die Auswertungseinheit (3) übertragbar bereitzustellen, wobei die Bildpunktdaten wellenlängenbezogene und strahlungsenergieniveaubezogene Lichtintensitätswertdaten und Koordinatendaten der Objektpunkte enthalten wobei die Auswertungseinheit (3) ein Differenzwerteerzeugungsmodul (31), ein Differenzwertebewertungsmodul (32), ein Gesamtbewertungsmodul (33) und ein Generierungsmodul (34) aufweist, wobei das Differenzwerteerzeugungsmodul (31) ausgebildet ist, die Lichtintensitätswertdaten der Bildaufnahme für einen Objektpunkt mittels der zugehörigen Koordinatendaten den Lichtintensitätswertdaten mindestens einer weiteren Bildaufnahme für denselben Objektpunkt zuzuordnen, in einem Lichtintensitätswertdatenvergleich die Lichtintensitätswertdaten zu vergleichen und hieraus Differenzwertdaten zu erzeugen, sowie die Differenzwertdaten für das Differenzwertebewertungsmodul (32) bereitzustellen, wobei das Differenzwertebewertungsmodul (32) ausgebildet ist, eine Bewertung einer Qualität der Differenzwertdaten und auf der Grundlage der Bewertung eine Kategorisierung als verwertbare Differenzwertdaten bei einem Erreichen eines einstellbaren Qualitätswertes der Differenzwertqualität und als nicht verwertbare Differenzwertdaten bei einer Unterschreitung des Qualitätswertes durchzuführen und verwertbare Differenzwertdaten an das Gesamtbewertungsmodul (33) übertragbar bereitzustellen, wobei durch das Gesamtbewertungsmodul (32) ausgebildet ist, anhand der Koordinatendaten zu den Objektpunkten die verwertbaren Differenzwertdaten aus dem Lichtintensitätswertdatenvergleich weiteren verwertbaren Differenzwertdaten aus einem weiteren Lichtintensitätswertdatenvergleich einander zuzuordnen, einen Vergleich des Qualitätswertes der verwertbaren Differenzwertdaten aus dem Lichtintensitätswertdatenvergleich mit dem Qualitätswert der weiteren verwertbaren Differenzwertdaten aus dem weiteren Lichtintensitätswertdatenvergleich durchzuführen, sowie eine Gewichtung der verwertbaren Differenzwertdaten in Abhängigkeit von dem Qualitätswert als gewichtete Differenzwertdaten durchzuführen, wobei das Generierungsmodul (33) ausgebildet ist, die Koordinatendaten aus den Bildpunktdaten unter Einbeziehung der Plattformpositionsdaten einem einheitlichen Raumkoordinatensystem zuzuordnen, ein digitales Oberflächenkonturabbild des Fahrzeugs (4) in dem einheitlichen Raumkoordinatensystem zu erzeugen, das digitale Oberflächenkonturabbild des Fahrzeugs (4) durch Hinzufügung der gewichteten Differenzwertdaten anhand der Koordinatendaten zu einem digitalen Oberflächenbeschaffenheitsabbild des Fahrzeugs zu ergänzen und das digitale Oberflächenbeschaffenheitsabbild ausgebbar bereitzustellen. Fahrzeugoberflächenanalysesystem nach Anspruch 1 , dadurch gekennzeichnet, dass das Fahrzeugerfassungssystem eine Umhausung (5) aufweist, wobei die Fahrzeugpositionierungseinheit (1) innerhalb der Umhausung (5) angeordnet ist. Fahrzeugoberflächenanalysesystem nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Fahrzeugerfassungssystem ein Vergleichsmodul (35) aufweist, wobei das Vergleichsmodul (35) eine Datenbasis mit Daten zu einem normativen digitalen Oberflächenbeschaffenheitsabbild aufweist, wobei das Vergleichsmodul (35) ausgebildet ist, einen Vergleich zwischen dem digitalen Oberflächenbeschaffenheitsabbild und dem normativen Oberflächenbeschaffenheitsabbild durchzuführen und ein digitales Differenzabbild zu erzeugen.
. Fahrzeugoberflächenanalysesystem nach Anspruch 3, dadurch gekennzeichnet, dass das Fahrzeugerfassungssystem ein Reparaturberechnungsmodul (36) aufweist, wobei das Reparaturberechnungsmodul (36) eine Datenbasis mit Reparaturdaten aufweist, wobei die Reparaturdaten Daten zu Ersatzteilen, zu Reparaturarbeitszeiten und zu Reparaturkosten aufweisen, wobei das Reparaturberechnungsmodul (36) ausgebildet ist, auf der Grundlage des digitalen Differenzabbilds und der Reparaturdaten eine Reparaturbewertung zu erstellen, wobei die Reparaturbewertung für eine Reparatur benötigte Ersatzteile, aufzuwendende Reparaturarbeitszeiten und Reparaturkosten aufweist. . Fahrzeugoberflächenanalysesystem nach einem der vorhergehenden Ansprüche 3 und 4, dadurch gekennzeichnet, dass das Fahrzeugoberflächensystem ein Wertermittlungsmodul (37) aufweist, wobei das Wertermittlungsmodul (37) eine Datenbasis mit Fahrzeugpreisdaten aufweist und wobei das Wertermittlungsmodul (37) ausgebildet ist, auf der Grundlage der Fahrzeugpreisdaten, des digitalen Differenzabbilds und der Reparaturdaten eine Fahrzeugwertermittlung zu erstellen.
HIERZU DREI SEITEN ZEICHNUNGEN
PCT/DE2021/000127 2020-09-14 2021-07-29 Fahrzeugoberflächenanalysesystem WO2022053089A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US18/245,186 US20230360187A1 (en) 2020-09-14 2021-07-29 Vehicle surface analysis system
JP2023516542A JP2023542103A (ja) 2020-09-14 2021-07-29 車両表面分析システム
EP21763228.0A EP4211419A1 (de) 2020-09-14 2021-07-29 Fahrzeugoberflächenanalysesystem

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
DEDE102020005611.3 2020-09-14
DE202020003891.1U DE202020003891U1 (de) 2020-09-14 2020-09-14 Fahrzeugoberflächenanalysesystem
DE102020005611.3A DE102020005611A1 (de) 2020-09-14 2020-09-14 Fahrzeugoberflächenanalysesystem
DEDE202020003891.1 2020-09-14

Publications (1)

Publication Number Publication Date
WO2022053089A1 true WO2022053089A1 (de) 2022-03-17

Family

ID=77595251

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2021/000127 WO2022053089A1 (de) 2020-09-14 2021-07-29 Fahrzeugoberflächenanalysesystem

Country Status (4)

Country Link
US (1) US20230360187A1 (de)
EP (1) EP4211419A1 (de)
JP (1) JP2023542103A (de)
WO (1) WO2022053089A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402789A (zh) * 2023-03-30 2023-07-07 开思时代科技(深圳)有限公司 车辆喷漆需求数据分析方法及系统
CN116973378A (zh) * 2023-09-22 2023-10-31 山东梁山华宇集团汽车制造有限公司 一种车辆生产质量检测系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117788461B (zh) * 2024-02-23 2024-05-07 华中科技大学同济医学院附属同济医院 一种基于图像分析的磁共振图像质量评估系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202013002483U1 (de) * 2013-03-15 2014-06-16 Csb-System Ag Vorrichtung zur Vermessung einer Schlachttierkörperhälfte
DE202018001659U1 (de) * 2018-03-29 2019-07-03 Twinner Gmbh Fahrzeugerfassungssystem

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202013002483U1 (de) * 2013-03-15 2014-06-16 Csb-System Ag Vorrichtung zur Vermessung einer Schlachttierkörperhälfte
DE202018001659U1 (de) * 2018-03-29 2019-07-03 Twinner Gmbh Fahrzeugerfassungssystem

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
BUCKLEY SIMON J ET AL: "Terrestrial lidar and hyperspectral data fusion products for geological outcrop analysis", COMPUTERS & GEOSCIENCES, PERGAMON, AMSTERDAM, NL, vol. 54, 8 February 2013 (2013-02-08), pages 249 - 258, XP028525895, ISSN: 0098-3004, DOI: 10.1016/J.CAGEO.2013.01.018 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116402789A (zh) * 2023-03-30 2023-07-07 开思时代科技(深圳)有限公司 车辆喷漆需求数据分析方法及系统
CN116402789B (zh) * 2023-03-30 2023-11-28 开思时代科技(深圳)有限公司 车辆喷漆需求数据分析方法及系统
CN116973378A (zh) * 2023-09-22 2023-10-31 山东梁山华宇集团汽车制造有限公司 一种车辆生产质量检测系统
CN116973378B (zh) * 2023-09-22 2024-01-09 山东梁山华宇集团汽车制造有限公司 一种车辆生产质量检测系统

Also Published As

Publication number Publication date
US20230360187A1 (en) 2023-11-09
JP2023542103A (ja) 2023-10-05
EP4211419A1 (de) 2023-07-19

Similar Documents

Publication Publication Date Title
WO2022053089A1 (de) Fahrzeugoberflächenanalysesystem
DE102020005611A1 (de) Fahrzeugoberflächenanalysesystem
EP3775764B1 (de) Fahrzeugerfassungssystem
EP2515101B1 (de) Verfahren zur Planung einer Inspektionsbahn und zur Bestimmung von zu inspizierenden Bereichen
EP2732236B1 (de) Optische vorrichtung und verfahren zur reifenprüfung
EP3044585B1 (de) Verfahren und einrichtung zur analyse von ölen und technischen betriebsflüssigkeiten und zur qualifizierten bewertung der betriebszustände von aggregaten
DE202015009460U1 (de) Bohrungsinspektionsvorrichtung
DE202008008725U1 (de) Vorrichtung zur Abbildung der Innenfläche eines vorzugsweise zylindrischen Hohlraumes in einem Werkstück
DE102017215334A1 (de) Verfahren, Computerprogrammprodukt und Messsystem zum Betrieb mindestens eines Triangulations-Laserscanners zur Identifizierung von Oberflächeneigenschaften eines zu vermessenden Werkstücks
DE112018006287T5 (de) Inspektionssystem, inspektionsverfahren, programm und speichermedium
EP3903077B1 (de) Verfahren und vorrichtung zum auffinden und anpassen von effektfarbformulierungen unter abgleich mit der visuellen wahrnehmung von textureigenschaften
DE202018001659U1 (de) Fahrzeugerfassungssystem
EP3928079B1 (de) Verfahren und vorrichtung zum identifizieren von interferenzpigmenten in einer beschichtung
DE202018103274U1 (de) Vorrichtung zur Oberflächeninspektion eines Kraftfahrzeugs
DE102019208448A1 (de) Verfahren zur Überprüfung eines Geräts oder einer Maschine
DE202020003891U1 (de) Fahrzeugoberflächenanalysesystem
EP3775773B1 (de) 3-d-objekt-erfassungssystem
EP1602903A2 (de) Verfahren und Vorrichtung zur farbmetrischen Messung von Effekt- und Uni-Lacken
DE102018002621A1 (de) Fahrzeugerfassungssystem
DE102015222393A1 (de) Messverfahren zur Bewertung von Lichtverteilungen von Kraftfahrzeugscheinwerfern
DE102018113919A1 (de) Vorrichtung zur Oberflächeninspektion eines Kraftfahrzeugs und Verfahren hierzu
DE102015210619A1 (de) Dreidimensional-Formmessapparatur, Messdaten-Verarbeitungseinheit, Messdaten-Verarbeitungsverfahren und Computerprogramm
EP1434982B1 (de) Verfahren und vorrichtung zur bestimmung der quantitativen verschmutzung von oberflächen
EP4202850A1 (de) Verfahren zur erfassung eines schadens an einem fahrzeug
DE102007014474B4 (de) Verfahren und Vorrichtung zur quantitativen Bestimmung von Oberflächeneigenschaften

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21763228

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2023516542

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021763228

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2021763228

Country of ref document: EP

Effective date: 20230414