WO2024028457A1 - Method for characterising the optical quality of a given region of a vehicle glazing unit - Google Patents

Method for characterising the optical quality of a given region of a vehicle glazing unit Download PDF

Info

Publication number
WO2024028457A1
WO2024028457A1 PCT/EP2023/071586 EP2023071586W WO2024028457A1 WO 2024028457 A1 WO2024028457 A1 WO 2024028457A1 EP 2023071586 W EP2023071586 W EP 2023071586W WO 2024028457 A1 WO2024028457 A1 WO 2024028457A1
Authority
WO
WIPO (PCT)
Prior art keywords
map
glazing
optical
area
given
Prior art date
Application number
PCT/EP2023/071586
Other languages
French (fr)
Inventor
Daouda Keita DIOP
Valentin COMPAIN
Original Assignee
Saint-Gobain Glass France
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saint-Gobain Glass France filed Critical Saint-Gobain Glass France
Publication of WO2024028457A1 publication Critical patent/WO2024028457A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/958Inspecting transparent materials or objects, e.g. windscreens
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8854Grading and classifying of flaws
    • G01N2021/8861Determining coordinates of flaws
    • G01N2021/8864Mapping zones of defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/95Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
    • G01N21/958Inspecting transparent materials or objects, e.g. windscreens
    • G01N2021/9586Windscreens

Definitions

  • DESCRIPTION TITLE Method for characterizing the optical quality of a given zone of vehicle glazing
  • the technical field of the invention is that of intelligent driving assistance systems.
  • the present invention relates to a method and a device for characterizing the optical quality of a given zone of vehicle glazing, intended to be placed in the optical path of an image acquisition device.
  • an intelligent driving assistance system TECHNOLOGICAL BACKGROUND OF THE INVENTION
  • More and more land transport vehicles, and in particular road vehicles of the automobile or truck type, are equipped with intelligent driving assistance systems (called ADAS, for Advanced Driver Assistance System, in Anglo-Saxon terminology) to limit the risk of accidents and make driving easier for drivers.
  • ADAS Advanced Driver Assistance System
  • ADAS systems are also designed to equip driverless vehicles, called “autonomous vehicles”.
  • ADAS systems are on-board systems which provide various information in real time (such as the state of road traffic), detect and anticipate possible threats from the external environment of the vehicle, or even help the driver to realize difficult or risky maneuvers, such as passing other vehicles or parking.
  • these ADAS systems include numerous detection devices, or sensors, to collect data on the vehicle's environment.
  • Certain systems, for example parking assistance systems, autonomous driving systems or even collision anticipation systems also implement one or more image acquisition devices, or cameras.
  • ADAS systems also called on-board systems, to obtain the desired functionality.
  • a night driving assistance system makes it possible to display in real time, on the vehicle dashboard, a video of the external environment via an infrared camera placed behind the windshield. of the vehicle.
  • an autonomous driving system processes the images acquired by a camera placed behind the windshield of the vehicle in order to extract the data necessary for automatic piloting of the vehicle.
  • the image acquisition devices are arranged inside the vehicle and generally positioned behind one of the windows of the vehicle, such as the windshield, the rear window or even the side windows, so to be protected from external elements such as rain, hail, flying stones, etc. Most of these image acquisition devices are placed behind the windshield to enable the acquisition of information relating to the environment located in front of the vehicle.
  • the data acquired by the on-board systems, and in particular the images, are therefore obtained through the glazing. Indeed, from an optical point of view, the positioning of the image acquisition devices behind the windshield is such that the light rays received by these image acquisition devices first pass through the glazing before 'reach said devices.
  • the glazing must therefore have optimal optical quality or at least sufficient to prevent the image captured by the image acquisition device from being distorted. [0007]However, the glazing often has optical defects whose origins are diverse. One of the characteristics causing optical defects is the inclination of the glazing. Indeed, most vehicle windows, particularly windshields and rear windows, are tilted; the optical beams passing through these glazings can therefore be distorted by this inclination of the glazing.
  • the area of the glazing is the “camera area” which includes opaque elements intended in particular to hide part of the elements of the image acquisition devices so that they are not visible from the exterior of vehicles.
  • These opaque elements most often made of enamel, in fact lead to a reduction in the optical quality of the camera zone of the glazing in the area bordering the opaque elements, in particularly in the area of the glazing located at a distance of between 5 and 8mm from the opaque elements.
  • differences in thermal expansion coefficient or physicochemical interactions between the enamel materials and the glass can cause variations. local areas of the surface near their edges, such as variations in refractive index and/or geometric deformations relative to the rest of the glazing surface.
  • the zones delimited by opaque elements can also include, on their surface, functional elements (such as networks of heating wires or functional layers with optical or thermal properties) which are directly placed in the acquisition field of the image acquisition devices and which generate optical defects.
  • functional elements such as networks of heating wires or functional layers with optical or thermal properties
  • This method also does not make it possible to measure the optical quality of a reduced area of glazing, particularly when opaque elements surrounding said area are the cause of optical distortions at their proximity. In fact, this method has a spatial resolution such that the optical quality measurements are limited to a surface portion of said given zone.
  • Another measurement method disclosed in patent document WO 2021/110901 A1 filed on behalf of the applicant, proposes to determine the optical quality of a given region using a wavefront analyzer. This analyzer makes it possible to analyze the wavefront of the light rays emitted by a light ray emitter through the camera zone of the glazing. This technique has the advantage of being particularly effective for measuring the optical quality of a given area of glazing.
  • a first aspect of the invention relates to a method for characterizing the optical quality of a given zone of a vehicle glazing of a plurality of vehicle glazings of a glazing production line, the given zone of each glazing being intended to be positioned in the optical path of an image acquisition device, the characterization method being carried out during a period less than or equal to a predetermined period of operation of the production line according to the following steps : - Detection of the presence of glazing; - Detection of the given area of glazing in an area of the glazing covered by a wavefront analyzer and including the given area; - Acquisition of the wavefront of the given area and generation of a wavefront error map; - Calculation from the wavefront error map of at least one map of optical defects present in the given zone and determination of at least one quality indicator relating to the optical defect map; - Characterization of the optical quality of the given area by comparison of each quality indicator relating to the optical defect map at a predetermined threshold.
  • the steps allowing the characterization of the optical quality of the given zone of glazing are carried out directly on a production line, during a period less than or equal to a predefined period, which allows a glazing manufacturer, for example, to save time in characterizing the optical quality of a glazing.
  • State of the art methods propose to characterize the given area of the glazing outside a production line, which requires significant additional time to the production time and costs for the manufacturer unlike the invention which allows you to calculate in real time, when the glazing is in the production line, at least one fault map.
  • the method according to the first aspect of the invention may present one or more complementary characteristics among the following, considered individually or in all technically possible combinations.
  • the method comprises, before the step of characterizing the optical quality of the given zone, the following steps: - display of the optical defect map; and/or - display of the optical quality indicator relating to the optical fault map.
  • this characteristic makes it possible to qualitatively determine optical defects present in the given zone.
  • this characteristic makes it possible to see in real time on the production line, the optical fault map and/or the quality indicators, allowing for example an operator to directly know the glazing to be eliminated from the production line or to be modified.
  • the method comprises, between the step of detecting the presence of the glazing and the detection of the given zone, a step of acquiring the wavefront of the zone of the glazing covered by the analyzer wave front.
  • the step of detecting the given area of the glazing comprises the following sub-steps: - Generation, from the acquired wave front of the covered area by the wavefront analyzer, an image of an interferogram of the area of the glazing covered by the wavefront analyzer, the area of the glazing covered by the waveform analyzer comprising a plurality of sub-zones including the given zone; - Thresholding of the interferogram image to obtain a first image; - Application of a morphological aperture filter on the first image to obtain a second image, - Detection, on the second image, of the contour of each sub-zone of the glazing area covered by the wavefront analyzer : - When the number of detected contours is non-zero: - Determination, for each contour, of the rotating rectangle of minimum area comprising said contour to obtain a set of rectangles; - Selection, among all the rectangles, of the rectangles included in a predefined zone: -If at least one rectangle is selected:
  • the method for characterizing the given area according to the first aspect of the invention is implemented by a characterization system comprising a beam emitter of light rays and the front analyzer.
  • wave and the step of generating the wave front error map comprises the following sub-step: - calculation of a phase difference between the wave front of the light rays transmitted by said given zone of the glazing and a reference wavefront for determining a wavefront error used to generate the wavefront error map.
  • the optical defect map is chosen from the following list: - an optical aberration map, - a slope or deflection map, - a map of the point spreading function - a modulation transfer function map, - a vertical distortion map and/or a horizontal distortion map.
  • This characteristic is advantageous because the types of optical defect maps cited are not measured in real time in the state of the art.
  • At least two optical defect maps are calculated and: - a first optical defect map among the at least two optical defect maps is a distortion map chosen from a vertical distortion map and a horizontal warp map, and - a second optical defect map among the at least two optical defect maps is a modulation transfer function map, the method comprising, before the characterization step, a step of comparing the first optical defect map and of the second optical defect map and in that the characterization of the optical quality of the given zone is implemented from the comparison step.
  • - the second image of a polygonal shape corresponding to a predefined area, the polygonal shape representing the given area of the glazing.
  • the step of detecting the given area of the glazing further comprises a sub-step of displaying the given area of the glazing.
  • the wavefront error map is a matrix and the step of calculating at least one optical defect map comprises the following substeps: - Creation of a mask binary, the binary mask being a matrix of the same size as the wavefront error map and in which: - Each coefficient whose index corresponds to a coefficient of the non-zero wavefront error map is equal to the same first binary information 0 or 1; - Each coefficient whose index corresponds to a coefficient of the zero wavefront error map is equal to the same second binary information 1 or 0 complementary to the first binary information; - Application of a morphological erosion filter on the binary mask, the optical defect map also being calculated from the binary mask.
  • the step of detecting the given zone, the step of calculating the optical defect map from the wavefront error map and the step of determining the at least quality indicator are implemented according to a programming language capable of executing said steps in a period strictly less than the predetermined period.
  • a programming language capable of executing said steps in a period strictly less than the predetermined period.
  • the vehicle is a road or rail vehicle.
  • the predetermined period of operation of the production line is less than 20 seconds inclusive, in particular less than 15 seconds inclusive and preferably less than 12 seconds inclusive.
  • the glazing among the plurality of glazings of the glazing production line comprises a marking associated with an identifier, the identifier being uniquely associated with the glazing
  • the method further comprises the steps following: - reading of the identifier by the characterization system, - storage in a memory of: - the identifier associated with the glazing, - the optical quality of the given zone of the glazing determined during the characterization step, - association in the memory of the stored identifier and the stored optical quality.
  • the method further comprises the following steps: - storage in the memory of the calculated optical defect map, - association in the memory of the stored identifier and the stored optical defect map.
  • the image acquisition device is a LIDAR and the given zone is adapted to be fixedly mounted opposite the LIDAR, said LIDAR comprising a light emitter and a light receiver, the given area comprising a first part adapted to be fixedly mounted facing the transmitter, a second part, different from the first part, adapted to be fixedly mounted facing the receiver, the quality indicator being determined by an absolute deviation between an average deflection of the first part and between an average deflection of the second part.
  • the image acquisition device is a stereoscopic camera and the given area is adapted to be fixedly mounted facing the stereoscopic camera, the stereoscopic camera comprising a first camera and a second camera, the given zone comprising a first part adapted to be fixedly mounted facing the first camera, a second part, different from the first part, adapted to be fixedly mounted opposite the second camera, the quality indicator being determined by an absolute difference between an average deflection of the first part and between an average deflection of the second part.
  • a second aspect of the invention relates to a system for characterizing the optical quality of at least one given zone of glazing comprising means configured to implement the method according to the first aspect of the invention.
  • Another aspect of the invention relates to a computer program product comprising program code instructions recorded on a medium usable in a computer, comprising: - computer-readable programming means for carrying out the step of detecting the given area, - computer-readable programming means for carrying out the calculation step from the wavefront error map of at least one optical defect map and the step of determining at least one at least one quality indicator relating to the optical defect map, - computer-readable programming means for carrying out the step of characterizing the optical quality of the given zone; when said program runs on a computer.
  • FIG. 1 is a schematic representation of a road vehicle windshield comprising a given area delimited by an opaque element.
  • FIG. 2 is a schematic representation of an image acquisition device placed behind the windshield shown in Figure 1, such that the given area is in the optical path of the image acquisition device.
  • FIG.3 is a schematic representation of a characterization system according to one embodiment of the invention, which makes it possible to characterize the optical quality of a given zone of glazing.
  • FIG. 4 is a block diagram of a method for characterizing the optical quality of a given zone of glazing, according to a first aspect of the invention.
  • FIG. 5 is a block diagram detailing step 103 of the method according to the first aspect of the invention.
  • FIG. 6 is a block diagram detailing step 104 of the method according to the first aspect of the invention.
  • FIG. 7 is a block diagram detailing step 105 of the method according to the first aspect of the invention.
  • FIG. 8 is a block diagram detailing step 106 of the method according to the first aspect of the invention.
  • FIG. 9 is a block diagram detailing step 107 of the method according to the first aspect of the invention.
  • FIG.10 is a block diagram detailing step 108 of the method according to the first aspect of the invention.
  • DETAILED DESCRIPTION [0045] Unless otherwise specified, the same element appearing in different figures presents a unique reference.
  • a first aspect of the invention relates to a method for characterizing the optical quality of a given zone of a vehicle glazing of a plurality of vehicle glazings of a glazing production line. [0047]The process is carried out during a period less than or equal to a predetermined period of operation of the production line. [0048]In particular, the characterization process is carried out before the arrival of the glazing following the glazing whose given zone is characterized on the production line.
  • the predetermined period of operation of the production line is less than or equal to 20 seconds, in particular less than or equal to 15 seconds and preferably less than or equal to 12 seconds.
  • the glazing can be a windshield, a rear window or even side glazing of a road or rail vehicle.
  • the glazing is preferably road or rail vehicle glazing.
  • Figure 1 illustrates an example of glazing 10.
  • the glazing 10 is a windshield comprising a sheet 11 of glass 11 and an opaque element 12.
  • the element opaque 12 makes it possible in particular to hide from the outside of the vehicle elements arranged inside said vehicle, for example a part of an image acquisition device.
  • the opaque element 12 covers at least one of the main faces of the glass sheet 11 so as to border the entire glazing 10.
  • the opaque element 12 can be placed on the surface of only one of the two main faces of the sheet 11 of glass or may comprise several portions, each of the portions being arranged on one and the other of the main faces of the sheet 11 of glass.
  • the opaque element 12 can also be formed of several portions, each portion being arranged on the surface of two or more sheets of glass depending on the number of servings.
  • the glass sheet 11 can be inclined, for example, by an angle of 30°.
  • the glass sheet 11 can be curved along one or two axes, so that a radius of curvature of the sheet 11 is for example between 6m and 30m.
  • the opaque element 12 is a layer of enamel deposited on the surface of the sheet 11.
  • the layer of enamel can be replaced by any other opaque element which makes it possible to hide certain elements from the outside. elements arranged inside the road vehicle.
  • a given zone 13 can be delimited by the opaque element 12. As can be seen in Figure 1, the opaque element 12 delimits a given zone 13 of the glazing 10, located at the level of the upper edge of the glazing 10.
  • the surface of the given zone 13 is less than 0.5m2.
  • FIG. 1 shows an example of an image acquisition device 20 placed behind the glazing 10 shown in Figure 1.
  • the image acquisition device 20 is placed behind the glazing 10 so that the given zone 13 is placed on the optical path of the image acquisition device 20, for example using a suitable support (not illustrated).
  • the image acquisition device 20 is a high-resolution digital camera adapted to operate in the visible, ie in wavelengths between 390nm and 750nm.
  • the image acquisition device 20 is a LIDAR adapted to operate in wavelengths between 620nm and 950nm.
  • the image acquisition device 20 is a stereoscopic camera.
  • a second aspect of the invention concerns a system 40 for characterizing the optical quality of each glazing.
  • Figure 3 is a schematic representation of the characterization system according to one embodiment of the invention.
  • the characterization system 40 comprises a transmitter 41, a plane mirror 42, a wavefront analyzer included in the same housing as the transmitter in this embodiment.
  • the characterization system 40 may also include a production line shutdown detection module, configured to receive a signal representative of the production line shutdown. When the production line is stopped, the glazing 10 can be placed, statically, between the emitter 41 and the plane mirror 42.
  • the characterization system 40 further comprises means for implementing implementation of the steps of the process according to the first aspect of the invention which will be described below, these means being for example a digital device comprising a network interface comprising an antenna, a memory, a microprocessor, a data restitution means such as a screen.
  • the glazing is positioned between the emitter and the plane mirror, for example at a distance between 200mm and 250mm from the emitter 41 and at a distance between 250mm and 300mm from the plane mirror.
  • the transmitter is configured to emit a beam of light rays through a zone of the glazing comprising the given zone.
  • the transmitter comprises a light source and a collimator placed after the light source in order to obtain a beam of light rays, for example parallel.
  • the light source of the transmitter is monochromatic.
  • the light source of the transmitter can be adapted to emit in the visible and/or in a range of infrared wavelengths.
  • the light source can emit a light beam having a wavelength of between 400nm and 1200nm and preferably between 620nm and 950nm.
  • the size of the beam makes it possible to completely cover the area of the glazing comprising the given area 13 while guaranteeing sufficient resolution and a flow making it possible to obtain information in the entirety of the given area 13 called the camera area.
  • the given zone 13 may have a width and a height along a main surface of the glazing 10.
  • the given zone 13 may have a trapezoidal shape, formed by a lower base and by an upper base.
  • the width of the given zone 13 is defined by the size of the longest base, for example the lower base.
  • the width of the given zone 13 can be greater than 20 mm, in particular greater than 30 mm and preferably greater than 50 mm.
  • the width of the given zone 13 may be less than 150 mm and preferably less than 100 mm.
  • the size of the beam can be greater than or equal to the width of the given zone 13 and preferably greater than or equal to the lower base of the given zone 13.
  • the beam is circular.
  • the given zone 13 can be adapted to be fixedly mounted facing said LIDAR.
  • the width of the given zone 13 can be greater than 150 mm, in particular greater than 250 mm and preferably greater than 600 mm.
  • the height of the given zone 13 can be greater than 100 mm, in particular greater than 150 mm, and less than 400 mm, in particular less than 300 mm.
  • the size of the beam can be between half the width of the given zone 13 and the width of the given zone 13.
  • the given area 13 can be opaque in the visible, in particular by means of a black camouflage element.
  • the LIDAR may comprise a light transmitter and a light receiver.
  • the given zone 13 may comprise a first part adapted to be fixedly mounted facing the transmitter, and a second part, different from the first part, adapted to be fixedly mounted facing the receiver.
  • the image acquisition device 20 is a stereoscopic camera
  • the given zone 13 can be adapted to be fixedly mounted facing the stereoscopic camera.
  • the width of the given zone 13 can be greater than 150 mm, in particular greater than 250 mm and preferably greater than 600 mm.
  • the height of the given zone 13 can be greater than 100 mm, in particular greater than 150 mm, and less than 400 mm, in particular less than 300 mm.
  • the size of the beam can be between half the width of the given zone 13 and the width of the given zone 13.
  • the given zone 13 may comprise a first part adapted to be fixedly mounted facing the first camera, and a second part, different from the first part, adapted to be fixedly mounted facing the second camera.
  • the wavefront analyzer also called an abberometer, covers the area of the glazing comprising the given area and makes it possible to measure the shape of the front waves of the beam emitted by the transmitter and to determine the deformation undergone by the wave front during its passage through the zone of the glazing comprising the given zone 13 and in particular the deformation undergone by the wave front during of its passage through the given zone 13.
  • a wave front is the three-dimensional wave surface defined so that each light ray coming from the same light source is orthogonal to it.
  • the wavefront analyzer measures the shape of this wave surface.
  • the wavefront analyzer is composed of a system known under the commercial name “Phasics-SID4-HR”, which is based on the principle of four-wave interferometry, and a camera coupled to said system.
  • This system includes a modified Hartmann mask through which the incident beam propagates and causes it to replicate into four beams.
  • the system generates an interferogram, captured by the camera, which is distorted by wavefront gradients recovered by Fourier analysis. Since the recorded interferogram is primarily sinusoidal, a small amount of pixels are required to recover a phase pixel.
  • the plane mirror 42 is placed behind the glazing 10 in order to reflect the beam transmitted by the glazing.
  • the plane mirror 42 for example based on silver, is calibrated so as to represent a perfect plane, characteristic of good optical quality, that is to say with low deformation and low roughness of surface.
  • the measuring device does not include a plane mirror. In this case, the transmitter is placed on one side of the glazing while the wavefront analyzer is placed on the other side of the glazing 10.
  • Figure 4 is a block diagram of the method 100 of characterization according to the first aspect of the invention implemented by the characterization system 40 according to the second aspect of the invention, the method comprising a plurality of steps 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117 described below. [0080]In particular, steps 107 and 108 will be described using several examples. [0081]The method 100 may include a first step 101 of stopping the glazing in the characterization system. [0082]The method 100 comprises a step 102 of detecting the presence of the glazing by the sensor of the characterization system 40 by the production line shutdown detection module.
  • the method 100 may be devoid of a step of positioning the characterization system 40 in horizontal translation following the shutdown of the production line. “Horizontal” means in the main direction of movement of the line. Indeed, the characterization system 40 can be integrated so as to be centered horizontally in relation to the given zone 13 for different glazing models. [0084]The method 100 may further comprise a step 103 of acquiring the wavefront of the zone of the glazing comprising the given zone 13, the synoptic diagram of which is represented in [Fig.5]. [0085]Step 103 of acquiring the wavefront of the glazing zone comprises a first sub-step 1031 of emitting, by the transmitter 41, a beam of light rays in the direction of said zone of the glazing. glazing.
  • Step 103 of acquiring the wave front of the glazing zone further comprises a second sub-step 1032 of receiving, by the wave front analyzer, the beam of light rays emitted by the transmitter after its passage through the zone of the glazing comprising the given zone 13. shown in [Fig.6].
  • Step 104 of detecting the given zone 13 of the glazing comprises a plurality of sub-steps detailed below.
  • a first sub-step 1041 of the detection step is a step of generating, from the wave front acquired from the glazing zone, an image of an interferogram of the glazing zone.
  • the glazing zone comprises a plurality of sub-zones including the given zone 13.
  • the interferogram generated is preferably a sinusoidal interferogram.
  • a second sub-step 1042 of the detection step is a step of thresholding the image of the interferogram and in particular the values of the pixels of the image of the interferogram to obtain a first image.
  • the thresholding of the interferogram is implemented by the digital device of the characterization system 40. Preferably, the thresholding is carried out using the “Threshold” function of the OpenCv ® library.
  • the first image is a binary matrix, also called a binary mask, of the same size as the image of the interferogram.
  • a third sub-step 1043 of detection step 104 is a step of applying a morphological aperture filter to the first image, to obtain a second picture. The second image therefore corresponds to the filtered thresholded interferogram image.
  • Morphological filters are non-linear filters, or kernels, which are used on binary images or gray level images and work on the local neighborhood of each pixel of an image.
  • a morphological opening filter is obtained by composing a morphological erosion filter and a morphological dilation filter (erosion is followed by dilation).
  • a morphological erosion filter consists of removing from an image all the structures not containing the structuring element and therefore allows example of separating two pasted objects from an image.
  • a morphological dilation filter consists of shifting the structuring element to each pixel of the image, and looking to see if the structuring element "touches" the structure of interest makes it possible to fill in holes or interrupted elements.
  • the aperture filter makes it easy to make isolated elements of a binary or grayscale image disappear, or to fill small holes included in structures.
  • the substep 1043 of application of the morphological opening filter is preferably carried out using the MorphologyEx Open function of OpenCV® whose core is square and whose size is defined by a user.
  • the morphological filter used is a kernel whose size is between 1 and 30.
  • a fourth sub-step 1044 of the detection step 104 is a step of detection, on the second image, of the contour of each sub-zone of the glazing zone covered by the wavefront analyzer and comprising the given zone 13.
  • the fourth sub-step 1044 of the detection step is preferably carried out by the FindContours function d 'OpenCV® with an ApproxSimple parameter.
  • the sub-steps 10441 to 1042 which will be described in the remainder of the text, are carried out.
  • Sub-step 10441 is a sub-step of determining, for each detected contour among the number of detected contours, the rotating rectangle of minimum area comprising said contour.
  • Substep 10441 is carried out using the MinAreaRect function of OpenCV®.
  • a set of rectangles is obtained.
  • Sub-step 10442 is a sub-step of selection, among all the rectangles, of the rectangles included in a predefined zone.
  • the predefined zone can be determined by a user for example.
  • the sub-steps 104421, 104422, 104423 which will be described in the rest of the writing are carried out.
  • Substep 104421 is a step of selecting the rectangle of maximum area relative to the area of the at least selected rectangle.
  • Substep 104422 is a step of recovering the coordinates of the pixels forming the contour included in the rectangle of maximum area.
  • Sub-step 104423 is a step of calculating, from the coordinates of the pixels recovered in sub-step 104422, a polygonal shape corresponding to an approximation of the contour included in the rectangle of maximum area.
  • Substep 104423 is carried out using the ApproxPolyDP function of OpenCV, with Epsilon parameter.
  • the Epsilon parameter corresponds to the maximum number of sides of the polygon shape approximated by the ApproxPolyDP function and can be set by an operator. Epsilon is for example between 5 and 1500.
  • the polygonal shape calculated in sub-step 104423 represents the given zone 13 of the glazing.
  • Sub-step 10442 is a sub-step of determining a polygonal shape corresponding to a predefined zone, the polygonal shape representing the given zone 13 of the glazing.
  • the determination substep 1045 is carried out by an operator, for example, manually. [00114] At the end of substep 1044 of determining contours, if no contour is selected, substep 1045 described previously is carried out. [00115] The detection step 104 may also include a sub-step 1046 for storing the calculated polygonal shape. [00116] The detection step 104 may also include a sub-step 1047 for displaying the interferogram. [00117] The detection step 104 may further comprise a sub-step 1048 of displaying the stored polygonal shape of the given zone 13 on the interferogram.
  • the method 100 further comprises a step 105 of acquiring the wave front of the given zone 13 of the glazing, the synoptic diagram of which is shown in [Fig.7], the given zone 13 having been detected at step 104.
  • Step 105 of acquiring the wavefront of the given zone 13 of the glazing comprises a first sub-step 1051 of emitting, by the transmitter, a beam of light rays in the direction of the given zone 13. The light beam is preferably parallel.
  • Step 105 of acquiring the wave front of the given zone 13 of the glazing further comprises a second sub-step 1052 of receiving, by the wave front analyzer, the wave front of light rays transmitted by said given zone 13.
  • the beam emitted by the transmitter passes through the given area 13 before reaching the plane mirror which reflects the beam towards the given area 13 again.
  • the light beam therefore crosses the given area 13 of the glazing twice before reaching the wavefront analyzer.
  • the step 105 of acquiring the wavefront of the given zone 13 may include sub-steps of acquiring the wave front of the first part and the second part given zone 13.
  • the glazing 10 can be moved between the different sub-stages, so as to measure the wave front of the different parts of the given zone 13.
  • the method 100 comprises a step 106 of generating a wavefront error map, the synoptic diagram of which is shown in [Fig. 8].
  • the wavefront error map is a matrix also called an optical path difference matrix or OPD (English: Optical Path Difference).
  • the step 106 of generating a wavefront error map comprises a first substep 1061 of calculating the phase difference between the wavefront of the beam received by the front analyzer.
  • Step 106 of generating a wavefront error map is implemented by the microprocessor of the wavefront analyzer.
  • Step 106 of generating an error map may include a sub-step 1062 of dividing the intermediate error map by two.
  • sub-step 1062 makes it possible to determine the wave front error corresponding to a single passage of the beam through the given zone 13.
  • the division sub-step 1062 is not carried out when the dividing device measurement does not include a plane mirror and that the transmitter and the wavefront analyzer are placed on either side of the glazing.
  • the method 100 further comprises a step 107 of calculating from the wavefront error map, at least one map of optical defects present in the given zone 13 and a step 108 of determining at least one quality indicator relating to the optical defect map.
  • the block diagram detailing examples of embodiments of step 107 is shown in [Fig.9].
  • the block diagram detailing examples of embodiments of step 108 is shown in [Fig.9].
  • the optical defect map is a map from at least the following list: an optical aberration map, a slope or deflection map, a map of the point spread function, a modulation transfer function map, a vertical distortion map and/or a horizontal distortion map.
  • the optical defect map is a map from at least the following list: an optical aberration map, a slope or deflection map, a point spread function map, a modulation transfer function map.
  • the optical defect map is directly the wavefront error map.
  • a plurality of at least two different optical defect maps are calculated and are chosen from an optical aberration map, a slope or deflection map, a spreading function map point, a modulation transfer function map, a vertical distortion map and/or a horizontal distortion map.
  • a first optical defect map is a distortion map chosen from a vertical distortion map and a horizontal distortion map.
  • the second optical defect map is a map of the modulation transfer function of the given zone 13 of the glazing.
  • step 107 of calculating the optical defect map includes substeps 1071 and 1072 described below.
  • Substep 1071 is a step of creating a binary mask, the binary mask being a matrix of the same size as the wavefront error map.
  • the binary mask includes the same number of coefficients as the wavefront error map. Each coefficient of the binary mask whose index corresponds to a coefficient of the error map of the non-zero wavefront is equal to the same first binary information 0 or 1. Each coefficient of the binary mask whose index corresponds to a wavefront error map coefficient zero is equal to the same second binary information 1 or 0 complementary to the first binary information.
  • Substep 1072 is a step of applying a morphological erosion filter to the binary mask to obtain a filtered binary mask.
  • the optical defect map is calculated from the wavefront error map and from the filtered binary mask.
  • the step 107 of calculating the optical defect map comprises the substeps 107-1 to 107-11 described below .
  • Sub-step 107-1 is a sub-step of creating a so-called result matrix of size equal to the binary mask or the error map of the wavefront (the binary mask and the map of 'error having the same size).
  • the coefficients of the result matrix are preferably NaN values (from English “Not a Number”).
  • Substep 107-2 is a substep of determining a first gradient matrix representing the vertical gradient of the wavefront error map.
  • the sub-step of determining the first gradient matrix is carried out from the wavefront error map and includes a plurality of sub-steps 107-3, 107-4, 107-5, 107- 6, 107-7 described in the rest of the editorial.
  • Substep 107-3 of the substep of determining the first gradient matrix is a step of creating a matrix G1 of the same size as the wavefront error map.
  • substeps 107-4 to 107-7 are carried out for each line i of the wavefront error map.
  • substep 107-4 is a step of recovering the index p of the first coefficient of said line i which is not equal to a NaN value, p being an integer and the index d of the last coefficient of said line which is not equal to a NaN value. It is possible that the line does not include any NaN value, in this case, p represents the index of the first coefficient of the line and d represents the index of the last coefficient of the line. Substep 107-4 is carried out using the binary mask, making it possible to distinguish the coefficients of the wavefront error map different from NaN.
  • Substep 107-5 is a step of subtracting the coefficient of line i of index p+1 from the coefficient of index p, the difference obtained being stored at the coefficient of index p of line i of the G1 matrix.
  • Substep 107-6 is a step of storing the index p in a variable x.
  • Substep 107-7 is a step of modifying the coefficients of line i of matrix G1 (or result matrix) according to a condition on the variable x. [00150] Let us denote ⁇ gi_j ⁇ j ⁇ n the coefficients of line i of matrix G1.
  • substep 17-7 includes a substep 107-7-1 for incrementing the variable x by 1 and modifying the coefficient value gi_x of index x of line i of matrix G1, with gx equal to half the difference between the coefficient of index x+1 and the coefficient of index x-1 of line i of the error map of the wave front.
  • the substep 107-7 includes a substep 107-7-2 of modifying the coefficient gi_ matrix G1, with gi_ x equal to the difference between the index coefficient x-1 and the index coefficient x of the wavefront error map.
  • Matrix G1 is the first gradient matrix.
  • Substep 107-8 is a substep of determining a second gradient matrix representing the horizontal gradient of the first gradient matrix.
  • Substep 107-8 of determining the second gradient matrix comprises the same substeps as substep 107-7 of determining the first gradient matrix, the wavefront error being in this case replaced by the first gradient matrix G1.
  • the step of calculating the vertical distortion map further comprises a substep 107-9 of multiplying all the values of the second matrix ⁇ . ⁇ of gradient by the term ( ⁇ ⁇ )2 to obtain a second modified gradient matrix.
  • the term X represents the size of a pixel of the wavefront analyzer, and is preferably 295 microns.
  • the step of calculating the vertical distortion map further comprises a substep 107-11 of applying a Gaussian filter to the second modified gradient matrix to obtain a second filtered gradient matrix.
  • the Gaussian filter has the parameter ⁇ , the parameter ⁇ representing the standard deviation of the Gaussian distribution. Preferably, ⁇ is between 1 and 100.
  • the second filtered gradient matrix represents the vertical distortion map.
  • step 108 of determining at least one quality indicator relating to the distortion map may include a substep 1081 of extracting the coefficient of maximum value and the minimum value coefficient of the horizontal distortion map and calculation of the difference between said maximum value and said minimum value, said difference being commonly called "Peak to Valley".
  • the step 108 for determining at least one quality indicator relating to the distortion map may further comprise a sub-step 1082 for calculating the root mean square value of the second filtered gradient matrix, more commonly called RMS (Root Mean Square). in English.
  • RMS Root Mean Square
  • the root mean square value of the second filtered gradient matrix is given by the following formula: ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ ⁇ [00164]
  • the RMS is a quality indicator, making it possible to quantify the irregularities of an optical surface and in this case of the given zone 13 of the glazing.
  • the step of calculating the optical defect map comprises the same substeps 107-1 to 107-11 described previously, with in particular steps 107-4 to 107-7 applied to the columns of the wavefront error map and not to the rows.
  • step 108 of determining a quality indicator relating to the distortion map may further comprise in in addition to a sub-step 1083 of extracting the maximum value coefficient and the minimum value coefficient from the wavefront error map and calculating the difference between said maximum value and said minimum value to obtain the "Peak to Valley.”
  • the maximum value coefficient, the minimum value coefficient and the Peak to Valley are quality indicators.
  • the step 1084 of determining at least one quality indicator relating to the distortion map may further comprise a sub-step 1084 of calculating the mean square value of the second filtered gradient matrix, more commonly called RMS (Root Mean Square) in English.
  • the RMS is a quality indicator, making it possible to quantify the irregularities of an optical surface and in this case of the given zone 13 of the glazing.
  • the modulation transfer function map represents data relating to the modulation transfer function.
  • modulation of the given area 13 and the step of calculating the modulation transfer function map comprises substeps 107-12 to 107-33 described below.
  • the modulation transfer function makes it possible to obtain a quantitative description of the image quality of an optical surface, in this case the given zone 13 of the glazing, by considering all the optical aberrations of the given zone 13.
  • the modulation transfer function of the given zone 13 of the glazing makes it possible to evaluate the capacity of the given zone 13 of the glazing to reproduce different details of an observed scene.
  • Sub-step 107-12 of the step of calculating the modulation transfer function is a sub-step of calculating the diameter D of the exit pupil of the given zone 13, included in the given zone 13 , to analyze.
  • the diameter D of the pupil is calculated from an effective focal distance f' image of all the optics of the image acquisition device 20 (for example the objective of the image acquisition device 20) , the width of a pixel of a sensor included in the image acquisition device 20 and the aperture number of the image acquisition device 20.
  • Sub-step 107-13 of the step of calculating the modulation transfer function is a sub-step of extracting a matrix comprising the pixel values corresponding to the exit pupil in the given zone 13, from the calculated diameter D and coordinates determined by an operator.
  • Sub-step 107-14 of the step of calculating the modulation transfer function is a sub-step of creating an MTF2D matrix whose size is equal to three times the size of the matrix of the exit pupil extracted.
  • Sub-step 107-15 of the step of calculating the modulation transfer function is a sub-step of copying the coefficients of the pupil to the center of the matrix MTF'.
  • Sub-step 107-16 of the step of calculating the modulation transfer function is a sub-step of replacing, in the MTF matrix, each coefficient yi by ⁇ ⁇ ⁇ ⁇ ⁇ .
  • Sub-step 107-17 of the step of calculating the modulation transfer function is a sub-step of applying an inverse transform to the MTF matrix.
  • the new coefficients of the MTF2D matrix at the end of substep 107-17 are denoted ⁇ y'i ⁇ i ⁇ n
  • Substep 107-18 of the step of calculating the modulation transfer function is a sub-step of replacing each coefficient y'i of the 2D MTF matrix by
  • Sub-step 107-19 of the step of calculating the modulation transfer function is a sub-step of normalization of the MTF2D matrix.
  • Sub-step 107-20 of the step of calculating the modulation transfer function is a sub-step of applying a Fourier transform to the MTF2D matrix.
  • the new coefficients of the 2D MTF matrix at the end of substep 17-23 are denoted ⁇ y'' i ⁇ i ⁇ n
  • Substep 107-21 of the calculation step of the modulation transfer function is a sub-step of replacing each coefficient y''i of the MTF2D matrix by
  • Sub-step 107-22 of the step of calculating the modulation transfer function is a sub-step of creating a Diffraction Limit matrix whose size is equal to three times the size of the pupil extracted.
  • Sub-step 107-23 of the step of calculating the modulation transfer function is a sub-step of copying the coefficients of a binary mask of the pupil at the center of the Diffraction Limit matrix.
  • Sub-step 107-24 of the step of calculating the modulation transfer function is a sub-step of replacing, in the MTF matrix, each coefficient a i by ⁇ ⁇ ⁇ ⁇ ⁇ .
  • Sub-step 107-25 of the step of calculating the modulation transfer function is a sub-step of applying an inverse transform to the Diffraction Limit matrix.
  • the new coefficients of the Diffraction Limit matrix at the end of sub-step 17-25 are denoted ⁇ a'i ⁇ i ⁇ n
  • Sub-step 107-26 of the calculation step of the modulation transfer function is a sub-step of replacing each coefficient a'i of the Diffraction Limit matrix by
  • Sub-step 107-27 of the step of calculating the modulation transfer function is a sub-step of normalization of the Diffraction Limit matrix.
  • Sub-step 107-28 of the step of calculating the modulation transfer function is a sub-step of applying a Fourier transform to the Diffraction Limit matrix.
  • the new coefficients of the Diffraction Limit matrix at the end of sub-step 17-29 are denoted ⁇ a'' i ⁇ i ⁇ n
  • Sub-step 17-30 of the step of calculation of the modulation transfer function is a sub-step of replacing each coefficient a''i of the Diffraction Limit matrix by
  • the Diffraction Limit matrix represents the transfer function of the given zone 13 in the absence of aberrations on the given zone 13 of the glazing.
  • the step of calculating the map of the modulation transfer function comprises a substep 17-31 of calculating a map of the modulation transfer function reduced in two dimensions.
  • the matrix represents the reduced modulation transfer function in two dimensions.
  • the step of calculating the map of the modulation transfer function comprises a sub-step 107-32 of calculating a map of a horizontal cut of the reduced modulation transfer function.
  • Sub-step 107-32 is carried out by extracting the central line of the MTF matrix and the central line of the Diffraction Limit matrix, representing respectively the horizontal section of the modulation transfer function of the given zone 13 and the function modulation transfer of the given zone 13 in the absence of aberrations.
  • ⁇ mi ⁇ i ⁇ m denote the coefficients of the central line of the MTF matrix and ⁇ ni ⁇ i ⁇ m the coefficients of the central line of the Diffraction Limit matrix.
  • the step of calculating the map of the modulation transfer function comprises a sub-step 107-33 of calculating a map of a vertical section of the modulation transfer function scaled down.
  • the sub-step includes the same steps as sub-step 107-32 but applied to the columns and not to the rows in this case, to obtain a reduced MTF_verticalcut matrix.
  • the modulation transfer function map comprises or is equal to at least one matrix among the following: 2D MTF, reduced MTF2D, reduced MTF_horizontalcut and reduced MTF_verticalcut.
  • step 108 of determining at least one quality indicator relating to the modulation transfer function map may further comprise a sub -step 1085 of calculating a term relating to the horizontal Nyquist frequency f NH and/or a term relating to the vertical Nyquist frequency f NV .
  • the term relating to the horizontal Nyquist frequency f NH is the quality indicator and may be equal to the horizontal Nyquist frequency fNH or may be equal to the half-horizontal Nyquist frequency fNH/2.
  • the term relating to the vertical Nyquist frequency fNV is the quality indicator and can be equal to the vertical Nyquist frequency f NV or the half-vertical Nyquist frequency f NV /2.
  • the Nyquist frequency (horizontal or vertical) is the highest spatial frequency at which a digital sensor can capture real information, any information higher than the Nyquist frequency which reaches the sensor is aliased to lower frequencies, thus creating potentially distracting moiré patterns.
  • the Nyquist frequency or a parameter relating to the Nyquist frequency is a quality indicator.
  • the optical defect map calculated in step 107 may be a horizontal deflection map and/or a vertical deflection map.
  • the horizontal deflection map corresponds to the deviation of the wavefront by the first part of the given zone 13 and by the second part of the given zone 13.
  • the step 108 of determining a quality indicator relating to the optical defect map may include a step of calculating a pointing error following the horizontal field of view of the LIDAR from said horizontal deflection map.
  • the pointing error corresponds to the absolute difference between an average deflection of the first part and between an average deflection of the second part.
  • the quality indicator is the pointing error and is preferably less than 150 ⁇ rad, in particular less than 100 ⁇ rad and preferably less than 50 ⁇ rad.
  • step 108 of determining a quality indicator relating to the optical defect map which is for example the vertical deflection map
  • step 108 of determining a quality indicator relating to the optical defect map can comprise a step of calculating a pointing error following the vertical field of view of the LIDAR from said vertical deflection map.
  • the pointing error corresponds to the absolute difference between an average deflection of the first part of the given zone 13 and between an average deflection of the second part of the given zone 13.
  • the quality indicator is pointing error and is preferably less than 150 ⁇ rad, in particular less than 100 ⁇ rad and preferably less than 50 ⁇ rad.
  • the method 100 may further comprise a step 109 of displaying the optical defect map calculated in step 107.
  • the plurality of maps optical faults is displayed.
  • the method 100 may further comprise a step 110 of displaying each quality indicator relating to the optical defect map determined in step 18.
  • at least one quality indicator per optical defect map is displayed.
  • only one of the steps 109 or 110 of the method 100 is carried out.
  • the two steps 109 and 110 of the method 100 are carried out.
  • the method 100 may comprise a step 111 of comparing the two optical fault maps and/or their fault indicators.
  • the method 100 further comprises a step 112 of characterizing the optical quality of the given zone 13 by comparing each quality indicator relating to the optical defect map to a predetermined threshold.
  • the predetermined threshold corresponds to a reference value of the quality indicator or a value of a quality indicator different from the quality indicator considered.
  • the characterization step 112 is further carried out by comparing the calculated optical defect map to a reference optical defect map of the same type as the calculated optical defect map , the reference optical defect map representing the optical behavior of the given zone 13 in the theoretical/ideal case where it is devoid of optical aberrations.
  • the comparison between the calculated optical defect map and the reference optical defect map can be visual.
  • characterization step 112 is further carried out from the comparison of the two calculated optical maps and/or their optical indicators.
  • an operator can receive an alert in real time if the quality indicators relating to one or more optical defect cards exceed predetermined thresholds, an operator can receive a specific alert concerning the glazing considered, each predetermined threshold being specific to a quality indicator.
  • an operator can receive an alert in real time if the quality indicators relating to one or more optical defect cards are lower than predetermined thresholds, an operator can receive an alert. particular alert concerning the glazing considered, each predetermined threshold being specific to a quality indicator.
  • the glazing is associated with a unique identifier.
  • the method 100 may further comprise a step 113 of reading the identifier of the glazing by the characterization system.
  • the method 100 may further comprise a step 114 of storing in a memory, for example the memory of the digital device, the identifier associated with the glazing and the optical quality of the given zone 13 of the glazing determined during the step 112.
  • the method 100 may further comprise a step 115 of association in the memory of the stored identifier and the stored optical quality.
  • the method 100 may further comprise a step 116 of storing in the memory the optical fault map associated with the glazing and a step 117 of associating in the memory the identifier of the stored glazing and the fault map stored optics. According to the embodiment in which a plurality of optical defect maps are calculated, the plurality of optical maps are stored and associated with the glazing identifier.
  • At least steps 103, 107, 109, 110, 111, 112, 113, 114, 115 are implemented according to a programming language capable of executing said steps in a period strictly less than the predetermined period.
  • the programming language is C#.
  • C# uses, thanks to a “wrapper library” called “OpenCVSharp”, the C++ functions of OpenCV.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Traffic Control Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Processing (AREA)

Abstract

One aspect of the invention relates to a method for characterising the optical quality of a given region of a vehicle glazing unit among a plurality of vehicle glazing units of a glazing unit production line, the given region of each glazing unit being intended to be positioned in the optical path of an image capturing device, the characterisation method being carried out during a period no longer than a predetermined period of operation of the production line, before the arrival of another glazing unit, according to a step of characterising the optical quality of the given region by comparing quality indicators relating to the optical defect map with a predetermined threshold.

Description

DESCRIPTION TITRE : Procédé de caractérisation de la qualité optique d’une zone donnée d'un vitrage de véhicule DOMAINE TECHNIQUE DE L’INVENTION [0001]Le domaine technique de l’invention est celui des systèmes intelligents d’aide à la conduite. [0002]La présente invention concerne un procédé et un dispositif de caractérisation de la qualité optique d’une zone donnée d’un vitrage de véhicule, destinée à être placée dans le trajet optique d’un dispositif d’acquisition d’images d’un système intelligent d’aide à la conduite. ARRIERE-PLAN TECHNOLOGIQUE DE L’INVENTION [0003]De plus en plus de véhicules de transport terrestre, et notamment les véhicules routiers du type automobile ou camion, sont équipés de systèmes intelligents d’aide à la conduite (appelés ADAS, pour Advanced Driver Assistance System, en terminologie anglo-saxonne) permettant de limiter les risques d’accidents et de faciliter la conduite aux conducteurs. Ces systèmes ADAS sont également conçus pour équiper les véhicules sans conducteur, dits « véhicules autonomes ». [0004]Ces systèmes ADAS sont des systèmes embarqués qui fournissent en temps réel diverses informations (telles que l'état du trafic routier), détectent et anticipent d’éventuelles menaces de l’environnement extérieur du véhicule, ou encore aident le conducteur à réaliser des manœuvres difficiles ou risquées, comme le dépassement d’autres véhicules ou le stationnement. Pour ce faire, ces systèmes ADAS comportent de nombreux dispositifs de détection, ou capteurs, permettant de collecter des données sur l’environnement du véhicule. Certains systèmes, par exemple les systèmes d’aide au stationnement, les systèmes de conduite autonome ou encore les systèmes d’anticipation de collisions, mettent en œuvre également un ou plusieurs dispositifs d’acquisition d’images, ou caméras. [0005]Les données acquises par ces dispositifs d’acquisition d’images sont traitées par les systèmes ADAS, appelés aussi systèmes embarqués, pour obtenir la fonctionnalité recherchée. Par exemple, un système d’aide à la conduite nocturne permet d’afficher en temps réel, sur le tableau de bord du véhicule, une vidéo de l’environnement extérieur par l’intermédiaire d’une caméra infrarouge disposée derrière le pare-brise du véhicule. Dans un autre exemple, un système de conduite autonome traite les images acquises par une caméra disposée derrière le pare-brise du véhicule afin d’en extraire les données nécessaires au pilotage automatique du véhicule. [0006]Généralement, les dispositifs d’acquisition d’images sont disposés à l’intérieur du véhicule et positionnés généralement derrière l’un des vitrages du véhicule, comme le pare-brise, la lunette arrière ou encore les vitres latérales, de sorte à être protégés des éléments extérieurs comme la pluie, la grêle, les projections de cailloux, etc. La plupart de ces dispositifs d’acquisition d’images sont disposés derrière le pare-brise pour permettre l’acquisition des informations relatives à l’environnement situé à l’avant du véhicule. Les données acquises par les systèmes embarqués, et notamment les images, sont donc obtenues à travers le vitrage. En effet, d’un point de vue optique, le positionnement des dispositifs d’acquisition d’images derrière le pare-brise est tel que les rayons lumineux reçus par ces dispositifs d’acquisition d’images traversent d'abord le vitrage avant d'atteindre lesdits dispositifs. Les vitrages doivent donc présenter une qualité optique optimale ou tout au moins suffisante pour éviter que l’image capturée par le dispositif d’acquisition d’images ne soit déformée. [0007]Cependant, les vitrages présentent souvent des défauts optiques dont les origines sont diverses. Une des caractéristiques à l’origine de défauts optiques est l’inclinaison du vitrage. En effet, la plupart des vitrages des véhicules, en particulier les parebrises et les vitres arrière, sont inclinés ; les faisceaux optiques traversant ces vitrages peuvent donc être déformés par cette inclinaison du vitrage. Une autre caractéristique à l’origine de défauts optiques est la zone du vitrage appelée « zone caméra » qui comporte des éléments opaques destinés notamment à cacher une partie des éléments des dispositifs d’acquisition d’images afin qu’ils ne soient pas visibles depuis l’extérieur des véhicules. Ces éléments opaques, le plus souvent fabriqués en émail, entraînent en effet une diminution de la qualité optique de la zone caméra du vitrage au niveau de la zone bordant les éléments opaques, en particulier dans la zone du vitrage située à une distance comprise entre 5 et 8mm des éléments opaques. Par ailleurs, dans le cas particulier des zones délimitées par de l’émail déposé à haute température sur des vitrages en verre, les différences de coefficient de dilatation thermique ou les interactions physicochimiques entre les matériaux de l’émail et le verre peuvent provoquer des variations locales de la surface à proximité de leurs bords, comme des variations d’indice de réfraction et/ou des déformations géométriques par rapport au reste de la surface du vitrage. De plus, les zones délimitées par des éléments opaques peuvent également comprendre, sur leur surface, des éléments fonctionnels (comme des réseaux de fils chauffants ou des couches fonctionnelles à propriétés optiques ou thermiques) qui se retrouvent directement placés dans le champ d’acquisition des dispositifs d’acquisition d’images et qui génèrent des défauts optiques. [0008]Lors de la construction d’un véhicule, le vitrage est toujours positionné sur le véhicule avant le système ADAS. Le vitrage est donc fabriqué avant l’intégration du dispositif d’acquisition des images. Ainsi, il est nécessaire de vérifier la qualité optique de la zone caméra du vitrage, et en particulier de la zone caméra, avant que le vitrage ne soit monté sur le véhicule afin d’éviter que la présence de défauts optiques ne soit à l’origine d’artefacts préjudiciables dans les images acquises. Pour des raisons économiques, il pourrait être intéressant d’intégrer la mesure de la qualité optique de la zone caméra d’un vitrage sur une ligne de production des vitrages afin que chaque vitrage puisse être contrôlé avant la fin de sa fabrication. [0009]Une méthode connue pour mesurer la qualité optique des vitrages, en particulier des parebrises de véhicules, est la déflectométrie qui mesure la réfraction du vitrage. Cette méthode utilise un écran, positionné d’un côté du vitrage et dont la position de chaque point émetteur est connue, et un capteur CCD, positionné de l’autre côté du vitrage. Cependant, cette méthode de mesure permet uniquement de déterminer la distorsion introduite par le vitrage et ne permet pas d’identifier et de quantifier précisément les défauts optiques qui altèrent la qualité de l’image capturée selon cette méthode. Cette méthode ne permet pas non plus de mesurer la qualité optique d’une zone réduite d’un vitrage, notamment lorsque des éléments opaques entourant ladite zone sont à l’origine de distorsions optiques à leur proximité. En effet, cette méthode a une résolution spatiale telle que les mesures de la qualité optique sont limitées à une portion de surface de ladite zone donnée. [0010]Une autre méthode de mesure, divulguée dans le document de brevet WO 2021/110901 A1 déposé au nom du demandeur, propose de déterminer la qualité optique d'une région donnée en utilisant un analyseur de fronts d’ondes. Cet analyseur permet d’analyser le front d’onde des rayons lumineux émis par un émetteur de rayons lumineux à travers la zone caméra du vitrage. Cette technique a l’avantage d’être particulièrement performante pour mesurer la qualité optique d’une zone donnée d’un vitrage. Cependant, la méthode proposée pour analyser les défauts optiques de la zone donnée de chaque vitrage peut être chronophage en augmentant par exemple les délais de livraison des vitrages, et peut engendrer des coûts conséquents pour le constructeur de vitrages. [0011]Il existe donc un besoin d'analyser les défauts optiques de la zone donnée de chaque vitrage d'une pluralité de vitrages de manière efficace, sans augmenter les délais de livraison de vitrages. RESUME DE L’INVENTION [0012]L’invention offre une solution aux problèmes évoqués précédemment, en permettant de déterminer la qualité optique de la zone donnée d'un vitrage directement sur une ligne de production de vitrages. [0013]Un premier aspect de l’invention concerne un procédé de caractérisation de la qualité optique d’une zone donnée d'un vitrage de véhicule d'une pluralité de vitrages de véhicule d’une ligne de production de vitrages, la zone donnée de chaque vitrage étant destinée à être positionnée dans le trajet optique d’un dispositif d’acquisition d’images, le procédé de caractérisation étant réalisé durant une période inférieure ou égale à une période prédéterminée de fonctionnement de la ligne de production selon les étapes suivantes : - Détection de la présence du vitrage ; - Détection de la zone donnée de vitrage dans une zone du vitrage couverte par un analyseur de front d’onde et comprenant la zone donnée ; - Acquisition du front d’onde de la zone donnée et génération d’une carte d’erreur du front d’onde ; - Calcul à partir de la carte d'erreur du front d'ondes d’au moins une carte de défauts optiques présents dans la zone donnée et de détermination d'au moins un indicateur de qualité relatif à la carte de défauts optiques ; - Caractérisation de la qualité optique de la zone donnée par comparaison de chaque indicateur de qualité relatif à la carte de défauts optiques à un seuil prédéterminé. [0014]Grâce à l’invention, les étapes permettant la caractérisation de la qualité optique de la zone donnée d'un vitrage sont réalisées directement sur une ligne de production, durant une période inférieure ou égale à une période prédéfinie, ce qui permet à un constructeur de vitrages par exemple de gagner du temps pour caractériser la qualité optique d'un vitrage. Les méthodes de l'état de l'art proposent de caractériser la zone donnée du vitrage en dehors d'une ligne de production, ce qui nécessite un temps conséquent supplémentaire au temps de production et des coûts pour le constructeur contrairement à l'invention qui permet de calculer en temps réel, lorsque le vitrage est dans la ligne de production, d'au moins une carte de défauts. [0015]Outre les caractéristiques qui viennent d’être évoquées dans le paragraphe précédent, le procédé selon le premier aspect de l’invention peut présenter une ou plusieurs caractéristiques complémentaires parmi les suivantes, considérées individuellement ou selon toutes les combinaisons techniquement possibles. [0016]Selon un mode de réalisation, le procédé comprend avant l’étape de caractérisation de la qualité optique de la zone donnée, les étapes suivantes : - affichage de la carte de défauts optiques ; et/ou - affichage de l'indicateur de qualité optique relatif à la carte de défauts optique. Avantageusement, cette caractéristique permet de déterminer qualitativement des défauts optiques présents dans la zone donnée. Avantageusement, cette caractéristique permet de voir en temps réel sur la ligne de production, la carte de défauts optiques et/ou les indicateurs de qualité, permettant par exemple à un opérateur de connaitre directement les vitrages à éliminer de la ligne de production ou à modifier. [0017]Selon un mode de réalisation, le procédé comprend entre l'étape de détection de présence du vitrage et la détection de la zone donnée, une étape d’acquisition du front d’onde de la zone du vitrage couverte par l’analyseur de front d'ondes. [0018]Selon un mode de réalisation, compatible avec le mode de réalisation précédent, l'étape de détection de la zone donnée du vitrage comprend les sous- étapes suivantes : - Génération, à partir du front d'ondes acquis de la zone couverte par l'analyseur de front d'ondes, d'une image d'un interférogramme de la zone du vitrage couverte par l'analyseur de front d'onde, la zone du vitrage couverte par l'analyseur de font d'onde comprenant une pluralité de sous-zones dont la zone donnée ; - Seuillage de l'image de l'interférogramme pour obtenir une première image ; - Application d'un filtre morphologique d'ouverture sur la première image pour obtenir une deuxième image, - Détection, sur la deuxième image, du contour de chaque sous-zone de la zone du vitrage couverte par l'analyseur de front d'onde : - Lorsque le nombre de contours détectés est non nul : - Détermination, pour chaque contour, du rectangle rotatif d'aire minimale comprenant ledit contour pour obtenir un ensemble de rectangles ; - Sélection, parmi l'ensemble des rectangles, des rectangles compris dans une zone prédéfinie : -Si au moins un rectangle est sélectionné : -Sélection du rectangle d'aire maximale parmi le au moins un rectangle sélectionné ; -Récupération des coordonnées des pixels formant le contour compris dans le rectangle d'aire maximale ; -A partir des cordonnées des pixels récupérées, calcul d'une forme polygonale correspondant à une approximation du contour compris dans le rectangle d'aire maximale, la forme polygonale calculée représentant la zone donnée du vitrage, - si aucun contour n’est sélectionné, détermination sur la deuxième image d'une forme polygonale correspondant à une zone prédéfinie, la forme polygonale représentant la zone donnée du vitrage. [0019]Selon un mode de réalisation, le procédé de caractérisation de la zone donnée selon le premier aspect de l'invention est mis en œuvre par un système de caractérisation comprenant un émetteur de faisceau de rayons lumineux et l’analyseur de front d'onde et l’étape de génération de la carte d’erreur de front d’ondes comprend la sous-étape suivante : - calcul d’une différence de phase entre le front d’ondes des rayons lumineux transmis par ladite zone donnée du vitrage et un front d’ondes de référence pour déterminer une erreur de front d’ondes utilisée pour générer la carte d’erreur de front d’ondes. [0020]Selon un mode de réalisation, la carte de défauts optiques est choisie parmi dans la liste suivante : - une carte d’aberration optique, - une carte de pentes ou de déflection, - une carte de la fonction d’étalement du point - une carte de la fonction de transfert de modulation, - une carte de distorsion verticale et/ou une carte de distorsion horizontale. Cette caractéristique est avantageuse car les types de cartes de défauts optiques citées ne sont pas mesurées en temps réel dans l'état de l'art. [0021]Selon une variante de réalisation, au moins deux cartes de défauts optiques sont calculées et : - une première carte de défauts optiques parmi les au moins deux cartes de défauts optiques est une carte de distorsion choisie parmi une carte de distorsion verticale et une carte de distorsion horizontale, et - une deuxième carte de défauts optiques parmi les au moins deux cartes de défauts optiques est une carte de la fonction de transfert de modulation, le procédé comprenant, avant l'étape de caractérisation, une étape de comparaison de la première carte de défauts optiques et de la deuxième carte de défauts optiques et en ce que la caractérisation de la qualité optique de la zone donnée est mise en œuvre à partir de l'étape de comparaison. - la deuxième image, d'une forme polygonale correspondant à une zone prédéfinie, la forme polygonale représentant la zone donnée du vitrage. [0022]Selon un mode de réalisation compatible avec le mode de réalisation précédent, l'étape de détection de la zone donnée du vitrage comprend en outre une sous-étape d'affichage de la zone donnée du vitrage. [0023]Selon un mode de réalisation, la carte d'erreur du front d'ondes est une matrice et l'étape de calcul d'au moins une carte de défauts optiques comprend les sous-étapes suivantes : - Création d'un masque binaire, le masque binaire étant une matrice de même taille que la carte d'erreur de front d'ondes et dans laquelle : - Chaque coefficient dont l'indice correspond à un coefficient de la carte d'erreur du front d'ondes non nul est égal à une même première information binaire 0 ou 1 ; - Chaque coefficient dont l'indice correspond à un coefficient de la carte d'erreur de front d'ondes nul est égal à une même seconde information binaire 1 ou 0 complémentaire de la première information binaire ; - Application d'un filtre morphologique d'érosion sur le masque binaire, la carte de défauts optiques étant également calculée à partir du masque binaire. [0024]Selon un mode de réalisation, l’étape de détection de la zone donnée, l'étape de calcul de la carte de défauts optiques à partir de la carte d’erreur de front d’onde et l'étape de détermination du au moins indicateur de qualité sont implémentées selon un langage de programmation apte à exécuter lesdites étapes en une période strictement inférieure à la période prédéterminée. Avantageusement, cette caractéristique permet de respecter les temps imposés dans une ligne de production. [0025]Selon un mode de réalisation, le véhicule est un véhicule routier ou ferroviaire. [0026]Selon un mode de réalisation, la période prédéterminée de fonctionnement de la ligne de production est inférieure à 20 secondes incluses, notamment inférieure à 15 secondes incluses et préférentiellement inférieure à 12 secondes incluses. [0027]Selon un mode de réalisation, le vitrage parmi la pluralité de vitrages de la ligne de production de vitrage comprend un marquage associé à un identifiant, l’identifiant étant associé de manière unique au vitrage, et le procédé comprend en outre les étapes suivantes : - lecture de l’identifiant par le système de caractérisation, - stockage dans une mémoire, de : - l'identifiant associé au vitrage, - la qualité optique de la zone donnée du vitrage déterminée lors de l’étape de caractérisation, - association dans la mémoire de l’identifiant stocké et de la qualité optique stockée. [0028]Selon un mode de réalisation compatible avec le mode de réalisation précédent, le procédé comprend en outre les étapes suivantes : - stockage dans la mémoire de la carte de défauts optiques calculée, - association dans la mémoire de l’identifiant stocké et de la carte de défauts optiques stockée. [0029]Selon un mode de réalisation de l’invention, le dispositif d'acquisition d'images est un LIDAR et la zone donnée est adaptée pour être montée fixe en regard du LIDAR, ledit LIDAR comprenant un émetteur lumineux et un récepteur lumineux, la zone donnée comprenant une première partie adaptée à être montée fixe en regard de l’émetteur, une deuxième partie, différente de la première partie, adaptée à être montée fixe en regard du récepteur, l’indicateur de qualité étant déterminé par un écart absolu entre une déflection moyenne de la première partie et entre une déflection moyenne de la deuxième partie. [0030]Selon un mode de réalisation de l’invention, le dispositif d'acquisition d'images est une caméra stéréoscopique et la zone donnée est adaptée pour être montée fixe en regard de la caméra stéréoscopique, la caméra stéréoscopique comprenant une première caméra et une deuxième caméra, la zone donnée comprenant une première partie adaptée à être montée fixe en regard de la première caméra, une deuxième partie, différente de la première partie, adaptée à être montée fixe en regard de la deuxième caméra, l’indicateur de qualité étant déterminé par un écart absolu entre une déflection moyenne de la première partie et entre une déflection moyenne de la deuxième partie. [0031]Un deuxième aspect de l'invention concerne un système de caractérisation de la qualité optique d’au moins une zone donnée d’un vitrage comprenant des moyens configurés pour mettre en œuvre le procédé selon le premier aspect de l'invention. [0032]Un autre aspect de l'invention concerne un produit programme d’ordinateur comprenant instructions de code de programme enregistré sur un support utilisable dans un ordinateur, comprenant : - des moyens de programmation lisibles par ordinateur pour effectuer l’étape de détection de la zone donnée, - des moyens de programmation lisibles par ordinateur pour effectuer l’étape de calcul à partir de la carte d'erreur du front d'ondes d'au moins une carte de défauts optiques et l'étape de détermination d'au moins un indicateur de qualité relatif à la carte de défauts optiques, - des moyens de programmation lisibles par ordinateur pour effectuer l’étape de caractérisation de la qualité optique de la zone donnée; lorsque ledit programme fonctionne sur un ordinateur. [0033]L’invention et ses différentes applications seront mieux comprises à la lecture de la description qui suit et à l’examen des figures qui l’accompagnent. BREVE DESCRIPTION DES FIGURES [0034]Les figures sont présentées à titre indicatif et nullement limitatif de l’invention. [0035]La [Fig. 1] est une représentation schématique d’un pare-brise de véhicule routier comprenant une zone donnée délimitée par un élément opaque. [0036] La [Fig. 2] est une représentation schématique d’un dispositif d’acquisition d’images placé derrière le pare-brise illustré dans la figure 1, de sorte que la zone donnée soit dans le trajet optique du dispositif d’acquisition d’images. [0037]La [Fig.3] est une représentation schématique d’un système de caractérisation selon un mode de réalisation de l’invention, qui permet caractériser la qualité optique d'une zone donnée d'un vitrage. [0038]La [Fig. 4] est un schéma synoptique d'un procédé de caractérisation de la qualité optique d'une zone donnée d'un vitrage, selon un premier aspect de l'invention. [0039]La [Fig. 5] est un schéma synoptique détaillant l'étape 103 du procédé selon le premier aspect de l'invention. [0040]La [Fig. 6] est un schéma synoptique détaillant l'étape 104 du procédé selon le premier aspect de l'invention. [0041]La [Fig. 7] est un schéma synoptique détaillant l'étape 105 du procédé selon le premier aspect de l'invention. [0042]La [Fig. 8] est un schéma synoptique détaillant l'étape 106 du procédé selon le premier aspect de l'invention. [0043]La [Fig. 9] est un schéma synoptique détaillant l'étape 107 du procédé selon le premier aspect de l'invention. [0044]La [Fig.10] est un schéma synoptique détaillant l'étape 108 du procédé selon le premier aspect de l'invention. DESCRIPTION DETAILLEE [0045]Sauf précision contraire, un même élément apparaissant sur des figures différentes présente une référence unique. [0046]Un premier aspect de l’invention concerne un procédé de caractérisation de la qualité optique d’une zone donnée d'un vitrage de véhicule d'une pluralité de vitrages de véhicule d’une ligne de production de vitrages. [0047]Le procédé est réalisé durant une période inférieure ou égale à une période prédéterminée de fonctionnement de la ligne de production. [0048]En particulier, le procédé de caractérisation est réalisé avant l'arrivée du vitrage suivant le vitrage dont la zone donnée est caractérisée sur la ligne de production. [0049]La période prédéterminée de fonctionnement de la ligne de production est inférieure ou égale à 20 secondes, notamment inférieure ou égale à 15 secondes et de préférence inférieure ou égale à 12 secondes. [0050]Par « vitrage », on entend une plaque formée à partir d’un matériau transparent tel que du verre ou encore du plastique. Avantageusement, le vitrage peut être un pare-brise, une lunette arrière ou encore un vitrage latéral d'un véhicule routier ou ferroviaire. [0051]Le vitrage est de préférence un vitrage de véhicule routier ou ferroviaire. [0052]La figure 1 illustre un exemple de vitrage 10. [0053]En référence à la [Fig.1], le vitrage 10 est un pare-brise comprenant une feuille 11 de verre 11 et un élément opaque 12. L’élément opaque 12 permet notamment de cacher depuis l’extérieur du véhicule des éléments disposés à l’intérieur dudit véhicule, par exemple une partie d’un dispositif d’acquisition d’images. L’élément opaque 12 recouvre au moins une des faces principales de la feuille 11 de verre de manière à border tout le vitrage 10. L’élément opaque 12 peut être disposé sur la surface d’une seule des deux faces principales de la feuille 11 de verre ou peut comprendre plusieurs portions, chacune des portions étant disposée sur l’une et sur l’autre des faces principales de la feuille 11 de verre. Dans le cas d’un vitrage 10 multiple comprenant plusieurs feuilles de verre, tel qu’un vitrage 10 feuilleté, l’élément opaque 12 peut aussi être formé de plusieurs portions, chaque portion étant disposée sur la surface de deux ou plusieurs feuilles de verre selon le nombre de portions. Par ailleurs, la feuille 11 de verre peut être inclinée par exemple d’un angle de 30°. De plus, la feuille 11 de verre peut être bombée suivant un ou deux axes, de sorte qu’un rayon de courbure de la feuille 11 est par exemple compris entre 6m et 30m. [0054]De préférence, l’élément opaque 12 est une couche d’émail déposée à la surface de la feuille 11. Naturellement, la couche d’émail peut être remplacée par tout autre élément opaque qui permet de cacher depuis l’extérieur certains éléments disposés à l’intérieur du véhicule routier. [0055]Une zone donnée 13 peut être délimitée par l’élément opaque 12. Comme on peut le voir sur la figure 1, l’élément opaque 12 délimite une zone donnée 13 du vitrage 10, située au niveau de la bordure supérieure du vitrage 10. [0056]De préférence, la surface de la zone donnée 13 est inférieure à 0,5m². [0057]La zone donnée 13 de chaque vitrage est destinée à être positionnée dans le trajet optique d'un dispositif d'acquisition d'images. [0058]La figure 2 montre un exemple de dispositif d’acquisition d’images 20 placé derrière le vitrage 10 représenté à la figure 1. [0059]Comme on peut le voir sur la figure 2, le dispositif d’acquisition d’images 20 est placé derrière le vitrage 10 de sorte que la zone donnée 13 soit placée sur le trajet optique du dispositif d’acquisition d’images 20, par exemple à l’aide d’un support adapté (non illustré). Avantageusement, le dispositif d’acquisition d’images 20 est une caméra numérique haute résolution adaptée pour opérer dans le visible, i.e. dans les longueurs d’onde comprises entre 390nm et 750nm. [0060]Selon un mode de réalisation non représenté, le dispositif d'acquisition d'images 20 est un LIDAR adapté pour opérer dans des longueurs d'ondes comprises entre 620nm et 950nm. [0061]Selon un mode de réalisation non représenté, le dispositif d'acquisition d'images 20 est une caméra stéréoscopique. [0062]Avantageusement, un deuxième aspect de l'invention concerne un système de caractérisation 40 de la qualité optique de chaque vitrage. [0063]La figure 3 est une représentation schématique du système de caractérisation selon un mode de réalisation de l’invention. [0064]En référence à la figure 3, le système de caractérisation 40 comprend un émetteur 41, un miroir-plan 42, un analyseur de front d'ondes compris dans le même boitier que l'émetteur dans ce mode de réalisation. Le système de caractérisation 40 peut également comprendre un module de détection d’arrêt de la ligne de production, configuré pour recevoir un signal représentatif de l’arrêt de la ligne de production. Lors de l’arrêt de la ligne de production, le vitrage 10 peut être disposé, de manière statique, entre l’émetteur 41 et le miroir-plan 42. [0065]Le système de caractérisation 40 comprend en outre des moyens pour mettre en œuvre des étapes du procédé selon le premier aspect de l'invention qui seront décrites dans la suite, ces moyens étant par exemple un dispositif numérique comportant une interface réseau comportant une antenne, une mémoire, un microprocesseur, un moyen de restitution de données tel qu'un écran. [0066]Le vitrage est positionné entre l’émetteur et le miroir-plan, par exemple à une distance comprise entre 200mm et 250mm de l’émetteur 41 et à une distance comprise entre 250mm et 300mm du miroir-plan. [0067]L’émetteur est configuré pour émettre un faisceau de rayons lumineux à travers une zone du vitrage comprenant la zone donnée. Pour ce faire, l’émetteur comprend une source de lumière et un collimateur placé après la source de lumière afin d'obtenir un faisceau de rayons lumineux par exemple parallèles. Avantageusement, la source de lumière de l’émetteur est monochromatique. De plus, la source de lumière de l’émetteur peut être adaptée pour émettre dans le visible et/ou dans une gamme de longueurs d’onde infrarouges La source de lumière peut émettre un faisceau lumineux présentant une longueur d’onde comprise entre 400nm et 1200nm et de préférence comprise entre 620nm et 950nm. De manière avantageuse, la taille du faisceau permet de couvrir entièrement la zone du vitrage comprenant la zone donnée 13 en garantissant une résolution suffisante et un flux permettant d’obtenir des informations dans la totalité de la zone donnée 13 dite zone caméra. [0068]En particulier, la zone donnée 13 peut présenter une largeur et une hauteur suivant une surface principale du vitrage 10. La zone donnée 13 peut présenter une forme trapézoïdale, formée par une base inférieure et par une base supérieure. Dans ce cas, la largeur de la zone donnée 13 est définie par la taille de la base la plus longue, par exemple de la base inférieure. La largeur de la zone donnée 13 peut être supérieure à 20 mm, notamment supérieure à 30 mm et préférentiellement supérieure à 50 mm. La largeur de la zone donnée 13 peut être inférieure à 150 mm et de préférence inférieure à 100 mm. [0069]La taille du faisceau peut être supérieure ou égale à la largeur de la zone donnée 13 et de préférence supérieure ou égale à la base inférieure de la zone donnée 13. [0070]De préférence, le faisceau est circulaire. [0071]Selon un mode de réalisation, dans lequel le dispositif d'acquisition d'images 20 est un LIDAR, la zone donnée 13 peut être adaptée pour être montée fixe en regard dudit LIDAR. Dans ce mode de réalisation de l’invention, la largeur de la zone donnée 13 peut être supérieure à 150 mm, notamment supérieure à 250 mm et préférentiellement supérieure à 600 mm. La hauteur de la zone donnée 13 peut être supérieure à 100 mm, notamment supérieure à 150 mm, et inférieure à 400 mm, notamment inférieure à 300 mm. La taille du faisceau peut être comprise entre la moitié de la largeur de la zone donnée 13 et la largeur de la zone donnée 13. [0072]Selon le mode de réalisation de l’invention précédent, dans lequel le dispositif d'acquisition d'images 20 est un LIDAR, la zone donnée 13 peut être opaque dans le visible, notamment au moyen d’un élément de camouflage noir. Dans ce mode de réalisation de l’invention, le LIDAR peut comprendre un émetteur lumineux et un récepteur lumineux. La zone donnée 13 peut comprendre une première partie adaptée à être montée fixe en regard de l’émetteur, et une deuxième partie, différente de la première partie, adaptée à être montée fixe en regard du récepteur. [0073]Selon un mode de réalisation de l’invention, dans lequel le dispositif d'acquisition d'images 20 est une caméra stéréoscopique, la zone donnée 13 peut être adaptée pour être montée fixe en regard de la caméra stéréoscopique. Dans ce mode de réalisation de l’invention, la largeur de la zone donnée 13 peut être supérieure à 150 mm, notamment supérieure à 250 mm et préférentiellement supérieure à 600 mm. La hauteur de la zone donnée 13 peut être supérieure à 100 mm, notamment supérieure à 150 mm, et inférieure à 400 mm, notamment inférieure à 300 mm. La taille du faisceau peut être comprise entre la moitié de la largeur de la zone donnée 13 et la largeur de la zone donnée 13. [0074]Selon le mode de réalisation de l’invention précédent, dans lequel le dispositif d'acquisition d'images 20 est une caméra stéréoscopique, la caméra stéréoscopique peut comprendre une première caméra et une deuxième caméra. La zone donnée 13 peut comprendre une première partie adaptée à être montée fixe en regard de la première caméra, et une deuxième partie, différente de la première partie, adaptée à être montée fixe en regard de la deuxième caméra. [0075]L'analyseur de front d’onde, appelé également abberomètre, couvre la zone du vitrage comprenant la zone donnée et permet de mesurer la forme du front d’ondes du faisceau émis par l’émetteur et de déterminer la déformation subie par le front d’ondes lors de son passage à travers la zone du vitrage comprenant la zone donnée 13 et en particulier la déformation subie par le front d'onde lors de son passage à travers la zone donnée 13. [0076] Pour rappel, un front d’ondes est la surface d’onde en trois dimensions définie de façon que chaque rayon lumineux provenant de la même source lumineuse y soit orthogonal. L’analyseur de front d’ondes mesure la forme de cette surface d'onde. Avantageusement, l’analyseur de front d’ondes est composé d’un système connu sous la dénomination commerciale « Phasics-SID4-HR », qui repose sur le principe de l’interférométrie à quatre ondes, et d’une caméra couplée audit système. Ce système comprend un masque de Hartmann modifié à travers lequel le faisceau incident se propage et entraîne sa réplication en quatre faisceaux. Le système génère un interférogramme, capturé par la caméra, qui est déformé par les gradients de front d'onde récupérés par une analyse de Fourier. Dans la mesure où l'interférogramme enregistré est principalement sinusoïdal, une petite quantité de pixels est nécessaire pour récupérer un pixel de phase. Cela se traduit par une résolution accrue, au moins d'un facteur 4, par rapport aux autres analyseurs de front d'onde basés sur la récupération du gradient telles que la technique dite de Hartmann et la technique dite de Shack-Hartmann. [0077]Par ailleurs, le miroir-plan 42 est placé derrière le vitrage 10 afin de réfléchir le faisceau transmis par le vitrage. Avantageusement, le miroir-plan 42, par exemple à base d’argent, est calibré de manière à représenter un plan parfait, caractéristique d’une bonne qualité optique, c’est-à-dire avec une faible déformation et une faible rugosité de surface. [0078]Dans une variante de réalisation non illustrée, le dispositif de mesure ne comprend pas de miroir-plan. Dans ce cas, l’émetteur est placé d’un côté du vitrage tandis que l’analyseur de front d’ondes est placé de l’autre côté du vitrage 10. [0079]La figure 4 est un schéma synoptique du procédé 100 de caractérisation selon le premier aspect de l'invention mis en œuvre par le système de caractérisation 40 selon le deuxième aspect de l'invention, le procédé comprenant une pluralité d'étapes 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117 décrites dans la suite. [0080]En particulier, les étapes 107 et 108 seront décrites à l'aide de plusieurs exemples. [0081]Le procédé 100 peut comprendre une première étape 101 d'arrêt du vitrage dans le système de caractérisation. [0082]Le procédé 100 comprend une étape 102 de détection de la présence du vitrage par le capteur du système de caractérisation 40 par le module de détection d’arrêt de la ligne de production. [0083]Le procédé 100 peut être dénué d’une étape de positionnement du système de caractérisation 40 en translation horizontale suite à l’arrêt de la ligne de production. On entend par « horizontale » dans la direction principale de déplacement de la ligne. En effet, le système de caractérisation 40 peut être intégré de sorte à être centré horizontalement par rapport à la zone donnée 13 pour différents modèles de vitrages. [0084]Le procédé 100 peut comprendre en outre une étape 103 d'acquisition du front d'onde de la zone du vitrage comprenant la zone donnée 13, dont le schéma synoptique est représenté dans la [Fig.5]. [0085]L'étape 103 d'acquisition du front d'onde de la zone du vitrage comprend une première sous-étape d'émission 1031, par l’émetteur 41, d’un faisceau de rayons lumineux en direction de ladite zone du vitrage. [0086]L'étape 103 d'acquisition du front d'onde de la zone du vitrage comprend en outre une deuxième sous-étape 1032 de réception, par l'analyseur de front d'onde, du faisceau de rayons lumineux émis par l'émetteur après son passage à travers la zone du vitrage comprenant la zone donnée 13. [0087]Le procédé 100 comprend une étape 104 de détection de la zone donnée 13 dans la zone du vitrage comprenant la zone donnée 13 et dont le schéma synoptique est représenté à la [Fig.6]. [0088]L'étape 104 de détection de la zone donnée 13 du vitrage comprend une pluralité de sous-étapes détaillées dans la suite. [0089]Une première sous-étape 1041 de l'étape de détection est une étape de génération, à partir du front d'ondes acquis de la zone du vitrage, d'une image d'un interférogramme de la zone du vitrage. En particulier, la zone du vitrage comprend une pluralité de sous-zones dont la zone donnée 13. [0090]L'intérférogramme généré est de préférence un interférogramme sinusoïdal. [0091]Une deuxième sous-étape 1042 de l'étape de détection est une étape de seuillage de l'image de l'interférogramme et en particulier des valeurs des pixels de l'image de l'interférogramme pour obtenir une première image. [0092]Le seuillage de l'interférogramme est mis en œuvre par le dispositif numérique du système de caractérisation 40. De préférence, le seuillage est réalisé grâce à la fonction "Threshold" de la bibliothèque OpenCv ®. [0093]La première image est une matrice binaire, également appelée masque binaire, de même taille que l'image de l'interférogramme. [0094]Par exemple, les indices des pixels (ou coefficients) de l'image de l'interférogramme dont la valeur est supérieure à un seuil S1 et/ou inférieure à un seuil S2 correspondent à des indices de pixels de la première image égaux à une même information binaire. Par exemple, S1 = 1 et S2 = 2000. [0095] Une troisième sous-étape 1043 de l'étape 104 de détection est une étape d'application d'un filtre morphologique d'ouverture sur la première image, pour obtenir une deuxième image. La deuxième image correspond donc à l'image de l'interférogramme seuillée filtrée. [0096]Les filtres morphologiques sont des filtres non-linéaires, ou noyaux, qui sont utilisés sur des images binaires ou images en niveau de gris et travaillent sur le voisinage local de chaque pixel d'une image. La forme de ce voisinage est appelée élément structurant. [0097]Les filtres morphologiques permettant de pour conserver ou supprimer des structures sur les images possédant certaines caractéristiques, notamment de forme et d'éliminer un bruit indésirable par exemple. [0098]Un filtre morphologique d'ouverture est obtenu par composition d'un filtre morphologique d'érosion et d'un filtre morphologique de dilatation (l'érosion est suivie de la dilatation). Un filtre morphologique d'érosion consiste à supprimer d’une image toutes les structures ne contenant pas l’élément structurant et permet par exemple de séparer deux objets collés d'une image. Un filtre morphologique de dilatation consiste à décaler l'élément structurant sur chaque pixel de l'image, et à regarder si l'élément structurant « touche » la structure d'intérêt permet de combler des trous ou éléments interrompus. Avantageusement, le filtre d'ouverture permet de de faire disparaître facilement les éléments isolées d'une image binaire ou en niveaux de gris, ou de combler les petits trous compris dans des structures. [0099]La sous-étape 1043 d'application du filtre morphologique d'ouverture est de préférence réalisée grâce à la fonction MorphologyEx Open d’OpenCV® dont le noyau est carré et dont la taille est définie par un utilisateur. De préférence, Le filtre morphologique utilisé est un noyau dont la taille est comprise entre 1 et 30. [00100] Une quatrième sous-étape 1044 de l'étape de détection 104 est une étape de détection, sur la deuxième image, du contour de chaque sous-zone de la zone du vitrage couverte par l'analyseur de front d'onde et comprenant la zone donnée 13. [00101] La quatrième sous-étape 1044 de l'étape de détection est de préférence réalisée par la fonction FindContours d’OpenCV® avec un paramètre ApproxSimple. [00102] A l'issue de la quatrième sous-étape 1044 de l'étape 104 de détection, si le nombre de contours détectés est non nul, les sous-étapes 10441 à 1042, qui seront décrites dans la suite de la rédaction, sont réalisées. [00103] La sous-étape 10441 est une sous-étape de détermination, pour chaque contour détecté parmi le nombre de contours détectés, du rectangle rotatif d'aire minimal comprenant ledit contour. La sous-étape 10441 est réalisée grâce à la fonction MinAreaRect d’OpenCV®. A l'issue de la sous-étape 10441, un ensemble de rectangles est obtenu. [00104] La sous étape 10442 est une sous-étape de sélection, parmi l'ensemble des rectangles, des rectangles compris dans une zone prédéfinie. La zone prédéfinie peut être déterminée par un utilisateur par exemple. [00105] A l'issue de la sous-étape 10442 de l'étape de détection, si au moins un rectangle est sélectionné, c’est-à-dire si au moins un rectangle parmi l'ensemble des rectangles est compris dans la zone prédéfinie, alors les sous-étapes 104421, 104422,104423 qui seront décrites dans la suite de la rédaction, sont réalisées. [00106] La sous-étape 104421 est une étape de sélection du rectangle d'aire maximale par rapport à l'aire du au moins rectangle sélectionné. [00107] En particulier, si un seul rectangle est sélectionné à l'issue de la sous- étape 1443, le rectangle d'aire maximal est directement le rectangle sélectionné. [00108] La sous-étape 104422 est une étape de récupération des coordonnées des pixels formant le contour compris dans le rectangle d'aire maximale. [00109] La sous-étape 104423 est une étape de calcul, à partir des coordonnées des pixels récupérés à la sous-étape 104422, d'une forme polygonale correspondant à une approximation du contour compris dans le rectangle d'aire maximale. [00110] La sous-étape 104423 est réalisée grâce à la fonction ApproxPolyDP d’OpenCV, de paramètre Epsilon. Le paramètre Epsilon correspond au nombre maximal de côtés de la forme polygonale approximée par la fonction ApproxPolyDP et peut être réglé par un opérateur. Epsilon est par exemple compris entre 5 et 1500. [00111] La forme polygonale calculée à la sous étape 104423 représente la zone donnée 13 du vitrage. [00112] A l'issue de la sous-étape 10441 de l'étape de détermination d'au moins un rectangle rotatif dans la zone prédéterminée, si le nombre de rectangles détectés est nul, la sous-étape 10442 décrite dans la suite de la rédaction, est réalisée. [00113] La sous-étape 10442 est une sous-étape de détermination d'une forme polygonale correspondant à une zone prédéfinie, la forme polygonale représentant la zone donnée 13 du vitrage. La sous-étape 1045 de détermination est réalisée par un opérateur par exemple, manuellement. [00114] A l'issue de la sous-étape 1044 de détermination de contours, si aucun contour n'est sélectionné, la sous-étape 1045 décrite précédemment, est réalisée. [00115] L'étape 104 de détection peut en outre comprendre une sous-étape 1046 de stockage de la forme polygonale calculée. [00116] L'étape 104 de détection peut en outre comprendre une sous-étape 1047 d'affichage de l'interférogramme. [00117] L'étape 104 de détection peut en outre comprendre une sous-étape 1048 d'affichage sur l'interférogramme de la forme polygonale stockée de la zone donnée 13. [00118] Le procédé 100 comprend en outre une étape 105 d'acquisition du front d'onde de la zone donnée 13 du vitrage, dont le schéma synoptique est représenté à la [Fig.7], la zone donnée 13 ayant été détectée à l'étape 104. [00119] L'étape 105 d'acquisition du front d'onde de la zone donnée 13 du vitrage comprend une première sous-étape 1051 d'émission, par l'émetteur, d'un faisceau de rayons lumineux en direction de la zone donnée 13. Le faisceau lumineux est de préférence parallèle. [00120] L'étape 105 d'acquisition du front d'onde de la zone donnée 13 du vitrage comprend en outre une deuxième sous-étape 1052 de réception, par l'analyseur de front d'ondes, du front d'ondes de rayons lumineux transmis par ladite zone donnée 13. [00121] Selon le mode de réalisation selon lequel le système comprend le miroir plan d'une part du vitrage et l'émetteur et l'analyseur de front de l'autre part du vitrage, le faisceau émis par l'émetteur traverse la zone donnée 13 avant d'atteindre le miroir plan qui réfléchit le faisceau vers la zone donnée 13 à nouveau. Le faisceau lumineux traverse donc deux fois la zone donnée 13 du vitrage avant d'atteindre l'analyseur de front d'onde. [00122] Selon le mode de réalisation dans lequel le dispositif d'acquisition d'images 20 est un LIDAR, l’étape d’acquisition 105 du front d’onde de la zone donnée 13 peut comprendre des sous-étapes d’acquisition du front d’onde de la première partie et de la deuxième partie zone donnée 13. Le vitrage 10 peut être déplacé entre les différentes sous-étapes, de sorte à mesurer le front d’onde des différentes parties de la zone donnée 13. Ainsi, il est possible d’acquérir le front d’onde de la zone donnée 13 adaptée être montée fixe en regard d’un LIDAR en utilisant les mêmes émetteur et analyseur du front d'onde que pour une zone donnée 13 adaptée à être montée fixe en regard d’un dispositif d'acquisition d'images 20 dans le visible, comme une caméra thermique par exemple. [00123] Le procédé 100 comprend une étape 106 de génération d'une carte d'erreur du front d'onde dont le schéma synoptique est représenté à la [Fig. 8]. La carte d'erreur de front d'ondes est une matrice également appelée matrice de différences de chemin optiques ou OPD (de l'anglais : Optical Path Différence). [00124] L'étape 106 de génération d'une carte d'erreur du front d'onde comprend une première sous-étape 1061 de calcul de la différence de phase entre le front d'onde du faisceau reçu par l'analyseur de front d'onde et un front d'onde de référence pour déterminer une erreur de front d’ondes intermédiaire. Par exemple, le front d'onde de référence correspond au front d'onde d'un faisceau lumineux émis par l'émetteur et reçu par l'analyseur de front d'onde, sans traverser le vitrage ni aucun autre dioptre. [00125] L'étape 106 de génération d'une carte d'erreur du front d'onde est mise en œuvre par le microprocesseur de l'analyseur de front d'onde. [00126] L'étape 106 de génération d d'une carte d'erreur peut comprendre une sous-étape 1062 de division de la carte d'erreur intermédiaire par deux. En effet, dans la mesure où le faisceau traverse deux fois la zone donnée 13 du vitrage, une première fois lors de l’émission du faisceau par l’émetteur et une deuxième fois lors de la réflexion du faisceau par le miroir-plan, l’erreur de front d’ondes intermédiaire déterminée dans la sous-étape 161 correspond à l’erreur de front d’ondes résultant des deux passages du faisceau à travers la zone donnée 13 du vitrage. Ainsi, la sous- étape 1062 permet de déterminer l’erreur de front d’ondes correspondant à un seul passage du faisceau à travers la zone donnée 13. Naturellement, la sous-étape 1062 de division n’est pas réalisée lorsque le dispositif de mesure ne comprend pas de miroir-plan et que l’émetteur et l’analyseur de front d’onde sont placés de part et d’autre du vitrage. En effet, dans ce cas l’erreur de front d’ondes intermédiaire calculée lors de la sous-étape de calcul 1061 correspond à l’erreur de front d’ondes relative à un seul passage du faisceau à travers la zone donnée 1313. [00127] Le procédé 100 comprend en outre une étape 107 de calcul à partir de la carte d'erreur du front d'ondes, d'au moins une carte de défauts optiques présents dans la zone donnée 13 et une étape 108 de de détermination d'au moins un indicateur de qualité relatif à la carte de défauts optiques. [00128] Le schéma synoptique détaillant des exemples de mode de réalisation de l'étape 107 est représenté à la [Fig.9]. [00129] Le schéma synoptique détaillant des exemples de mode de réalisation de l'étape 108 est représenté à la [Fig.9]. [00130] Selon un mode de réalisation, la carte de défauts optiques est une carte parmi au moins la liste suivante : une carte d’aberration optique, une carte de pentes ou de déflection, une carte de la fonction d’étalement du point, une carte de la fonction de transfert de modulation, une carte de distorsion verticale et/ou une carte de distorsion horizontale. [00131] Selon un mode de réalisation dans lequel une seule carte de défauts optiques est calculée, la carte de défauts optiques est une carte parmi au moins la liste suivante : une carte d’aberration optique, une carte de pentes ou de déflection, une carte de la fonction d’étalement du point, une carte de la fonction de transfert de modulation. [00132] Selon un mode de réalisation, la carte de défauts optiques est directement la carte d'erreur du front d'onde. [00133] Selon un mode de réalisation, une pluralité d'au moins deux cartes de défauts optiques différentes sont calculées et sont choisies parmi une carte d’aberration optique, une carte de pentes ou de déflection, une carte de la fonction d’étalement du point, une carte de la fonction de transfert de modulation, une carte de distorsion verticale et/ou une carte de distorsion horizontale. [00134] En particulier, selon un mode de réalisation dans lequel au moins deux cartes de défauts optiques sont calculées, une première carte de défauts optiques est une carte de distorsion choisie parmi une carte de distorsion verticale et une carte de distorsion horizontale. La deuxième carte de défauts optiques est une carte de la fonction de transfert de modulation de la zone donnée 13 du vitrage. [00135] Selon un mode de réalisation, l'étape 107 de calcul de la carte de défauts optiques comprends les sous-étapes 1071 et 1072 décrites dans la suite. [00136] La sous-étape 1071 est une étape de création d'un masque binaire, le masque binaire étant une matrice de même taille que la carte d'erreur du front d'onde. [00137] Le masque binaire comprend le même nombre de coefficients que la carte d'erreur du front d'onde. Chaque coefficient du masque binaire dont l'indice correspond à un coefficient de la carte d'erreur du front d'ondes non nul est égale à une même première information binaire 0 ou 1. Chaque coefficient du masque binaire dont l'indice correspond à un coefficient de la carte d'erreur du front d'ondes nul est égal à une même seconde information binaire 1 ou 0 complémentaire de la première information binaire. [00138] La sous-étape 1072 est une étape d'application d'un filtre morphologique d'érosion sur le masque binaire pour obtenir un masque binaire filtré. [00139] Selon le mode de réalisation dans lequel la carte de défauts optiques est une carte de distorsion horizontale ou une carte de distorsion verticale, la carte de défauts optiques est calculée à partir de la carte d'erreur du front d'onde et à partir du masque binaire filtré. [00140] Selon le mode de réalisation dans lequel la carte de défauts optiques est une carte de distorsion verticale, l'étape de calcul 107 de la carte de défauts optiques comprend les sous-étapes 107-1 à 107-11 décrites dans la suite. [00141] La sous-étape 107-1 est une sous-étape de création d'une matrice dite de résultat de taille égale au masque binaire ou à la carte d'erreur du front d'ondes (le masque binaire et la carte d'erreur ayant la même taille). Les coefficients de la matrice de résultat sont de préférences des valeurs NaN (de l'anglais "Not a Number"). [00142] La sous-étape 107-2 est une sous-étape de détermination d'une première matrice gradient représentant le gradient vertical de la carte d'erreur de front d'onde. [00143] La sous-étape de détermination de la première matrice gradient est réalisée à partir de la carte d'erreur du front d'ondes comprend une pluralité de sous- étapes 107-3, 107-4, 107-5, 107-6, 107-7 décrites dans la suite de la rédaction. [00144] La sous-étape 107-3 de la sous-étape de détermination de la première matrice gradient est une étape de création d'une matrice G1 de même taille que la carte d'erreur du front d'onde. [00145] En particulier, les sous-étapes 107-4 à 107-7 sont réalisées pour chaque ligne i de la carte d'erreur du front d'onde. [00146] Pour chaque ligne i de la carte d'erreur du front d'onde, la sous-étape 107-4 est une étape de récupération de l'indice p du premier coefficient de ladite ligne i qui n'est pas égal à une valeur NaN, p étant un entier et de l'indice d du dernier coefficient de ladite ligne qui n'est pas égal à une valeur NaN. Il est possible que la ligne ne comprenne aucune valeur NaN, dans ce cas, p représente l'indice du premier coefficient de la ligne et d représente l'indice du dernier coefficient de la ligne. La sous-étape 107-4 est réalisée grâce au masque binaire, permettant de distinguer les coefficients de la carte d'erreur du front d'onde différents de NaN. [00147] La sous-étape 107-5 est une étape de soustraction du coefficient de la ligne i d'indice p+1 au coefficient d'indice p, la différence obtenue étant stockée au coefficient d'indice p de la ligne i de la matrice G1. [00148] La sous-étape 107-6 est une étape de stockage de l'indice p dans une variable x. [00149] La sous-étape 107-7 est une étape de modification des coefficients de la ligne i de la matrice G1 (ou matrice de résultat) selon une condition sur la variable x. [00150] Notons {gi_j}j≥n les coefficients de la ligne i de la matrice G1. [00151] Tant que la variable x est strictement inférieure à l'indice d, la sous- étape 17-7 comprend une sous-étape 107-7-1 d'incrémentation de 1 de la variable x et de modification de la valeur coefficient gi_x d'indice x de la ligne i de la matrice G1, avec gx égal à la moitié de différence entre le coefficient d'indice x+1 et le coefficient d'indice x-1 de la ligne i de la carte d'erreur du front d'onde. [00152] Lorsque la variable x devient égale à l'indice d, la sous-étape 107-7 comprend une sous-étape 107-7-2 de modification du coefficient gi_x d'indice x = d de la ligne i de la matrice G1, avec gi_x égal à la différence entre le coefficient d'indice x-1 et le coefficient d'indice x de la carte d'erreur de front d'onde. [00153] La matrice G1 est la première matrice de gradient. [00154] La sous-étape 107-8 est une sous-étape de détermination d'une deuxième matrice gradient représentant le gradient horizontal de la première matrice gradient. [00155] La sous-étape 107-8 de détermination de la deuxième matrice gradient comprend les mêmes sous-étapes que la sous-étape 107-7 de détermination de la première matrice gradient, la d'erreur du front d'onde étant dans ce cas remplacée par la première matrice de gradient G1. [00156] L'étape de calcul de la carte de distorsion verticale comprend en outre une sous-étape 107-9 de multiplication de toutes les valeurs de la deuxième matrice ^.^ de gradient par le terme (^∗^^^^)² pour obtenir une deuxième matrice de gradient modifiée. [00157] Le terme X représente la taille d'un pixel de l'analyseur du front d'onde, et vaut de préférence 295 microns. [00158] L'étape de calcul de la carte de distorsion verticale comprend en outre une sous-étape 107-11 d'application d'un filtre Gaussien à la deuxième matrice de gradient modifiée pour obtenir une deuxième matrice de gradient filtrée. Le filtre Gaussien à pour paramètre σ, le paramètre σ représentant l'écart type de la distribution Gaussienne. De préférence, σ est compris entre 1 et 100. [00159] La deuxième matrice de gradient filtrée représente la carte de distorsion verticale. [00160] Lorsque la carte de défaut optiques calculée est une carte de distorsion verticale, l'étape 108 de détermination d'au moins un indicateur de qualité relatif à la carte de distorsion peut comprendre une sous-étape 1081 d'extraction du coefficient de valeur maximale et du coefficient de valeur minimale de la carte de distorsion horizontale et de calcul de la différence entre ladite valeur maximale et ladite valeur minimale, ladite différence étant communément appelée "Peak to Valley". [00161] Le coefficient de valeur maximale, le coefficient de valeur minimale et le Peak to Valley sont des indicateurs de qualité. Le Peak to Valley est une mesure absolue dans le pire des cas des irrégularités d'une surface optique et dans ce cas de la zone donnée 13. [00162] Lorsque la carte de défaut optiques calculée est une carte de distorsion horizontale, l'étape 108 de détermination d'au moins un indicateur de qualité relatif à la carte de distorsion peut comprendre en outre une sous-étape 1082 de calcul de la valeur quadratique moyenne de la deuxième matrice de gradient filtrée, appelée plus communément RMS (Root Mean Square) en anglais. Notons {xi}i≥n les coefficients de la deuxième matrice de gradient, avec n le nombre de coefficients. La valeur quadratique moyenne de la deuxième matrice de gradient filtrée est donnée par la formule suivante : ^^^ ^^^^ ^^⋯^^^ ^ ^ ^
Figure imgf000028_0001
[00164] Le RMS est un indicateur de qualité, permettant de quantifier les irrégularités d'une surface optique et dans ce cas de la zone donnée 13 du vitrage. [00165] Selon le mode de réalisation dans lequel la carte de défauts optiques est une carte de distorsion horizontale, l'étape de calcul de la carte de défauts optiques comprend les mêmes sous-étapes 107-1 à 107-11 décrites précédemment, avec en particulier les étapes 107-4 à 107-7 appliquées aux colonnes de la carte d'erreur du front d'onde et non aux lignes. [00166] Selon le mode de réalisation dans lequel la carte de défauts optique est la carte d'erreur du front d'ondes, l'étape 108 de détermination d'un indicateur de qualité relatif à la carte de distorsion peut comprendre en outre en outre une sous- étape 1083 d'extraction du coefficient de valeur maximale et du coefficient de valeur minimale de la carte d'erreur du front d'onde et calcul de la différence entre ladite valeur maximale et ladite valeur minimale pour obtenir le "Peak to Valley". [00167] Le coefficient de valeur maximale, le coefficient de valeur minimale et le Peak to Valley sont des indicateurs de qualité. [00168] Lorsque la carte de défaut optiques calculée est une carte de distorsion horizontale, l'étape 1084 de détermination d'au moins un indicateur de qualité relatif à la carte de distorsion peut comprendre en outre une sous-étape 1084 de calcul de la valeur quadratique moyenne de la deuxième matrice de gradient filtrée, appelée plus communément RMS (Root Mean Square) en anglais. [00169] Notons {xi}i≥n les coefficients de la carte d'erreur du front d'onde, avec n le nombre de coefficients. La valeur quadratique moyenne de la deuxième matrice de gradient filtrée est donnée par la formule suivante : ^^^ ^^^^ ^^⋯^^^ ^ ^ ^
Figure imgf000029_0001
[00171] Comme décrit précédemment, le RMS est un indicateur de qualité, permettant de quantifier les irrégularités d'une surface optique et dans ce cas de la zone donnée 13 du vitrage. [00172] Selon le mode de réalisation dans lequel la carte de défauts optique est une carte de fonction de transfert de modulation, la carte de fonction de transfert de modulation représente des données relatives à la fonction de transfert de modulation de la zone donnée 13 et l'étape de calcul de la carte de fonction de transfert de modulation comprend les sous-étapes 107-12 à 107-33 décrites dans la suite. [00173] La fonction de transfert de modulation permet d'obtenir une description quantitative de la qualité d'image d'une surface optique, dans ce cas la zone donnée 13 du vitrage, en considérant toutes les aberrations optiques de la zone donnée 13. La fonction de transfert de modulation de la zone donnée 13 du vitrage permet d'évaluer la capacité de la zone donnée 13 du vitrage à reproduire différents détails d'une scène observée. [00174] La sous-étape 107-12 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de calcul du diamètre D de la pupille de sortie de la zone donnée 13, comprise dans la zone donnée 13, à analyser. Le diamètre D de la pupille est calculé à partir d'une distance focale effective f' image de l’ensemble des optiques du dispositif d'acquisition d'images 20 (par exemple l'objectif du dispositif d'acquisition d'images 20), de la largeur d'un pixel d'un capteur compris dans le dispositif d'acquisition 20 d'images et du nombre d'ouverture du dispositif d'acquisition d'images 20. Le diamètre D est donné par la formule suivante : ^^ [00175] D = ^. [00176] La sous-étape 107-13 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape d'extraction d'une matrice comprenant les valeurs de pixels correspondant à la pupille de sortie dans la zone donnée 13, à partir du diamètre D calculé et de coordonnées déterminées par un opérateur. [00177] La sous-étape 107-14 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de création d'une matrice MTF2D dont la taille est égale à trois fois la taille de la matrice de la pupille de sortie extraite. [00178] La sous-étape 107-15 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de copie des coefficients de la pupille au centre de la matrice MTF'. [00179] Notons dans la suite {yi}i≥n les coefficients non nuls de la matrice MTF2D. [00180] La sous-étape 107-16 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de remplacement, dans la matrice MTF, de chaque coefficient yi par ^^^ ∗^ ∗^∗^^ . [00181] La sous-étape 107-17 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape d'application d'une transformée inverse à la matrice MTF. [00182] Les nouveaux coefficients de la matrice MTF2D à l'issue de la sous-étape 107-17 sont notés {y'i}i≥n [00183] La sous-étape 107-18 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de remplacement de chaque coefficient y'i de la matrice MTF2D par |y′i|² . [00184] La sous-étape 107-19 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de normalisation de la matrice MTF2D. [00185] La sous-étape 107-20 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape d'application d'une transformée de Fourier sur la matrice MTF2D. [00186] Les nouveaux coefficients de la matrice MTF2D à l'issue de la sous-étape 17-23 sont notés {y''i}i≥n [00187] La sous-étape 107-21 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de remplacement de chaque coefficient y''i de la matrice MTF2D par |y′′i| . Les nouveaux coefficients de la matrice MTF2D sont ainsi notés mi = |y′′i|. [00188] La sous-étape 107-22 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de création d'une matrice Limite de Diffraction dont la taille est égale à trois fois la taille de la pupille extraite. [00189] La sous-étape 107-23 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de copie des coefficients d'un masque binaire de la pupille au centre de la matrice Limite de Diffraction. [00190] Notons dans la suite {ai}i≥n les coefficients non nuls de la matrice Limite de Diffraction. [00191] La sous-étape 107-24 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de remplacement, dans la matrice MTF, de chaque coefficient ai par ^^^ ∗^ ∗^∗^^ . [00192] La sous-étape 107-25 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape d'application d'une transformée inverse à la matrice Limite de Diffraction. [00193] Les nouveaux coefficients de la matrice Limite de Diffraction à l'issue de la sous-étape 17-25 sont notés {a'i}i≥n [00194] La sous-étape 107-26 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de remplacement de chaque coefficient a'i de la matrice Limite de Diffraction par |a′i|² . [00195] La sous-étape 107-27 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de normalisation de la matrice Limite de Diffraction. [00196] La sous-étape 107-28 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape d'application d'une transformée de Fourier sur la matrice Limite de Diffraction. [00197] Les nouveaux coefficients de la matrice Limite de Diffraction à l'issue de la sous-étape 17-29 sont notés {a''i}i≥n [00198] La sous-étape 17-30 de l'étape de calcul de la fonction de transfert de modulation est une sous-étape de remplacement de chaque coefficient a''i de la matrice Limite de Diffraction par |a′′i| . Les nouveaux coefficients de la matrices Limite de diffraction sont ainsi notés ni = |a′′i|. La matrice Limite de diffraction représente la fonction de transfert de la zone donnée 13 en l'absence d'aberrations sur la zone donnée 13 du vitrage. [00199] Selon un mode de réalisation, l'étape de calcul de la carte de la fonction de transfert de modulation comprend une sous-étape 17-31 de calcul d'une carte de la fonction de transfert de modulation réduite en deux dimensions. [00200] La sous-étape de calcul d'une fonction de transfert de modulation consiste à créer une matrice MTFréduite2D de même taille que la matrice MTF2D (ou la matrice Limite de Diffraction, les deux matrices ayant la même taille) dont chaque ^^ coefficient est égal au terme (1- dans le cas ou ni est différent de 0, et par 0 dans le cas ou ni = 0. La matrice
Figure imgf000032_0001
représente la fonction de transfert de modulation réduite en deux dimensions. [00201] Selon un mode de réalisation, l'étape de calcul de la carte de la fonction de transfert de modulation comprend une sous-étape 107-32 de calcul d'une carte d'une coupe horizontale de la fonction de transfert de modulation réduite. La sous- étape 107-32 est réalisée par extraction de la ligne centrale de la matrice MTF et la ligne centrale de la matrice Limite de Diffraction, représentant respectivement la coupe horizontale de la fonction de transfert de modulation de la zone donnée 13 et la fonction de transfert de modulation de la zone donnée 13 en l'absence d'aberrations. Notons {mi} i≥m les coefficients de la ligne centrale de la matrice MTF et {ni} i≥m les coefficients de la ligne centrale de la matrice Limite de Diffraction. La sous-étape 107-32 est en outre réalisée par création d'une matrice MTFréduite_coupehorizontale de même taille que la ligne centrale de la matrice MTF (ou la matrice Limite de Diffraction, les deux matrices ayant la même taille) dont chaque ^^ coefficient est égal au terme (1- dans le cas ou ni est différent de 0, et par 0 dans le cas ou ni = 0.
Figure imgf000033_0001
[00202] Selon un mode de réalisation, l'étape de calcul de la carte de la fonction de transfert de modulation comprend une sous-étape 107-33 de calcul d'une carte d'une coupe verticale de la fonction de transfert de modulation réduite. La sous- étape comprend les mêmes étapes que la sous-étape 107-32 mais appliquées aux colonnes et non aux lignes dans ce cas de figure, pour obtenir une matrice MTFréduite_coupeverticale. [00203] Ainsi, dans le mode de réalisation dans lequel la carte de défauts optiques est une carte de fonction de transfert de modulation, la carte de fonction de transfert de modulation comprend ou est égale à au moins l'une matrice parmi les suivantes : MTF2D, MTFréduite2D, MTFréduite_coupehorizontale et MTFréduite_coupeverticale. [00204] Lorsque la carte de défaut optiques calculée est une carte de fonction de transfert de modulation, l'étape 108 de détermination d'au moins un indicateur de qualité relatif à la carte de fonction de transfert de modulation peut comprendre en outre une sous-étape 1085 de calcul d'un terme relatif à la fréquence de Nyquist horizontale fNH et/ou d'un terme relatif à la fréquence de Nyquist verticale fNV. [00205] Le terme relatif à la fréquence de Nyquist horizontale fNH est l'indicateur de qualité et peut être égal à la fréquence de Nyquist horizontale fNH ou peut être égal à la demi-fréquence de Nyquist horizontale fNH/2. [00206] Le terme relatif à la fréquence de Nyquist verticale fNV est l'indicateur de qualité et peut être égal à la fréquence de Nyquist verticale fNV ou la demi-fréquence de Nyquist verticale fNV/2. [00207] La fréquence de Nyquist (horizontale ou verticale) est la fréquence spatiale la plus élevée à laquelle un capteur numérique peut capturer des informations réelles, toute information supérieure à la fréquence de Nyquist qui atteint le capteur est aliasée à des fréquences plus basses, créant ainsi des motifs de moiré potentiellement gênants. En général, la fréquence de Nyquist fN horizontale (respectivement verticale) est calculée à partir de la formule suivante fN = 0.5 cycles/pitch_pixel, la valeur pitch_pixel correspondant à la distance horizontale (respectivement verticale) séparant les centres de deux pixels du dispositif d'acquisition d'images 20. [00208] La fréquence de Nyquist ou un paramètre relatif à la fréquence de Nyquist est un indicateur de qualité. [00209] Selon le mode de réalisation dans lequel le dispositif d'acquisition d'images 20 est un LIDAR, la carte de défauts optiques calculée à l'étape 107 peut être une carte de déflection horizontale et/ou une carte de déflection verticale. La carte de déflection horizontale correspond à la déviation du front d'onde par la première partie de la zone donnée 13 et par la deuxième partie de la zone donnée 13. [00210] Selon un mode de réalisation compatible avec le mode de réalisation précédent, l'étape 108 de détermination d'un indicateur de qualité relatif à la carte de défauts optiques, qui est par exemple la carte de déflection horizontale, peut comprendre une étape de calcul d'une erreur de pointage suivant le champ de vue horizontal du LIDAR à partir de ladite carte de déflection horizontale. L'erreur de pointage correspond à l'écart absolu entre une déflection moyenne de la première partie et entre une déflection moyenne de la deuxième partie. Dans ce cas, l’indicateur de qualité est l'erreur de pointage et est préférentiellement inférieur à 150 µrad, notamment inférieur à 100 µrad et préférentiellement inférieur à 50 µrad. [00211] Selon un mode de réalisation compatible avec le mode de réalisation précédent, l'étape 108 de détermination d'un indicateur de qualité relatif à la carte de défauts optiques qui est par exemple la carte de déflection verticale, peut comprendre une étape de calcul d'une erreur de pointage suivant le champ de vue vertical du LIDAR à partir de ladite carte de déflection verticale. L'erreur de pointage correspond à l'écart absolu entre une déflection moyenne de la première partie de la zone donnée 13 et entre une déflection moyenne de la deuxième partie de la zone donnée 13. Dans ce cas, l’indicateur de qualité est l'erreur de pointage et est préférentiellement inférieur à 150 µrad, notamment inférieur à 100 µrad et préférentiellement inférieur à 50 µrad. [00212] Le procédé 100 peut comprendre en outre une étape 109 d'affichage de la carte de défauts optiques calculée à l'étape 107. Selon le mode de réalisation dans lequel une pluralité de cartes de défauts optiques sont calculées, la pluralité de cartes de défauts optiques est affichée. [00213] Le procédé 100 peut comprendre en outre une étape 110 d'affichage de chaque indicateur de qualité relatif à la carte de défauts optiques déterminés à l'étape 18. Selon le mode de réalisation dans lequel une pluralité de cartes de défauts optiques sont calculées, au moins un indicateur de qualité par carte de défauts optiques est affiché. [00214] Selon un mode de réalisation, une seule des étapes 109 ou 110 du procédé 100 est réalisée. [00215] Selon un autre mode de réalisation, les deux étapes 109 et 110 du procédé 100 sont réalisées. [00216] Selon le mode de réalisation dans lequel au moins deux cartes de défauts optiques sont calculées, et selon lequel une première carte de défauts est une carte de distorsion verticale ou une carte de distorsion verticale, et la deuxième carte de défauts est une carte de la fonction de transfert de modulation, et selon lequel les indicateurs de qualités relatifs à chaque carte de défauts sont qualités, le procédé 100 peut comprendre une étape 111 de comparaison des deux cartes de défauts optiques et/ou de leurs indicateurs de défauts. [00217] Le procédé 100 comprend en outre une étape 112 de caractérisation de la qualité optique de la zone donnée 13 par comparaison de chaque indicateur de qualité relatif à la carte de défauts optiques à un seuil prédéterminé. [00218] Par exemple, le seuil prédéterminé correspond à une valeur de référence de l'indicateur de qualité ou une à valeur d'un indicateur de qualité différent de l'indicateur de qualité considéré. [00219] Selon un mode de réalisation de l’invention, l'étape 112 de caractérisation est en outre réalisée par comparaison de la carte de défauts optique calculée à une carte de défauts optiques de référence de même type que la carte de défauts optiques calculée, la carte de défauts optiques de référence représentant le comportement optique de la zone donnée 13 dans le cas théorique/idéal ou celle-ci est dénuée d'aberrations optiques. La comparaison entre la carte de défauts optiques calculée et la carte de défaut optiques de référence peut être visuelle. [00220] Selon le mode de réalisation dans lequel l'étape 111 est réalisée, l'étape 112 de caractérisation est en outre réalisée à partir de la comparaison des deux cartes optiques calculées et/ou de leurs indicateurs optiques. [00221] Par exemple, lors de l'étape de caractérisation 112, un opérateur peut recevoir en temps réel une alerte si les indicateurs de qualités relatifs à une ou plusieurs cartes de défauts optiques dépassent des seuils prédéterminés, un opérateur peut recevoir une alerte particulière concernant le vitrage considéré, chaque seuil prédéterminé étant propre à un indicateur de qualité. [00222] Par exemple, lors de l'étape de caractérisation 112, un opérateur peut recevoir en temps réel une alerte si les indicateurs de qualités relatifs à une ou plusieurs cartes de défauts optiques sont inférieures à des seuils prédéterminés, un opérateur peut recevoir une alerte particulière concernant le vitrage considéré, chaque seuil prédéterminé étant propre à un indicateur de qualité. [00223] Selon un mode de réalisation, le vitrage est associé à un identifiant unique. [00224] Le procédé 100 peut comprendre en outre une étape 113 de lecture de l'identifiant du vitrage par le système de caractérisation. [00225] Le procédé 100 peut comprendre en outre une étape 114 de stockage dans une mémoire, par exemple la mémoire du dispositif numérique, de l'identifiant associé au vitrage et de la qualité optique de la zone donnée 13 du vitrage déterminée lors de l'étape 112. [00226] Le procédé 100 peut comprendre en outre une étape 115 d'association dans la mémoire de l'identifiant stocké et de la qualité optique stockée. [00227] Le procédé 100 peut comprendre en outre une étape 116 de stockage dans la mémoire de la carte de défauts optiques associée au vitrage et une étape 117 d'association dans la mémoire de l'identifiant du vitrage stocké et de la carte de défauts optiques stockée. Selon le mode de réalisation dans lequel une pluralité de cartes de défauts optiques sont calculées, la pluralité de cartes optiques sont stockées et associées à l'identifiant du vitrage. [00228] Au moins les étapes 103, 107, 109, 110, 111, 112, 113, 114, 115 sont implémentées selon un langage de programmation apte à exécuter lesdites étapes en une période strictement inférieure à la période prédéterminée. [00229] Par exemple, le langage de programmation est C#. Selon un mode de réalisation, le C# utilise, grâce à une « wrapper library » appelé « OpenCVSharp », les fonctions en C++ d’OpenCV.
DESCRIPTION TITLE: Method for characterizing the optical quality of a given zone of vehicle glazing TECHNICAL FIELD OF THE INVENTION [0001]The technical field of the invention is that of intelligent driving assistance systems. [0002]The present invention relates to a method and a device for characterizing the optical quality of a given zone of vehicle glazing, intended to be placed in the optical path of an image acquisition device. an intelligent driving assistance system. TECHNOLOGICAL BACKGROUND OF THE INVENTION [0003] More and more land transport vehicles, and in particular road vehicles of the automobile or truck type, are equipped with intelligent driving assistance systems (called ADAS, for Advanced Driver Assistance System, in Anglo-Saxon terminology) to limit the risk of accidents and make driving easier for drivers. These ADAS systems are also designed to equip driverless vehicles, called “autonomous vehicles”. [0004] These ADAS systems are on-board systems which provide various information in real time (such as the state of road traffic), detect and anticipate possible threats from the external environment of the vehicle, or even help the driver to realize difficult or risky maneuvers, such as passing other vehicles or parking. To do this, these ADAS systems include numerous detection devices, or sensors, to collect data on the vehicle's environment. Certain systems, for example parking assistance systems, autonomous driving systems or even collision anticipation systems, also implement one or more image acquisition devices, or cameras. [0005]The data acquired by these image acquisition devices are processed by ADAS systems, also called on-board systems, to obtain the desired functionality. For example, a night driving assistance system makes it possible to display in real time, on the vehicle dashboard, a video of the external environment via an infrared camera placed behind the windshield. of the vehicle. In another example, an autonomous driving system processes the images acquired by a camera placed behind the windshield of the vehicle in order to extract the data necessary for automatic piloting of the vehicle. [0006]Generally, the image acquisition devices are arranged inside the vehicle and generally positioned behind one of the windows of the vehicle, such as the windshield, the rear window or even the side windows, so to be protected from external elements such as rain, hail, flying stones, etc. Most of these image acquisition devices are placed behind the windshield to enable the acquisition of information relating to the environment located in front of the vehicle. The data acquired by the on-board systems, and in particular the images, are therefore obtained through the glazing. Indeed, from an optical point of view, the positioning of the image acquisition devices behind the windshield is such that the light rays received by these image acquisition devices first pass through the glazing before 'reach said devices. The glazing must therefore have optimal optical quality or at least sufficient to prevent the image captured by the image acquisition device from being distorted. [0007]However, the glazing often has optical defects whose origins are diverse. One of the characteristics causing optical defects is the inclination of the glazing. Indeed, most vehicle windows, particularly windshields and rear windows, are tilted; the optical beams passing through these glazings can therefore be distorted by this inclination of the glazing. Another characteristic causing optical defects is the area of the glazing called the “camera area” which includes opaque elements intended in particular to hide part of the elements of the image acquisition devices so that they are not visible from the exterior of vehicles. These opaque elements, most often made of enamel, in fact lead to a reduction in the optical quality of the camera zone of the glazing in the area bordering the opaque elements, in particularly in the area of the glazing located at a distance of between 5 and 8mm from the opaque elements. Furthermore, in the particular case of areas delimited by enamel deposited at high temperature on glass glazing, differences in thermal expansion coefficient or physicochemical interactions between the enamel materials and the glass can cause variations. local areas of the surface near their edges, such as variations in refractive index and/or geometric deformations relative to the rest of the glazing surface. In addition, the zones delimited by opaque elements can also include, on their surface, functional elements (such as networks of heating wires or functional layers with optical or thermal properties) which are directly placed in the acquisition field of the image acquisition devices and which generate optical defects. [0008] During the construction of a vehicle, the glazing is always positioned on the vehicle before the ADAS system. The glazing is therefore manufactured before the integration of the image acquisition device. Thus, it is necessary to check the optical quality of the camera zone of the glazing, and in particular of the camera zone, before the glazing is mounted on the vehicle in order to avoid the presence of optical defects. origin of harmful artifacts in the acquired images. For economic reasons, it could be interesting to integrate the measurement of the optical quality of the camera zone of a glazing on a glazing production line so that each glazing can be controlled before the end of its manufacture. [0009]A known method for measuring the optical quality of glazing, in particular vehicle windshields, is deflectometry which measures the refraction of the glazing. This method uses a screen, positioned on one side of the glazing and for which the position of each emitting point is known, and a CCD sensor, positioned on the other side of the glazing. However, this measurement method only makes it possible to determine the distortion introduced by the glazing and does not make it possible to precisely identify and quantify the optical defects which alter the quality of the image captured using this method. This method also does not make it possible to measure the optical quality of a reduced area of glazing, particularly when opaque elements surrounding said area are the cause of optical distortions at their proximity. In fact, this method has a spatial resolution such that the optical quality measurements are limited to a surface portion of said given zone. [0010] Another measurement method, disclosed in patent document WO 2021/110901 A1 filed on behalf of the applicant, proposes to determine the optical quality of a given region using a wavefront analyzer. This analyzer makes it possible to analyze the wavefront of the light rays emitted by a light ray emitter through the camera zone of the glazing. This technique has the advantage of being particularly effective for measuring the optical quality of a given area of glazing. However, the method proposed for analyzing optical defects in the given area of each glazing can be time-consuming, for example increasing glazing delivery times, and can generate significant costs for the glazing manufacturer. [0011] There is therefore a need to analyze the optical defects of the given zone of each glazing of a plurality of glazings in an efficient manner, without increasing glazing delivery times. SUMMARY OF THE INVENTION [0012]The invention offers a solution to the problems mentioned above, by making it possible to determine the optical quality of the given area of a glazing directly on a glazing production line. [0013]A first aspect of the invention relates to a method for characterizing the optical quality of a given zone of a vehicle glazing of a plurality of vehicle glazings of a glazing production line, the given zone of each glazing being intended to be positioned in the optical path of an image acquisition device, the characterization method being carried out during a period less than or equal to a predetermined period of operation of the production line according to the following steps : - Detection of the presence of glazing; - Detection of the given area of glazing in an area of the glazing covered by a wavefront analyzer and including the given area; - Acquisition of the wavefront of the given area and generation of a wavefront error map; - Calculation from the wavefront error map of at least one map of optical defects present in the given zone and determination of at least one quality indicator relating to the optical defect map; - Characterization of the optical quality of the given area by comparison of each quality indicator relating to the optical defect map at a predetermined threshold. [0014]Thanks to the invention, the steps allowing the characterization of the optical quality of the given zone of glazing are carried out directly on a production line, during a period less than or equal to a predefined period, which allows a glazing manufacturer, for example, to save time in characterizing the optical quality of a glazing. State of the art methods propose to characterize the given area of the glazing outside a production line, which requires significant additional time to the production time and costs for the manufacturer unlike the invention which allows you to calculate in real time, when the glazing is in the production line, at least one fault map. [0015] In addition to the characteristics which have just been mentioned in the previous paragraph, the method according to the first aspect of the invention may present one or more complementary characteristics among the following, considered individually or in all technically possible combinations. [0016] According to one embodiment, the method comprises, before the step of characterizing the optical quality of the given zone, the following steps: - display of the optical defect map; and/or - display of the optical quality indicator relating to the optical fault map. Advantageously, this characteristic makes it possible to qualitatively determine optical defects present in the given zone. Advantageously, this characteristic makes it possible to see in real time on the production line, the optical fault map and/or the quality indicators, allowing for example an operator to directly know the glazing to be eliminated from the production line or to be modified. . [0017] According to one embodiment, the method comprises, between the step of detecting the presence of the glazing and the detection of the given zone, a step of acquiring the wavefront of the zone of the glazing covered by the analyzer wave front. [0018] According to one embodiment, compatible with the previous embodiment, the step of detecting the given area of the glazing comprises the following sub-steps: - Generation, from the acquired wave front of the covered area by the wavefront analyzer, an image of an interferogram of the area of the glazing covered by the wavefront analyzer, the area of the glazing covered by the waveform analyzer comprising a plurality of sub-zones including the given zone; - Thresholding of the interferogram image to obtain a first image; - Application of a morphological aperture filter on the first image to obtain a second image, - Detection, on the second image, of the contour of each sub-zone of the glazing area covered by the wavefront analyzer : - When the number of detected contours is non-zero: - Determination, for each contour, of the rotating rectangle of minimum area comprising said contour to obtain a set of rectangles; - Selection, among all the rectangles, of the rectangles included in a predefined zone: -If at least one rectangle is selected: -Selection of the rectangle of maximum area among the at least one rectangle selected; -Recovery of the coordinates of the pixels forming the contour included in the rectangle of maximum area; -From the coordinates of the pixels recovered, calculation of a polygonal shape corresponding to an approximation of the contour included in the rectangle of maximum area, the calculated polygonal shape representing the given area of the glazing, - if no contour is selected, determination on the second image of a polygonal shape corresponding to a predefined area, the polygonal shape representing the given area of the glazing. [0019] According to one embodiment, the method for characterizing the given area according to the first aspect of the invention is implemented by a characterization system comprising a beam emitter of light rays and the front analyzer. wave and the step of generating the wave front error map comprises the following sub-step: - calculation of a phase difference between the wave front of the light rays transmitted by said given zone of the glazing and a reference wavefront for determining a wavefront error used to generate the wavefront error map. [0020] According to one embodiment, the optical defect map is chosen from the following list: - an optical aberration map, - a slope or deflection map, - a map of the point spreading function - a modulation transfer function map, - a vertical distortion map and/or a horizontal distortion map. This characteristic is advantageous because the types of optical defect maps cited are not measured in real time in the state of the art. [0021] According to a variant embodiment, at least two optical defect maps are calculated and: - a first optical defect map among the at least two optical defect maps is a distortion map chosen from a vertical distortion map and a horizontal warp map, and - a second optical defect map among the at least two optical defect maps is a modulation transfer function map, the method comprising, before the characterization step, a step of comparing the first optical defect map and of the second optical defect map and in that the characterization of the optical quality of the given zone is implemented from the comparison step. - the second image, of a polygonal shape corresponding to a predefined area, the polygonal shape representing the given area of the glazing. [0022] According to an embodiment compatible with the previous embodiment, the step of detecting the given area of the glazing further comprises a sub-step of displaying the given area of the glazing. [0023] According to one embodiment, the wavefront error map is a matrix and the step of calculating at least one optical defect map comprises the following substeps: - Creation of a mask binary, the binary mask being a matrix of the same size as the wavefront error map and in which: - Each coefficient whose index corresponds to a coefficient of the non-zero wavefront error map is equal to the same first binary information 0 or 1; - Each coefficient whose index corresponds to a coefficient of the zero wavefront error map is equal to the same second binary information 1 or 0 complementary to the first binary information; - Application of a morphological erosion filter on the binary mask, the optical defect map also being calculated from the binary mask. [0024] According to one embodiment, the step of detecting the given zone, the step of calculating the optical defect map from the wavefront error map and the step of determining the at least quality indicator are implemented according to a programming language capable of executing said steps in a period strictly less than the predetermined period. Advantageously, this This feature makes it possible to respect the times required in a production line. [0025] According to one embodiment, the vehicle is a road or rail vehicle. [0026] According to one embodiment, the predetermined period of operation of the production line is less than 20 seconds inclusive, in particular less than 15 seconds inclusive and preferably less than 12 seconds inclusive. [0027] According to one embodiment, the glazing among the plurality of glazings of the glazing production line comprises a marking associated with an identifier, the identifier being uniquely associated with the glazing, and the method further comprises the steps following: - reading of the identifier by the characterization system, - storage in a memory of: - the identifier associated with the glazing, - the optical quality of the given zone of the glazing determined during the characterization step, - association in the memory of the stored identifier and the stored optical quality. [0028] According to an embodiment compatible with the previous embodiment, the method further comprises the following steps: - storage in the memory of the calculated optical defect map, - association in the memory of the stored identifier and the stored optical defect map. [0029] According to one embodiment of the invention, the image acquisition device is a LIDAR and the given zone is adapted to be fixedly mounted opposite the LIDAR, said LIDAR comprising a light emitter and a light receiver, the given area comprising a first part adapted to be fixedly mounted facing the transmitter, a second part, different from the first part, adapted to be fixedly mounted facing the receiver, the quality indicator being determined by an absolute deviation between an average deflection of the first part and between an average deflection of the second part. [0030] According to one embodiment of the invention, the image acquisition device is a stereoscopic camera and the given area is adapted to be fixedly mounted facing the stereoscopic camera, the stereoscopic camera comprising a first camera and a second camera, the given zone comprising a first part adapted to be fixedly mounted facing the first camera, a second part, different from the first part, adapted to be fixedly mounted opposite the second camera, the quality indicator being determined by an absolute difference between an average deflection of the first part and between an average deflection of the second part. [0031]A second aspect of the invention relates to a system for characterizing the optical quality of at least one given zone of glazing comprising means configured to implement the method according to the first aspect of the invention. [0032] Another aspect of the invention relates to a computer program product comprising program code instructions recorded on a medium usable in a computer, comprising: - computer-readable programming means for carrying out the step of detecting the given area, - computer-readable programming means for carrying out the calculation step from the wavefront error map of at least one optical defect map and the step of determining at least one at least one quality indicator relating to the optical defect map, - computer-readable programming means for carrying out the step of characterizing the optical quality of the given zone; when said program runs on a computer. [0033]The invention and its various applications will be better understood on reading the following description and examining the accompanying figures. BRIEF DESCRIPTION OF THE FIGURES [0034]The figures are presented for information purposes only and in no way limit the invention. [0035] [Fig. 1] is a schematic representation of a road vehicle windshield comprising a given area delimited by an opaque element. [0036] [Fig. 2] is a schematic representation of an image acquisition device placed behind the windshield shown in Figure 1, such that the given area is in the optical path of the image acquisition device. [0037] [Fig.3] is a schematic representation of a characterization system according to one embodiment of the invention, which makes it possible to characterize the optical quality of a given zone of glazing. [0038] [Fig. 4] is a block diagram of a method for characterizing the optical quality of a given zone of glazing, according to a first aspect of the invention. [0039] [Fig. 5] is a block diagram detailing step 103 of the method according to the first aspect of the invention. [0040] [Fig. 6] is a block diagram detailing step 104 of the method according to the first aspect of the invention. [0041] [Fig. 7] is a block diagram detailing step 105 of the method according to the first aspect of the invention. [0042] [Fig. 8] is a block diagram detailing step 106 of the method according to the first aspect of the invention. [0043] [Fig. 9] is a block diagram detailing step 107 of the method according to the first aspect of the invention. [0044] [Fig.10] is a block diagram detailing step 108 of the method according to the first aspect of the invention. DETAILED DESCRIPTION [0045] Unless otherwise specified, the same element appearing in different figures presents a unique reference. [0046]A first aspect of the invention relates to a method for characterizing the optical quality of a given zone of a vehicle glazing of a plurality of vehicle glazings of a glazing production line. [0047]The process is carried out during a period less than or equal to a predetermined period of operation of the production line. [0048]In particular, the characterization process is carried out before the arrival of the glazing following the glazing whose given zone is characterized on the production line. The predetermined period of operation of the production line is less than or equal to 20 seconds, in particular less than or equal to 15 seconds and preferably less than or equal to 12 seconds. [0050] By “glazing” we mean a plate formed from a transparent material such as glass or plastic. Advantageously, the glazing can be a windshield, a rear window or even side glazing of a road or rail vehicle. [0051]The glazing is preferably road or rail vehicle glazing. [0052] Figure 1 illustrates an example of glazing 10. [0053] With reference to [Fig.1], the glazing 10 is a windshield comprising a sheet 11 of glass 11 and an opaque element 12. The element opaque 12 makes it possible in particular to hide from the outside of the vehicle elements arranged inside said vehicle, for example a part of an image acquisition device. The opaque element 12 covers at least one of the main faces of the glass sheet 11 so as to border the entire glazing 10. The opaque element 12 can be placed on the surface of only one of the two main faces of the sheet 11 of glass or may comprise several portions, each of the portions being arranged on one and the other of the main faces of the sheet 11 of glass. In the case of multiple glazing 10 comprising several sheets of glass, such as laminated glazing 10, the opaque element 12 can also be formed of several portions, each portion being arranged on the surface of two or more sheets of glass depending on the number of servings. Furthermore, the glass sheet 11 can be inclined, for example, by an angle of 30°. In addition, the glass sheet 11 can be curved along one or two axes, so that a radius of curvature of the sheet 11 is for example between 6m and 30m. [0054] Preferably, the opaque element 12 is a layer of enamel deposited on the surface of the sheet 11. Naturally, the layer of enamel can be replaced by any other opaque element which makes it possible to hide certain elements from the outside. elements arranged inside the road vehicle. [0055]A given zone 13 can be delimited by the opaque element 12. As can be seen in Figure 1, the opaque element 12 delimits a given zone 13 of the glazing 10, located at the level of the upper edge of the glazing 10. [0056] Preferably, the surface of the given zone 13 is less than 0.5m². The given zone 13 of each glazing is intended to be positioned in the optical path of an image acquisition device. [0058] Figure 2 shows an example of an image acquisition device 20 placed behind the glazing 10 shown in Figure 1. [0059] As can be seen in Figure 2, the image acquisition device 20 is placed behind the glazing 10 so that the given zone 13 is placed on the optical path of the image acquisition device 20, for example using a suitable support (not illustrated). Advantageously, the image acquisition device 20 is a high-resolution digital camera adapted to operate in the visible, ie in wavelengths between 390nm and 750nm. [0060] According to an embodiment not shown, the image acquisition device 20 is a LIDAR adapted to operate in wavelengths between 620nm and 950nm. [0061] According to an embodiment not shown, the image acquisition device 20 is a stereoscopic camera. [0062] Advantageously, a second aspect of the invention concerns a system 40 for characterizing the optical quality of each glazing. [0063] Figure 3 is a schematic representation of the characterization system according to one embodiment of the invention. [0064] With reference to Figure 3, the characterization system 40 comprises a transmitter 41, a plane mirror 42, a wavefront analyzer included in the same housing as the transmitter in this embodiment. The characterization system 40 may also include a production line shutdown detection module, configured to receive a signal representative of the production line shutdown. When the production line is stopped, the glazing 10 can be placed, statically, between the emitter 41 and the plane mirror 42. [0065]The characterization system 40 further comprises means for implementing implementation of the steps of the process according to the first aspect of the invention which will be described below, these means being for example a digital device comprising a network interface comprising an antenna, a memory, a microprocessor, a data restitution means such as a screen. [0066]The glazing is positioned between the emitter and the plane mirror, for example at a distance between 200mm and 250mm from the emitter 41 and at a distance between 250mm and 300mm from the plane mirror. [0067]The transmitter is configured to emit a beam of light rays through a zone of the glazing comprising the given zone. To do this, the transmitter comprises a light source and a collimator placed after the light source in order to obtain a beam of light rays, for example parallel. Advantageously, the light source of the transmitter is monochromatic. In addition, the light source of the transmitter can be adapted to emit in the visible and/or in a range of infrared wavelengths. The light source can emit a light beam having a wavelength of between 400nm and 1200nm and preferably between 620nm and 950nm. Advantageously, the size of the beam makes it possible to completely cover the area of the glazing comprising the given area 13 while guaranteeing sufficient resolution and a flow making it possible to obtain information in the entirety of the given area 13 called the camera area. [0068]In particular, the given zone 13 may have a width and a height along a main surface of the glazing 10. The given zone 13 may have a trapezoidal shape, formed by a lower base and by an upper base. In this case, the width of the given zone 13 is defined by the size of the longest base, for example the lower base. The width of the given zone 13 can be greater than 20 mm, in particular greater than 30 mm and preferably greater than 50 mm. The width of the given zone 13 may be less than 150 mm and preferably less than 100 mm. [0069]The size of the beam can be greater than or equal to the width of the given zone 13 and preferably greater than or equal to the lower base of the given zone 13. [0070]Preferably, the beam is circular. [0071] According to one embodiment, in which the image acquisition device 20 is a LIDAR, the given zone 13 can be adapted to be fixedly mounted facing said LIDAR. In this embodiment of the invention, the width of the given zone 13 can be greater than 150 mm, in particular greater than 250 mm and preferably greater than 600 mm. The height of the given zone 13 can be greater than 100 mm, in particular greater than 150 mm, and less than 400 mm, in particular less than 300 mm. The size of the beam can be between half the width of the given zone 13 and the width of the given zone 13. [0072] According to the previous embodiment of the invention, in which the device for acquiring images 20 is a LIDAR, the given area 13 can be opaque in the visible, in particular by means of a black camouflage element. In this embodiment of the invention, the LIDAR may comprise a light transmitter and a light receiver. The given zone 13 may comprise a first part adapted to be fixedly mounted facing the transmitter, and a second part, different from the first part, adapted to be fixedly mounted facing the receiver. [0073] According to one embodiment of the invention, in which the image acquisition device 20 is a stereoscopic camera, the given zone 13 can be adapted to be fixedly mounted facing the stereoscopic camera. In this embodiment of the invention, the width of the given zone 13 can be greater than 150 mm, in particular greater than 250 mm and preferably greater than 600 mm. The height of the given zone 13 can be greater than 100 mm, in particular greater than 150 mm, and less than 400 mm, in particular less than 300 mm. The size of the beam can be between half the width of the given zone 13 and the width of the given zone 13. [0074] According to the previous embodiment of the invention, in which the device for acquiring images 20 is a stereoscopic camera, the stereoscopic camera may comprise a first camera and a second camera. The given zone 13 may comprise a first part adapted to be fixedly mounted facing the first camera, and a second part, different from the first part, adapted to be fixedly mounted facing the second camera. [0075]The wavefront analyzer, also called an abberometer, covers the area of the glazing comprising the given area and makes it possible to measure the shape of the front waves of the beam emitted by the transmitter and to determine the deformation undergone by the wave front during its passage through the zone of the glazing comprising the given zone 13 and in particular the deformation undergone by the wave front during of its passage through the given zone 13. [0076] As a reminder, a wave front is the three-dimensional wave surface defined so that each light ray coming from the same light source is orthogonal to it. The wavefront analyzer measures the shape of this wave surface. Advantageously, the wavefront analyzer is composed of a system known under the commercial name “Phasics-SID4-HR”, which is based on the principle of four-wave interferometry, and a camera coupled to said system. . This system includes a modified Hartmann mask through which the incident beam propagates and causes it to replicate into four beams. The system generates an interferogram, captured by the camera, which is distorted by wavefront gradients recovered by Fourier analysis. Since the recorded interferogram is primarily sinusoidal, a small amount of pixels are required to recover a phase pixel. This results in increased resolution, at least by a factor of 4, compared to other wavefront analyzers based on gradient recovery such as the so-called Hartmann technique and the so-called Shack-Hartmann technique. [0077]Furthermore, the plane mirror 42 is placed behind the glazing 10 in order to reflect the beam transmitted by the glazing. Advantageously, the plane mirror 42, for example based on silver, is calibrated so as to represent a perfect plane, characteristic of good optical quality, that is to say with low deformation and low roughness of surface. [0078]In a variant embodiment not illustrated, the measuring device does not include a plane mirror. In this case, the transmitter is placed on one side of the glazing while the wavefront analyzer is placed on the other side of the glazing 10. [0079] Figure 4 is a block diagram of the method 100 of characterization according to the first aspect of the invention implemented by the characterization system 40 according to the second aspect of the invention, the method comprising a plurality of steps 101, 102, 103, 104, 105, 106, 107, 108, 109, 110, 111, 112, 113, 114, 115, 116, 117 described below. [0080]In particular, steps 107 and 108 will be described using several examples. [0081]The method 100 may include a first step 101 of stopping the glazing in the characterization system. [0082]The method 100 comprises a step 102 of detecting the presence of the glazing by the sensor of the characterization system 40 by the production line shutdown detection module. [0083]The method 100 may be devoid of a step of positioning the characterization system 40 in horizontal translation following the shutdown of the production line. “Horizontal” means in the main direction of movement of the line. Indeed, the characterization system 40 can be integrated so as to be centered horizontally in relation to the given zone 13 for different glazing models. [0084]The method 100 may further comprise a step 103 of acquiring the wavefront of the zone of the glazing comprising the given zone 13, the synoptic diagram of which is represented in [Fig.5]. [0085]Step 103 of acquiring the wavefront of the glazing zone comprises a first sub-step 1031 of emitting, by the transmitter 41, a beam of light rays in the direction of said zone of the glazing. glazing. [0086] Step 103 of acquiring the wave front of the glazing zone further comprises a second sub-step 1032 of receiving, by the wave front analyzer, the beam of light rays emitted by the transmitter after its passage through the zone of the glazing comprising the given zone 13. shown in [Fig.6]. [0088] Step 104 of detecting the given zone 13 of the glazing comprises a plurality of sub-steps detailed below. [0089]A first sub-step 1041 of the detection step is a step of generating, from the wave front acquired from the glazing zone, an image of an interferogram of the glazing zone. In particular, the glazing zone comprises a plurality of sub-zones including the given zone 13. [0090]The interferogram generated is preferably a sinusoidal interferogram. [0091]A second sub-step 1042 of the detection step is a step of thresholding the image of the interferogram and in particular the values of the pixels of the image of the interferogram to obtain a first image. [0092]The thresholding of the interferogram is implemented by the digital device of the characterization system 40. Preferably, the thresholding is carried out using the “Threshold” function of the OpenCv ® library. [0093]The first image is a binary matrix, also called a binary mask, of the same size as the image of the interferogram. [0094]For example, the pixel indices (or coefficients) of the image of the interferogram whose value is greater than a threshold S1 and/or less than a threshold S2 correspond to equal pixel indices of the first image to the same binary information. For example, S1 = 1 and S2 = 2000. [0095] A third sub-step 1043 of detection step 104 is a step of applying a morphological aperture filter to the first image, to obtain a second picture. The second image therefore corresponds to the filtered thresholded interferogram image. [0096] Morphological filters are non-linear filters, or kernels, which are used on binary images or gray level images and work on the local neighborhood of each pixel of an image. The shape of this neighborhood is called a structuring element. [0097] Morphological filters make it possible to preserve or delete structures on images having certain characteristics, in particular shape, and to eliminate unwanted noise for example. [0098]A morphological opening filter is obtained by composing a morphological erosion filter and a morphological dilation filter (erosion is followed by dilation). A morphological erosion filter consists of removing from an image all the structures not containing the structuring element and therefore allows example of separating two pasted objects from an image. A morphological dilation filter consists of shifting the structuring element to each pixel of the image, and looking to see if the structuring element "touches" the structure of interest makes it possible to fill in holes or interrupted elements. Advantageously, the aperture filter makes it easy to make isolated elements of a binary or grayscale image disappear, or to fill small holes included in structures. [0099] The substep 1043 of application of the morphological opening filter is preferably carried out using the MorphologyEx Open function of OpenCV® whose core is square and whose size is defined by a user. Preferably, the morphological filter used is a kernel whose size is between 1 and 30. [00100] A fourth sub-step 1044 of the detection step 104 is a step of detection, on the second image, of the contour of each sub-zone of the glazing zone covered by the wavefront analyzer and comprising the given zone 13. [00101] The fourth sub-step 1044 of the detection step is preferably carried out by the FindContours function d 'OpenCV® with an ApproxSimple parameter. [00102] At the end of the fourth sub-step 1044 of the detection step 104, if the number of contours detected is non-zero, the sub-steps 10441 to 1042, which will be described in the remainder of the text, are carried out. [00103] Sub-step 10441 is a sub-step of determining, for each detected contour among the number of detected contours, the rotating rectangle of minimum area comprising said contour. Substep 10441 is carried out using the MinAreaRect function of OpenCV®. At the end of substep 10441, a set of rectangles is obtained. [00104] Sub-step 10442 is a sub-step of selection, among all the rectangles, of the rectangles included in a predefined zone. The predefined zone can be determined by a user for example. [00105] At the end of substep 10442 of the detection step, if at least one rectangle is selected, that is to say if at least one rectangle among all the rectangles is included in the predefined zone, then the sub-steps 104421, 104422, 104423 which will be described in the rest of the writing, are carried out. [00106] Substep 104421 is a step of selecting the rectangle of maximum area relative to the area of the at least selected rectangle. [00107] In particular, if a single rectangle is selected at the end of substep 1443, the rectangle of maximum area is directly the selected rectangle. [00108] Substep 104422 is a step of recovering the coordinates of the pixels forming the contour included in the rectangle of maximum area. [00109] Sub-step 104423 is a step of calculating, from the coordinates of the pixels recovered in sub-step 104422, a polygonal shape corresponding to an approximation of the contour included in the rectangle of maximum area. [00110] Substep 104423 is carried out using the ApproxPolyDP function of OpenCV, with Epsilon parameter. The Epsilon parameter corresponds to the maximum number of sides of the polygon shape approximated by the ApproxPolyDP function and can be set by an operator. Epsilon is for example between 5 and 1500. [00111] The polygonal shape calculated in sub-step 104423 represents the given zone 13 of the glazing. [00112] At the end of substep 10441 of the step of determining at least one rotating rectangle in the predetermined zone, if the number of rectangles detected is zero, substep 10442 described in the rest of the writing is carried out. [00113] Sub-step 10442 is a sub-step of determining a polygonal shape corresponding to a predefined zone, the polygonal shape representing the given zone 13 of the glazing. The determination substep 1045 is carried out by an operator, for example, manually. [00114] At the end of substep 1044 of determining contours, if no contour is selected, substep 1045 described previously is carried out. [00115] The detection step 104 may also include a sub-step 1046 for storing the calculated polygonal shape. [00116] The detection step 104 may also include a sub-step 1047 for displaying the interferogram. [00117] The detection step 104 may further comprise a sub-step 1048 of displaying the stored polygonal shape of the given zone 13 on the interferogram. [00118] The method 100 further comprises a step 105 of acquiring the wave front of the given zone 13 of the glazing, the synoptic diagram of which is shown in [Fig.7], the given zone 13 having been detected at step 104. [00119] Step 105 of acquiring the wavefront of the given zone 13 of the glazing comprises a first sub-step 1051 of emitting, by the transmitter, a beam of light rays in the direction of the given zone 13. The light beam is preferably parallel. [00120] Step 105 of acquiring the wave front of the given zone 13 of the glazing further comprises a second sub-step 1052 of receiving, by the wave front analyzer, the wave front of light rays transmitted by said given zone 13. [00121] According to the embodiment according to which the system comprises the plane mirror on one side of the glazing and the transmitter and the forehead analyzer on the other side of the glazing, the beam emitted by the transmitter passes through the given area 13 before reaching the plane mirror which reflects the beam towards the given area 13 again. The light beam therefore crosses the given area 13 of the glazing twice before reaching the wavefront analyzer. [00122] According to the embodiment in which the image acquisition device 20 is a LIDAR, the step 105 of acquiring the wavefront of the given zone 13 may include sub-steps of acquiring the wave front of the first part and the second part given zone 13. The glazing 10 can be moved between the different sub-stages, so as to measure the wave front of the different parts of the given zone 13. Thus, it is possible to acquire the wavefront of the given zone 13 adapted to be fixedly mounted opposite a LIDAR using the same transmitter and wavefront analyzer as for a given zone 13 adapted to be fixedly mounted in view of an image acquisition device 20 in the visible, such as a thermal camera for example. [00123] The method 100 comprises a step 106 of generating a wavefront error map, the synoptic diagram of which is shown in [Fig. 8]. The wavefront error map is a matrix also called an optical path difference matrix or OPD (English: Optical Path Difference). [00124] The step 106 of generating a wavefront error map comprises a first substep 1061 of calculating the phase difference between the wavefront of the beam received by the front analyzer. wavefront and a reference wavefront to determine an intermediate wavefront error. For example, the reference wavefront corresponds to the wavefront of a light beam emitted by the transmitter and received by the wavefront analyzer, without passing through the glazing or any other diopter. [00125] Step 106 of generating a wavefront error map is implemented by the microprocessor of the wavefront analyzer. [00126] Step 106 of generating an error map may include a sub-step 1062 of dividing the intermediate error map by two. Indeed, to the extent that the beam crosses the given zone 13 of the glazing twice, a first time during the emission of the beam by the transmitter and a second time during the reflection of the beam by the plane mirror, the The intermediate wavefront error determined in substep 161 corresponds to the wavefront error resulting from the two passages of the beam through the given zone 13 of the glazing. Thus, sub-step 1062 makes it possible to determine the wave front error corresponding to a single passage of the beam through the given zone 13. Naturally, the division sub-step 1062 is not carried out when the dividing device measurement does not include a plane mirror and that the transmitter and the wavefront analyzer are placed on either side of the glazing. Indeed, in this case the intermediate wavefront error calculated during the calculation sub-step 1061 corresponds to the wavefront error relating to a single passage of the beam through the given zone 1313. 00127] The method 100 further comprises a step 107 of calculating from the wavefront error map, at least one map of optical defects present in the given zone 13 and a step 108 of determining at least one quality indicator relating to the optical defect map. [00128] The block diagram detailing examples of embodiments of step 107 is shown in [Fig.9]. [00129] The block diagram detailing examples of embodiments of step 108 is shown in [Fig.9]. [00130] According to one embodiment, the optical defect map is a map from at least the following list: an optical aberration map, a slope or deflection map, a map of the point spread function, a modulation transfer function map, a vertical distortion map and/or a horizontal distortion map. [00131] According to an embodiment in which a single optical defect map is calculated, the optical defect map is a map from at least the following list: an optical aberration map, a slope or deflection map, a point spread function map, a modulation transfer function map. [00132] According to one embodiment, the optical defect map is directly the wavefront error map. [00133] According to one embodiment, a plurality of at least two different optical defect maps are calculated and are chosen from an optical aberration map, a slope or deflection map, a spreading function map point, a modulation transfer function map, a vertical distortion map and/or a horizontal distortion map. [00134] In particular, according to an embodiment in which at least two optical defect maps are calculated, a first optical defect map is a distortion map chosen from a vertical distortion map and a horizontal distortion map. The second optical defect map is a map of the modulation transfer function of the given zone 13 of the glazing. [00135] According to one embodiment, step 107 of calculating the optical defect map includes substeps 1071 and 1072 described below. [00136] Substep 1071 is a step of creating a binary mask, the binary mask being a matrix of the same size as the wavefront error map. [00137] The binary mask includes the same number of coefficients as the wavefront error map. Each coefficient of the binary mask whose index corresponds to a coefficient of the error map of the non-zero wavefront is equal to the same first binary information 0 or 1. Each coefficient of the binary mask whose index corresponds to a wavefront error map coefficient zero is equal to the same second binary information 1 or 0 complementary to the first binary information. [00138] Substep 1072 is a step of applying a morphological erosion filter to the binary mask to obtain a filtered binary mask. [00139] According to the embodiment in which the optical defect map is a horizontal distortion map or a vertical distortion map, the optical defect map is calculated from the wavefront error map and from the filtered binary mask. [00140] According to the embodiment in which the optical defect map is a vertical distortion map, the step 107 of calculating the optical defect map comprises the substeps 107-1 to 107-11 described below . [00141] Sub-step 107-1 is a sub-step of creating a so-called result matrix of size equal to the binary mask or the error map of the wavefront (the binary mask and the map of 'error having the same size). The coefficients of the result matrix are preferably NaN values (from English “Not a Number”). [00142] Substep 107-2 is a substep of determining a first gradient matrix representing the vertical gradient of the wavefront error map. [00143] The sub-step of determining the first gradient matrix is carried out from the wavefront error map and includes a plurality of sub-steps 107-3, 107-4, 107-5, 107- 6, 107-7 described in the rest of the editorial. Substep 107-3 of the substep of determining the first gradient matrix is a step of creating a matrix G1 of the same size as the wavefront error map. [00145] In particular, substeps 107-4 to 107-7 are carried out for each line i of the wavefront error map. [00146] For each line i of the wavefront error map, substep 107-4 is a step of recovering the index p of the first coefficient of said line i which is not equal to a NaN value, p being an integer and the index d of the last coefficient of said line which is not equal to a NaN value. It is possible that the line does not include any NaN value, in this case, p represents the index of the first coefficient of the line and d represents the index of the last coefficient of the line. Substep 107-4 is carried out using the binary mask, making it possible to distinguish the coefficients of the wavefront error map different from NaN. [00147] Substep 107-5 is a step of subtracting the coefficient of line i of index p+1 from the coefficient of index p, the difference obtained being stored at the coefficient of index p of line i of the G1 matrix. [00148] Substep 107-6 is a step of storing the index p in a variable x. [00149] Substep 107-7 is a step of modifying the coefficients of line i of matrix G1 (or result matrix) according to a condition on the variable x. [00150] Let us denote {gi_j}j≥n the coefficients of line i of matrix G1. [00151] As long as the variable x is strictly less than the index d, substep 17-7 includes a substep 107-7-1 for incrementing the variable x by 1 and modifying the coefficient value gi_x of index x of line i of matrix G1, with gx equal to half the difference between the coefficient of index x+1 and the coefficient of index x-1 of line i of the error map of the wave front. [00152] When the variable x becomes equal to the index d, the substep 107-7 includes a substep 107-7-2 of modifying the coefficient gi_ matrix G1, with gi_ x equal to the difference between the index coefficient x-1 and the index coefficient x of the wavefront error map. [00153] Matrix G1 is the first gradient matrix. [00154] Substep 107-8 is a substep of determining a second gradient matrix representing the horizontal gradient of the first gradient matrix. [00155] Substep 107-8 of determining the second gradient matrix comprises the same substeps as substep 107-7 of determining the first gradient matrix, the wavefront error being in this case replaced by the first gradient matrix G1. [00156] The step of calculating the vertical distortion map further comprises a substep 107-9 of multiplying all the values of the second matrix ^.^ of gradient by the term (^∗^^ ^^ )² to obtain a second modified gradient matrix. [00157] The term X represents the size of a pixel of the wavefront analyzer, and is preferably 295 microns. [00158] The step of calculating the vertical distortion map further comprises a substep 107-11 of applying a Gaussian filter to the second modified gradient matrix to obtain a second filtered gradient matrix. The Gaussian filter has the parameter σ, the parameter σ representing the standard deviation of the Gaussian distribution. Preferably, σ is between 1 and 100. [00159] The second filtered gradient matrix represents the vertical distortion map. [00160] When the calculated optical defect map is a vertical distortion map, step 108 of determining at least one quality indicator relating to the distortion map may include a substep 1081 of extracting the coefficient of maximum value and the minimum value coefficient of the horizontal distortion map and calculation of the difference between said maximum value and said minimum value, said difference being commonly called "Peak to Valley". [00161] The maximum value coefficient, the minimum value coefficient and the Peak to Valley are quality indicators. The Peak to Valley is an absolute measurement in the worst case of the irregularities of an optical surface and in this case of the given zone 13. [00162] When the calculated optical defect map is a horizontal distortion map, the step 108 for determining at least one quality indicator relating to the distortion map may further comprise a sub-step 1082 for calculating the root mean square value of the second filtered gradient matrix, more commonly called RMS (Root Mean Square). in English. Let {x i } i≥n denote the coefficients of the second gradient matrix, with n the number of coefficients. The root mean square value of the second filtered gradient matrix is given by the following formula: ^^ ^ ^ ^^ ^ ^ ^⋯^^ ^ ^ ^ ^
Figure imgf000028_0001
[00164] The RMS is a quality indicator, making it possible to quantify the irregularities of an optical surface and in this case of the given zone 13 of the glazing. [00165] According to the embodiment in which the optical defect map is a horizontal distortion map, the step of calculating the optical defect map comprises the same substeps 107-1 to 107-11 described previously, with in particular steps 107-4 to 107-7 applied to the columns of the wavefront error map and not to the rows. [00166] According to the embodiment in which the optical defect map is the wavefront error map, step 108 of determining a quality indicator relating to the distortion map may further comprise in in addition to a sub-step 1083 of extracting the maximum value coefficient and the minimum value coefficient from the wavefront error map and calculating the difference between said maximum value and said minimum value to obtain the "Peak to Valley.” [00167] The maximum value coefficient, the minimum value coefficient and the Peak to Valley are quality indicators. [00168] When the calculated optical defect map is a horizontal distortion map, the step 1084 of determining at least one quality indicator relating to the distortion map may further comprise a sub-step 1084 of calculating the mean square value of the second filtered gradient matrix, more commonly called RMS (Root Mean Square) in English. [00169] Let us denote {x i } i≥n the coefficients of the wavefront error map, with n the number of coefficients. The root mean square value of the second filtered gradient matrix is given by the following formula: ^^ ^ ^ ^^ ^ ^ ^⋯^^ ^ ^ ^ ^
Figure imgf000029_0001
[00171] As described previously, the RMS is a quality indicator, making it possible to quantify the irregularities of an optical surface and in this case of the given zone 13 of the glazing. [00172] According to the embodiment in which the optical fault map is a modulation transfer function map, the modulation transfer function map represents data relating to the modulation transfer function. modulation of the given area 13 and the step of calculating the modulation transfer function map comprises substeps 107-12 to 107-33 described below. [00173] The modulation transfer function makes it possible to obtain a quantitative description of the image quality of an optical surface, in this case the given zone 13 of the glazing, by considering all the optical aberrations of the given zone 13. The modulation transfer function of the given zone 13 of the glazing makes it possible to evaluate the capacity of the given zone 13 of the glazing to reproduce different details of an observed scene. [00174] Sub-step 107-12 of the step of calculating the modulation transfer function is a sub-step of calculating the diameter D of the exit pupil of the given zone 13, included in the given zone 13 , to analyze. The diameter D of the pupil is calculated from an effective focal distance f' image of all the optics of the image acquisition device 20 (for example the objective of the image acquisition device 20) , the width of a pixel of a sensor included in the image acquisition device 20 and the aperture number of the image acquisition device 20. The diameter D is given by the following formula: ^ ^[00175]D=^. [00176] Sub-step 107-13 of the step of calculating the modulation transfer function is a sub-step of extracting a matrix comprising the pixel values corresponding to the exit pupil in the given zone 13, from the calculated diameter D and coordinates determined by an operator. [00177] Sub-step 107-14 of the step of calculating the modulation transfer function is a sub-step of creating an MTF2D matrix whose size is equal to three times the size of the matrix of the exit pupil extracted. Sub-step 107-15 of the step of calculating the modulation transfer function is a sub-step of copying the coefficients of the pupil to the center of the matrix MTF'. [00179] Let us note in the sequence {yi}i≥n the non-zero coefficients of the MTF2D matrix. [00180] Sub-step 107-16 of the step of calculating the modulation transfer function is a sub-step of replacing, in the MTF matrix, each coefficient yi by ^ ^^ ∗^ ∗^∗^ ^ . [00181] Sub-step 107-17 of the step of calculating the modulation transfer function is a sub-step of applying an inverse transform to the MTF matrix. [00182] The new coefficients of the MTF2D matrix at the end of substep 107-17 are denoted {y'i}i≥n [00183] Substep 107-18 of the step of calculating the modulation transfer function is a sub-step of replacing each coefficient y'i of the 2D MTF matrix by |y′i|². [00184] Sub-step 107-19 of the step of calculating the modulation transfer function is a sub-step of normalization of the MTF2D matrix. [00185] Sub-step 107-20 of the step of calculating the modulation transfer function is a sub-step of applying a Fourier transform to the MTF2D matrix. [00186] The new coefficients of the 2D MTF matrix at the end of substep 17-23 are denoted {y'' i } i≥n [00187] Substep 107-21 of the calculation step of the modulation transfer function is a sub-step of replacing each coefficient y''i of the MTF2D matrix by | y′′i | . The new coefficients of the MTF2D matrix are thus denoted mi = | y′′i | . [00188] Sub-step 107-22 of the step of calculating the modulation transfer function is a sub-step of creating a Diffraction Limit matrix whose size is equal to three times the size of the pupil extracted. [00189] Sub-step 107-23 of the step of calculating the modulation transfer function is a sub-step of copying the coefficients of a binary mask of the pupil at the center of the Diffraction Limit matrix. [00190] Let us note in the sequence {ai}i≥n the non-zero coefficients of the Diffraction Limit matrix. [00191] Sub-step 107-24 of the step of calculating the modulation transfer function is a sub-step of replacing, in the MTF matrix, each coefficient a i by ^ ^^ ∗^ ∗^∗ ^^ . [00192] Sub-step 107-25 of the step of calculating the modulation transfer function is a sub-step of applying an inverse transform to the Diffraction Limit matrix. [00193] The new coefficients of the Diffraction Limit matrix at the end of sub-step 17-25 are denoted {a'i}i≥n [00194] Sub-step 107-26 of the calculation step of the modulation transfer function is a sub-step of replacing each coefficient a'i of the Diffraction Limit matrix by |a′i|². [00195] Sub-step 107-27 of the step of calculating the modulation transfer function is a sub-step of normalization of the Diffraction Limit matrix. [00196] Sub-step 107-28 of the step of calculating the modulation transfer function is a sub-step of applying a Fourier transform to the Diffraction Limit matrix. [00197] The new coefficients of the Diffraction Limit matrix at the end of sub-step 17-29 are denoted {a'' i } i≥n [00198] Sub-step 17-30 of the step of calculation of the modulation transfer function is a sub-step of replacing each coefficient a''i of the Diffraction Limit matrix by | a′′i | . The new coefficients of the Diffraction Limit matrix are thus denoted ni = | a′′i | . The Diffraction Limit matrix represents the transfer function of the given zone 13 in the absence of aberrations on the given zone 13 of the glazing. [00199] According to one embodiment, the step of calculating the map of the modulation transfer function comprises a substep 17-31 of calculating a map of the modulation transfer function reduced in two dimensions. [00200] The sub-step of calculating a modulation transfer function consists of creating a reduced MTF2D matrix of the same size as the MTF2D matrix (or the Diffraction Limit matrix, the two matrices having the same size) each of which ^^ coefficient is equal to the term (1- in the case where ni is different from 0, and by 0 in the case where ni = 0. The matrix
Figure imgf000032_0001
represents the reduced modulation transfer function in two dimensions. [00201] According to one embodiment, the step of calculating the map of the modulation transfer function comprises a sub-step 107-32 of calculating a map of a horizontal cut of the reduced modulation transfer function. Sub-step 107-32 is carried out by extracting the central line of the MTF matrix and the central line of the Diffraction Limit matrix, representing respectively the horizontal section of the modulation transfer function of the given zone 13 and the function modulation transfer of the given zone 13 in the absence of aberrations. Let {mi} i≥m denote the coefficients of the central line of the MTF matrix and {ni} i≥m the coefficients of the central line of the Diffraction Limit matrix. Substep 107-32 is further carried out by creating a reduced horizontal-cut MTF matrix of the same size as the central line of the MTF matrix (or the Diffraction Limit matrix, the two matrices having the same size) each of which ^^ coefficient is equal to the term (1- in the case where ni is different from 0, and by 0 in the case where ni = 0.
Figure imgf000033_0001
[00202] According to one embodiment, the step of calculating the map of the modulation transfer function comprises a sub-step 107-33 of calculating a map of a vertical section of the modulation transfer function scaled down. The sub-step includes the same steps as sub-step 107-32 but applied to the columns and not to the rows in this case, to obtain a reduced MTF_verticalcut matrix. [00203] Thus, in the embodiment in which the optical defect map is a modulation transfer function map, the modulation transfer function map comprises or is equal to at least one matrix among the following: 2D MTF, reduced MTF2D, reduced MTF_horizontalcut and reduced MTF_verticalcut. [00204] When the calculated optical fault map is a modulation transfer function map, step 108 of determining at least one quality indicator relating to the modulation transfer function map may further comprise a sub -step 1085 of calculating a term relating to the horizontal Nyquist frequency f NH and/or a term relating to the vertical Nyquist frequency f NV . [00205] The term relating to the horizontal Nyquist frequency f NH is the quality indicator and may be equal to the horizontal Nyquist frequency fNH or may be equal to the half-horizontal Nyquist frequency fNH/2. [00206] The term relating to the vertical Nyquist frequency fNV is the quality indicator and can be equal to the vertical Nyquist frequency f NV or the half-vertical Nyquist frequency f NV /2. [00207] The Nyquist frequency (horizontal or vertical) is the highest spatial frequency at which a digital sensor can capture real information, any information higher than the Nyquist frequency which reaches the sensor is aliased to lower frequencies, thus creating potentially distracting moiré patterns. In general, the horizontal (respectively vertical) Nyquist frequency f N is calculated from the following formula f N = 0.5 cycles/pitch_pixel, the pitch_pixel value corresponding to the horizontal (respectively vertical) distance separating the centers of two pixels of the device image acquisition 20. [00208] The Nyquist frequency or a parameter relating to the Nyquist frequency is a quality indicator. [00209] Depending on the embodiment in which the image acquisition device 20 is a LIDAR, the optical defect map calculated in step 107 may be a horizontal deflection map and/or a vertical deflection map. The horizontal deflection map corresponds to the deviation of the wavefront by the first part of the given zone 13 and by the second part of the given zone 13. [00210] According to an embodiment compatible with the previous embodiment, the step 108 of determining a quality indicator relating to the optical defect map, which is for example the horizontal deflection map, may include a step of calculating a pointing error following the horizontal field of view of the LIDAR from said horizontal deflection map. The pointing error corresponds to the absolute difference between an average deflection of the first part and between an average deflection of the second part. In this case, the quality indicator is the pointing error and is preferably less than 150 µrad, in particular less than 100 µrad and preferably less than 50 µrad. [00211] According to an embodiment compatible with the previous embodiment, step 108 of determining a quality indicator relating to the optical defect map which is for example the vertical deflection map, can comprise a step of calculating a pointing error following the vertical field of view of the LIDAR from said vertical deflection map. The pointing error corresponds to the absolute difference between an average deflection of the first part of the given zone 13 and between an average deflection of the second part of the given zone 13. In this case, the quality indicator is pointing error and is preferably less than 150 µrad, in particular less than 100 µrad and preferably less than 50 µrad. [00212] The method 100 may further comprise a step 109 of displaying the optical defect map calculated in step 107. According to the embodiment in which a plurality of optical defect maps are calculated, the plurality of maps optical faults is displayed. [00213] The method 100 may further comprise a step 110 of displaying each quality indicator relating to the optical defect map determined in step 18. According to the embodiment in which a plurality of optical defect maps are calculated, at least one quality indicator per optical defect map is displayed. [00214] According to one embodiment, only one of the steps 109 or 110 of the method 100 is carried out. [00215] According to another embodiment, the two steps 109 and 110 of the method 100 are carried out. [00216] According to the embodiment in which at least two optical defect maps are calculated, and according to which a first defect map is a vertical distortion map or a vertical distortion map, and the second defect map is a map of the modulation transfer function, and according to which the quality indicators relating to each fault map are qualities, the method 100 may comprise a step 111 of comparing the two optical fault maps and/or their fault indicators. [00217] The method 100 further comprises a step 112 of characterizing the optical quality of the given zone 13 by comparing each quality indicator relating to the optical defect map to a predetermined threshold. [00218] For example, the predetermined threshold corresponds to a reference value of the quality indicator or a value of a quality indicator different from the quality indicator considered. [00219] According to one embodiment of the invention, the characterization step 112 is further carried out by comparing the calculated optical defect map to a reference optical defect map of the same type as the calculated optical defect map , the reference optical defect map representing the optical behavior of the given zone 13 in the theoretical/ideal case where it is devoid of optical aberrations. The comparison between the calculated optical defect map and the reference optical defect map can be visual. [00220] According to the embodiment in which step 111 is carried out, characterization step 112 is further carried out from the comparison of the two calculated optical maps and/or their optical indicators. [00221] For example, during the characterization step 112, an operator can receive an alert in real time if the quality indicators relating to one or more optical defect cards exceed predetermined thresholds, an operator can receive a specific alert concerning the glazing considered, each predetermined threshold being specific to a quality indicator. [00222] For example, during the characterization step 112, an operator can receive an alert in real time if the quality indicators relating to one or more optical defect cards are lower than predetermined thresholds, an operator can receive an alert. particular alert concerning the glazing considered, each predetermined threshold being specific to a quality indicator. [00223] According to one embodiment, the glazing is associated with a unique identifier. [00224] The method 100 may further comprise a step 113 of reading the identifier of the glazing by the characterization system. [00225] The method 100 may further comprise a step 114 of storing in a memory, for example the memory of the digital device, the identifier associated with the glazing and the optical quality of the given zone 13 of the glazing determined during the step 112. [00226] The method 100 may further comprise a step 115 of association in the memory of the stored identifier and the stored optical quality. [00227] The method 100 may further comprise a step 116 of storing in the memory the optical fault map associated with the glazing and a step 117 of associating in the memory the identifier of the stored glazing and the fault map stored optics. According to the embodiment in which a plurality of optical defect maps are calculated, the plurality of optical maps are stored and associated with the glazing identifier. [00228] At least steps 103, 107, 109, 110, 111, 112, 113, 114, 115 are implemented according to a programming language capable of executing said steps in a period strictly less than the predetermined period. [00229] For example, the programming language is C#. According to one embodiment, C# uses, thanks to a “wrapper library” called “OpenCVSharp”, the C++ functions of OpenCV.

Claims

REVENDICATIONS [Revendication 1] Procédé (100) de caractérisation de la qualité optique d’une zone donnée (13) d'un vitrage (10) de véhicule d'une pluralité de vitrages de véhicule d’une ligne de production de vitrages, la zone donnée (13) du vitrage étant destinée à être positionnée dans le trajet optique d’un dispositif d’acquisition d’images (20), le procédé (100) de caractérisation étant réalisé durant une période inférieure ou égale à une période prédéterminée de fonctionnement de la ligne de production, avant l'arrivée du vitrage suivant le vitrage dont la zone donnée (13) est caractérisée sur la ligne de production, selon les étapes suivantes : - Détection (102) de la présence du vitrage ; - Détection (104) de la zone donnée (13) de vitrage dans une zone du vitrage couverte par un analyseur de front d’onde et comprenant la zone donnée (13) ; - Acquisition (105) du front d’onde de la zone donnée (13) et génération (106) d’une carte d’erreur du front d’onde ; - Calcul (107) à partir de la carte d'erreur du front d'ondes d’au moins une carte de défauts optiques présents dans la zone donnée (13) et de détermination (108) d'au moins un indicateur de qualité relatif à la carte de défauts optiques ; - Caractérisation (112) de la qualité optique de la zone donnée (13) par comparaison de chaque indicateur de qualité relatif à la carte de défauts optiques à un seuil prédéterminé. [Revendication 2] Procédé (100) selon la revendication précédente caractérisé en ce qu'il comprend avant l’étape de caractérisation de la qualité optique de la zone donnée (13), les étapes suivantes : - affichage (109) de la carte de défauts optiques ; et/ou - affichage (110) de l'indicateur indicateur de qualité optique relatif à la carte de défauts optique. [Revendication 3] Procédé (100) selon l’une quelconque des revendications précédentes caractérisé en ce qu'il comprend, entre l'étape de détection de présence du vitrage et la détection de la zone donnée (13), une étape d’acquisition du front d’onde de la zone du vitrage couverte par l’analyseur de front d'ondes. [Revendication 4] Procédé (100) selon la revendication 3, caractérisé en ce que l’étape (104) de détection de la zone donnée (13) du vitrage comprend les sous- étapes suivantes : - Génération (1041), à partir du front d'ondes acquis de la zone couverte par l'analyseur de front d'ondes, d'une image d'un interférogramme de la zone du vitrage couverte par l'analyseur de front d'onde, la zone du vitrage couverte par l'analyseur de font d'onde comprenant une pluralité de sous-zones dont la zone donnée (13) ; - Seuillage (1042) de l'image de l'interférogramme pour obtenir une première image ; - Application (1043) d'un filtre morphologique d'ouverture sur la première image pour obtenir une deuxième image, - Détection (1044), sur la deuxième image, du contour de chaque sous- zone de la zone du vitrage couverte par l'analyseur de front d'onde : oLorsque le nombre de contours détectés est non nul : 1. Détermination (10441), pour chaque contour, du rectangle rotatif d'aire minimale comprenant ledit contour pour obtenir un ensemble de rectangles ; 2. Sélection (10442), parmi l'ensemble des rectangles, des rectangles compris dans une zone prédéfinie, si au moins un rectangle est sélectionné : a. Sélection (104421) du rectangle d’aire maximale parmi le au moins un rectangle sélectionné, b. Récupération (104422) des coordonnées des pixels formant le contour compris dans le rectangle d’aire maximale, c. A partir des coordonnées des pixels récupérées, calcul (104423) d’une forme polygonale correspondant à une approximation du contour compris dans le rectangle d’aire maximale, la forme polygonale calculée représentant la zone donnée (13) du vitrage, - si aucun contour n’est sélectionné, détermination (1045) sur la deuxième image d'une forme polygonale correspondant à une zone prédéfinie, la forme polygonale représentant la zone donnée (13) du vitrage. [Revendication 5] Procédé (100) selon l’une quelconque des revendications précédentes, caractérisé en ce que ledit procédé (100) de caractérisation de la zone donnée (13) est mis en œuvre par un système de caractérisation comprenant un émetteur de faisceau de rayons lumineux et l’analyseur de front d'onde et en ce que l’étape (106) de génération de la carte d’erreur de front d’ondes comprend la sous- étape suivante : - calcul (1061) d’une différence de phase entre le front d’ondes des rayons lumineux transmis par ladite zone donnée (13) du vitrage et un front d’ondes de référence pour déterminer une erreur de front d’ondes utilisée pour générer la carte d’erreur de front d’ondes. [Revendication 6] Procédé (100) selon l’une quelconque des revendications précédentes caractérisé en ce que la carte de défauts optiques est choisie dans la liste suivante : - une carte d’aberration optique, - une carte de pentes ou de déflection, - une carte de la fonction d’étalement du point - une carte de la fonction de transfert de modulation, - une carte de distorsion verticale et/ou une carte de distorsion horizontale. [Revendication 7] Procédé (100) selon l'une quelconque des revendications précédentes caractérisé en ce qu'au moins deux cartes de défauts optiques sont calculées et en ce que : - une première carte de défauts optiques parmi les au moins deux cartes de défauts optiques est une carte de distorsion choisie parmi une carte de distorsion verticale et une carte de distorsion horizontale, et - une deuxième carte de défauts optiques parmi les au moins deux cartes de défauts optiques est une carte de la fonction de transfert de modulation, le procédé (100) étant en outre caractérisé en ce qu'il comprend, avant l'étape de caractérisation, une étape de comparaison (111) de la première carte de défauts optiques et de la deuxième carte de défauts optiques et en ce que la caractérisation de la qualité optique de la zone donnée (13) est mise en œuvre à partir de l'étape de comparaison. [Revendication 8] Procédé (100) selon la revendication précédente caractérisé en ce que l'étape de détection de la zone donnée (13) du vitrage comprend en outre une sous-étape d'affichage (1046) de la zone donnée (13) du vitrage. [Revendication 9] Procédé (100) selon l'une quelconque des revendications précédentes caractérisé en que la carte d'erreur du front d'ondes est une matrice et en ce que l'étape de calcul (107) d'au moins une carte de défauts optiques comprend les sous-étapes suivantes : - Création (1071) d'un masque binaire, le masque binaire étant une matrice de même taille que la carte d'erreur de front d'ondes et dans laquelle : oChaque coefficient dont l'indice correspond à un coefficient de la carte d'erreur du front d'ondes non nul est égal à une même première information binaire 0 ou 1 ; oChaque coefficient dont l'indice correspond à un coefficient de la carte d'erreur de front d'ondes nul est égal à une même seconde information binaire 1 ou 0 complémentaire de la première information binaire ; - Application (1072) d'un filtre morphologique d'érosion sur le masque binaire, et caractérisé en ce que la carte de défauts optiques est également calculée à partir du masque binaire. [Revendication 10] Procédé (100) selon l'une quelconque des revendications précédentes caractérisé en ce que l’étape de détection (104) de la zone donnée (13), l'étape de calcul (107) de la carte de défauts optiques à partir de la carte d’erreur de front d’onde et l'étape de détermination (108) du au moins indicateur de qualité sont implémentées selon un langage de programmation apte à exécuter lesdites étapes en une période strictement inférieure à la période prédéterminée. [Revendication 11] Procédé (100) selon l'une quelconque des revendications précédentes caractérisé en ce que le véhicule est un véhicule routier ou ferroviaire. [Revendication 12] Procédé (100) selon l’une quelconque des revendications précédentes caractérisé en ce que la période prédéterminée de fonctionnement de la ligne de production est inférieure à 20 secondes incluses, notamment inférieure à 15 secondes incluses et préférentiellement inférieure à 12 secondes incluses. [Revendication 13] Procédé (100) selon l’une quelconque des revendications précédentes caractérisé en ce que le vitrage parmi la pluralité de vitrages de la ligne de production de vitrage comprend un marquage associé à un identifiant, l’identifiant étant associé de manière unique au vitrage, le procédé (100) comprenant en outre les étapes suivantes : - lecture (113) de l’identifiant par le système de caractérisation, - stockage (114) dans une mémoire, de : o l'identifiant associé au vitrage, o la qualité optique de la zone donnée (13) du vitrage déterminée lors de l’étape de caractérisation, - association (115) dans la mémoire de l’identifiant stocké et de la qualité optique stockée. [Revendication 14] Procédé (100) selon la revendication précédente caractérisé en ce que le procédé (100) comprend en outre les étapes suivantes : - stockage (116) dans la mémoire de la carte de défauts optiques calculée, - association (117) dans la mémoire de l’identifiant stocké et de la carte de défauts optiques stockée. [Revendication 15] Système de caractérisation (40) de la qualité optique d’au moins une zone donnée (13) d’un vitrage comprenant des moyens configurés pour mettre en œuvre le procédé (100) selon l'une quelconque des revendications 1 à 14. [Revendication 16] Produit programme d’ordinateur comprenant des instructions de code de programme enregistré sur un support utilisable dans un ordinateur, comprenant : - des moyens de programmation lisibles par ordinateur pour effectuer l’étape de détection (104) de la zone donnée (13) selon la revendication 1, - des moyens de programmation lisibles par ordinateur pour effectuer l’étape de calcul (108) à partir de la carte d'erreur du front d'ondes d'au moins une carte de défauts optiques et de détermination (108) d'au moins un indicateur de qualité relatif à la carte de défauts optiques selon la revendication 1, - des moyens de programmation lisibles par ordinateur pour effectuer l’étape de caractérisation (112) de la qualité optique de la zone donnée (13) selon la revendication 1 ; lorsque ledit programme fonctionne sur un ordinateur. CLAIMS [Claim 1] Method (100) for characterizing the optical quality of a given zone (13) of a vehicle glazing (10) of a plurality of vehicle glazings of a glazing production line, the given area (13) of the glazing being intended to be positioned in the optical path of an image acquisition device (20), the characterization method (100) being carried out during a period less than or equal to a predetermined period of operation of the production line, before the arrival of the glazing following the glazing whose given zone (13) is characterized on the production line, according to the following steps: - Detection (102) of the presence of the glazing; - Detection (104) of the given area (13) of glazing in an area of the glazing covered by a wavefront analyzer and comprising the given area (13); - Acquisition (105) of the wavefront of the given area (13) and generation (106) of a wavefront error map; - Calculation (107) from the wavefront error map of at least one map of optical defects present in the given zone (13) and determination (108) of at least one relative quality indicator to the optical defect map; - Characterization (112) of the optical quality of the given zone (13) by comparison of each quality indicator relating to the optical defect map at a predetermined threshold. [Claim 2] Method (100) according to the preceding claim characterized in that it comprises, before the step of characterizing the optical quality of the given zone (13), the following steps: - display (109) of the map of optical defects; and/or - display (110) of the optical quality indicator indicator relating to the optical fault map. [Claim 3] Method (100) according to any one of the preceding claims characterized in that it comprises, between the step of detecting the presence of the glazing and the detection of the given zone (13), an acquisition step of the wavefront of the area of the glazing covered by the wavefront analyzer. [Claim 4] Method (100) according to claim 3, characterized in that the step (104) of detecting the given zone (13) of the glazing comprises the following sub-steps: - Generation (1041), from the wave front acquired from the area covered by the wave front analyzer, an image of an interferogram of the area of the glazing covered by the wave front analyzer, the area of the glazing covered by the the waveform analyzer comprising a plurality of sub-zones including the given zone (13); - Thresholding (1042) of the interferogram image to obtain a first image; - Application (1043) of a morphological aperture filter on the first image to obtain a second image, - Detection (1044), on the second image, of the contour of each sub-zone of the area of the glazing covered by the wavefront analyzer: oWhen the number of detected contours is non-zero: 1. Determination (10441), for each contour, of the rotating rectangle of minimum area comprising said contour to obtain a set of rectangles; 2. Selection (10442), among all the rectangles, of the rectangles included in a predefined zone, if at least one rectangle is selected: a. Selection (104421) of the rectangle of maximum area among the at least one rectangle selected, b. Recovery (104422) of the coordinates of the pixels forming the contour included in the rectangle of maximum area, c. From the coordinates of the pixels recovered, calculation (104423) of a polygonal shape corresponding to an approximation of the contour included in the rectangle of maximum area, the calculated polygonal shape representing the given area (13) of the glazing, - if no contour is selected, determination (1045) on the second image of a polygonal shape corresponding to a predefined zone, the polygonal shape representing the given zone (13) of the glazing. [Claim 5] Method (100) according to any one of the preceding claims, characterized in that said method (100) for characterizing the given zone (13) is implemented by a characterization system comprising a beam emitter of light rays and the wavefront analyzer and in that the step (106) of generating the wavefront error map comprises the following substep: - calculation (1061) of a difference phase between the wave front of the light rays transmitted by said given area (13) of the glazing and a reference wave front to determine a wave front error used to generate the wave front error map waves. [Claim 6] Method (100) according to any one of the preceding claims characterized in that the optical defect map is chosen from the following list: - an optical aberration map, - a slope or deflection map, - a map of the point spread function - a map of the modulation transfer function, - a vertical distortion map and/or a horizontal distortion map. [Claim 7] Method (100) according to any one of the preceding claims characterized in that at least two optical defect maps are calculated and in that: - a first optical defect map among the at least two defect maps optical is a distortion map chosen from a vertical distortion map and a horizontal distortion map, and - a second optical defect map among the at least two optical defect maps is a map of the modulation transfer function, the method (100) being further characterized in that it comprises, before the characterization step, a step of comparing (111) the first optical defect map and the second optical defect map and in that the characterization of the optical quality of the given area (13) is implemented from the comparison step. [Claim 8] Method (100) according to the preceding claim characterized in that the step of detecting the given zone (13) of the glazing further comprises a sub-step of displaying (1046) the given zone (13) glazing. [Claim 9] Method (100) according to any one of the preceding claims characterized in that the wavefront error map is a matrix and in that the step of calculating (107) at least one map of optical defects comprises the following sub-steps: - Creation (1071) of a binary mask, the binary mask being a matrix of the same size as the wavefront error map and in which: oEach coefficient whose index corresponds to a coefficient of the error map of the non-zero wave front and is equal to the same first binary information 0 or 1; oEach coefficient whose index corresponds to a coefficient of the zero wavefront error map is equal to the same second binary information 1 or 0 complementary to the first binary information; - Application (1072) of a morphological erosion filter on the binary mask, and characterized in that the optical defect map is also calculated from the binary mask. [Claim 10] Method (100) according to any one of the preceding claims characterized in that the step of detecting (104) the given zone (13), the step of calculating (107) the optical defect map from the wavefront error map and the step of determining (108) the at least quality indicator are implemented according to a programming language capable of executing said steps in a period strictly less than the predetermined period. [Claim 11] Method (100) according to any one of the preceding claims, characterized in that the vehicle is a road or rail vehicle. [Claim 12] Method (100) according to any one of the preceding claims characterized in that the predetermined period of operation of the production line is less than 20 seconds inclusive, in particular less than 15 seconds inclusive and preferably less than 12 seconds inclusive . [Claim 13] Method (100) according to any one of the preceding claims characterized in that the glazing among the plurality of glazings of the glazing production line comprises a marking associated with an identifier, the identifier being uniquely associated to the glazing, the method (100) further comprising the following steps: - reading (113) of the identifier by the characterization system, - storage (114) in a memory, of: o the identifier associated with the glazing, o the optical quality of the given area (13) of the glazing determined during the characterization step, - association (115) in the memory of the stored identifier and the stored optical quality. [Claim 14] Method (100) according to the preceding claim characterized in that the method (100) further comprises the following steps: - storage (116) in the memory of the calculated optical defect map, - association (117) in the memory of the stored identifier and the stored optical fault map. [Claim 15] System for characterizing (40) the optical quality of at least one given zone (13) of glazing comprising means configured to implement the method (100) according to any one of claims 1 to 14. [Claim 16] Computer program product comprising program code instructions recorded on a medium usable in a computer, comprising: - computer-readable programming means for carrying out the step of detecting (104) the area data (13) according to claim 1, - computer-readable programming means for carrying out the calculation step (108) from the wavefront error map of at least one optical defect map and for determining (108) at least one quality indicator relating to the optical defect map according to claim 1, - computer-readable programming means for carrying out the step of characterizing (112) the optical quality of the zone data (13) according to claim 1; when said program runs on a computer.
PCT/EP2023/071586 2022-08-04 2023-08-03 Method for characterising the optical quality of a given region of a vehicle glazing unit WO2024028457A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR2208096A FR3138697A1 (en) 2022-08-04 2022-08-04 Method for characterizing the optical quality of a given area of vehicle glass
FRFR2208096 2022-08-04

Publications (1)

Publication Number Publication Date
WO2024028457A1 true WO2024028457A1 (en) 2024-02-08

Family

ID=84887737

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2023/071586 WO2024028457A1 (en) 2022-08-04 2023-08-03 Method for characterising the optical quality of a given region of a vehicle glazing unit

Country Status (2)

Country Link
FR (1) FR3138697A1 (en)
WO (1) WO2024028457A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559524A1 (en) * 1992-03-03 1993-09-08 Saint-Gobain Vitrage Method and device for monitoring the transparency of a laminated glass sheet
WO2021110901A1 (en) 2019-12-06 2021-06-10 Saint-Gobain Glass France Method for measuring the optical quality of a given region of a glazing unit, associated measuring device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0559524A1 (en) * 1992-03-03 1993-09-08 Saint-Gobain Vitrage Method and device for monitoring the transparency of a laminated glass sheet
WO2021110901A1 (en) 2019-12-06 2021-06-10 Saint-Gobain Glass France Method for measuring the optical quality of a given region of a glazing unit, associated measuring device

Also Published As

Publication number Publication date
FR3138697A1 (en) 2024-02-09

Similar Documents

Publication Publication Date Title
EP0342127B1 (en) Method for determining the optical quality of flat glass or products from flat glass
EP3097407B1 (en) Method and device for the detection in particular of refracting defects
EP0685733B1 (en) Method for the measurement of the optical quality of a glass plate
EP0678823B1 (en) Method for automatic recognition of traffic signs, and device for carrying out the method
WO2010037958A1 (en) Device for analysing the surface of a substrate
FR2805038A1 (en) Optical photographic unit for measuring the dimensions of railway wheels using two laser light sources and two cameras
EP0484237B1 (en) Process and apparatus for measuring the optical quality of a glass sheet
WO2021110901A1 (en) Method for measuring the optical quality of a given region of a glazing unit, associated measuring device
EP3200153A1 (en) Method for detecting targets on the ground and in motion, in a video stream acquired with an airborne camera
EP1012549A1 (en) Method and device for wavefront optical analysis
EP2538665B1 (en) Detector with a selective imaging function and method for lightning detection
WO2024028457A1 (en) Method for characterising the optical quality of a given region of a vehicle glazing unit
EP2616764A1 (en) Device and method for measuring the shape of a mirror or of a specular surface
WO2016120276A1 (en) Methods and devices for detecting surface contamination by particles in free air
EP4038373A1 (en) Method for evaluating the optical quality of a delimited zone of a glazing
EP2746830A1 (en) Optical focussing of an image-capturing instrument
FR2633747A1 (en) Adaptive image-processing system
FR3078427A1 (en) DYNAMIC DETECTION OF LIGHT PARASITE IN A DIGITAL IMAGE
EP3304038B1 (en) Device with a single camera and measuring method for characterising rain drops
EP4020978B1 (en) Method for calibrating an array of photodetectors, associated calibration device and imaging system
WO2024028559A1 (en) System for automatically measuring the optical quality of a given region of a vehicle glazing unit, method for implementing such a system and production line comprising this system
FR2673794A1 (en) Defect correction device for imagery systems
CA3113163A1 (en) Adaptive image acquisition method, system and computer program
EP0573115A1 (en) Contour-extracting image processing system and earth sensor incorporating the same
EP1426901A1 (en) Method of detecting point targets and surveillance system applying the method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23748814

Country of ref document: EP

Kind code of ref document: A1