EP4453522A2 - Kolorimetrie-verfahren und -system - Google Patents
Kolorimetrie-verfahren und -systemInfo
- Publication number
- EP4453522A2 EP4453522A2 EP22843783.6A EP22843783A EP4453522A2 EP 4453522 A2 EP4453522 A2 EP 4453522A2 EP 22843783 A EP22843783 A EP 22843783A EP 4453522 A2 EP4453522 A2 EP 4453522A2
- Authority
- EP
- European Patent Office
- Prior art keywords
- measuring
- measurement
- image
- color coordinates
- spots
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/25—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
- G01N21/31—Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/46—Measurement of colour; Colour measuring devices, e.g. colorimeters
- G01J3/50—Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
- G01J3/506—Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors measuring the colour produced by screens, monitors, displays or CRTs
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0205—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0205—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
- G01J3/0218—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using optical fibers
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/02—Details
- G01J3/0205—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
- G01J3/0229—Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using masks, aperture plates, spatial light modulators or spatial filters, e.g. reflective filters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/12—Generating the spectrum; Monochromators
- G01J3/14—Generating the spectrum; Monochromators using refracting elements, e.g. prisms
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/28—Investigating the spectrum
- G01J3/2823—Imaging spectrometer
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J3/00—Spectrometry; Spectrophotometry; Monochromators; Measuring colours
- G01J3/46—Measurement of colour; Colour measuring devices, e.g. colorimeters
- G01J3/52—Measurement of colour; Colour measuring devices, e.g. colorimeters using colour charts
- G01J3/524—Calibration of colorimeters
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/17—Systems in which incident light is modified in accordance with the properties of the material investigated
- G01N21/25—Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
- G01N21/251—Colorimeters; Construction thereof
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/06—Illumination; Optics
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N2201/00—Features of devices classified in G01N21/00
- G01N2201/06—Illumination; Optics
- G01N2201/063—Illuminating optical parts
- G01N2201/0634—Diffuse illumination
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Definitions
- the invention relates to an imaging system that is designed for the two-dimensional, spatially resolved measurement of radiometric and/or photometric measurement variables, in particular the color coordinates of light emitted by a test object.
- the invention also relates to a method for the two-dimensional, spatially resolved measurement of radiometric and/or photometric measurement variables, in particular the color coordinates of light.
- the invention lies in the field of imaging color measurement devices, such as those used for quality assurance in the display manufacturing industry.
- test applications include the color matrix displays of smartphones, tablets, laptops, monitors, TVs, etc. as test objects.
- imaging colorimeters color measurement devices
- Powerful imaging colorimeters can measure the color and luminance (brightness) of individual pixels on a screen, as well as the Accurately measure the overall screen uniformity using a color image of the test object captured by an image sensor.
- the visual performance of a display is checked by automated inspection systems using such imaging colorimeters. This has several advantages. A quantitative evaluation of display defects is possible, a higher test speed can be achieved, and above all a simultaneous evaluation of the overall display quality, i. H. of uniformity and color accuracy.
- spectrometers or filter colorimeters are used to measure color coordinates (usually in the CIE standard valence system).
- Filter colorimeters are equipped with optical filters that correspond to the tristimulus values (XYZ coordinates) of the CIE standard valence system and measure chromaticity and luminance by detecting the intensity of light passing through the optical filters.
- a spectrometer measures the color coordinates by splitting the light from the test object into wavelength components, e.g. B. by means of a prism, a diffraction grating or a spectral filter, and detects the intensity of each primary wavelength element. The measured spectrum is then converted into color coordinates according to the sensitivity curves of the CIE standard valence system.
- a spectrometer is therefore able to precisely measure the absolute color and luminance.
- spectrometers tend not to be suitable as imaging test devices.
- An imaging colorimetry system is known for example from US 5,432,609.
- an optical filter which only lets through certain wavelengths, is located in front of a monochrome CCD image sensor, which receives the light from the test object.
- the color coordinates at the different points of the test object are measured with spatial resolution by a simple method based on the same principle as that of a filter colorimeter.
- a spectrometer is also provided, which receives the light from a predetermined measurement spot on the test object, ie without spatial resolution.
- the color coordinates are precisely measured at the one measuring spot.
- the results of the spatially resolved measurement output from the CCD image sensor are finally corrected based on the accurate but not spatially resolved spectral measurement.
- EP 3 054 273 A1 describes a colorimetric system for testing displays, in which an RGB image sensor is used for spatially resolved measurement of the color coordinates. This enables quick and cost-effective testing in the production of matrix displays.
- the RGB image sensor assigns a set of RGB color values to each pixel of the color image recorded by the test object.
- the spectral channels (red, green, blue) of the RGB image sensor are very far from the XYZ color coordinates of the CIE standard valence system (CIE1931 standard), which must be determined in order to make the test object's visual performance consistent with human perception accurate assessment of brightness and color. Therefore, the RGB color values of the pixels of the recorded image are transformed into color coordinates.
- RGB color values into XYZ color coordinates are not possible because the XYZ color coordinates depend on the spectrum of the measured light in a different way from the sensitivities of the RGB spectral channels, but the spectral information is no longer present in the RGB color image .
- a (linear) transformation can be found to convert the RGB color values into XYZ color coordinates. Any remaining deviation of the color coordinates obtained in this way is then corrected by again measuring a second part of the emitted light from a measuring spot on the test object, ie without spatial resolution, using a spectrometer parallel to the measurement using the RGB image sensor.
- the true color coordinates are derived from the spectrum measured for the measurement spot. Finally, on this basis, the color coordinates obtained by transforming the color image of the RGB image sensor are corrected accordingly for each pixel.
- the resulting image of the corrected XYZ color coordinates is of sufficient accuracy for a number of applications, even if the "true" color coordinates are not measured with spatial resolution. In practice, however, the known approach described above reaches its limits if the spectral properties of the light emission are not homogeneous across the display surface.
- the object of the invention to provide a system which is improved over the prior art and a corresponding method.
- the determination of the color coordinates when measuring displays with spatially inhomogeneous spectral emission should be more precise and/or expanded compared to the prior art.
- the measuring unit of the system includes an imaging spectrometer and each measuring spot/measuring angle is assigned to a different image area of the imaging spectrometer, so that the imaging spectrometer is able to determine the measured variables separately for each measuring spot/measuring angle.
- two or more measuring units can be provided, with each measuring spot/measuring angle being assigned a measuring unit.
- the measurement unit or units can be one or more colorimeters.
- a measurement spot is a limited area on the light-emitting surface of the test object.
- a measurement angle is an angle in three-dimensional space (specified e.g. by polar angle and azimuth) at which the light is emitted from the surface of the test object, e.g. with respect to a surface normal of the test object or with respect to an optical axis of the system.
- a transformation is any type of conversion or correction of the image values (i.e. the numerical values that describe the intensity with which the pixels of the image sensor are hit by the first part of the light, such as R, G and B values of a RGB image sensor), such as the conversion of RGB values into color coordinates according to the CIE standard valence system or the correction of color coordinates recorded using an imaging filter wheel colorimeter based on the (precise) measured variables recorded using the measuring unit or units.
- the image values i.e. the numerical values that describe the intensity with which the pixels of the image sensor are hit by the first part of the light, such as R, G and B values of a RGB image sensor
- the invention proposes a method according to claim 10 for the two-dimensional, spatially resolved measurement of radiometric and/or photometric measurement variables, in particular the color coordinates of light emitted by a test object.
- the method uses the imaging system previously identified.
- the splitting optics can comprise a beam splitter or else a movable mirror.
- the beam splitter ensures that the first and second parts of the light are recorded simultaneously by the image sensor or by the measuring unit/colorimeter. If a movable mirror is used (eg by a controllable actuator), the light is recorded sequentially or alternately by an image sensor or by a colorimeter. The mirror alternately directs the incident light onto the image sensor (first part) and the colorimeter (second part).
- the system comprises an imaging spectrometer (e.g.
- each measuring spot or measuring angle being assigned to a different image area of the imaging spectrometer, so that the spectrometer is able to simultaneously record for each measuring spot or Measuring angle separately to record a spectrum and to determine the measured variables.
- the imaging spectrometer has an entrance slit, with two or more optical fibers being provided, each of which is assigned to a different measurement spot or measurement angle and the light emitted by the respective measurement spot or at the respective measurement angle to a different position leads to the entrance slit.
- the imaging spectrometer can include a dispersive optical element, e.g. a grating or a prism, and an additional image sensor.
- the further image sensor can have a matrix-like configuration with a number of image lines, with the supply of the light from the individual measuring spots/measuring angles to different positions on the entrance slit having the effect that one or more image lines are assigned as an image area to a measuring spot/measuring angle, with the Spectrum, i.e. the wavelength or frequency dimension, is resolved by the dispersive optical element along the image lines.
- the spectrometer is able to determine a separate spectrum for each measuring spot/measuring angle and (using a computing unit) thus determine the color coordinates.
- a perforated mask is provided which is arranged in the beam path of the second part of the incident light and defines the measuring spots/measuring angles.
- the shadow mask is arranged, for example, in a collimated beam of the second part of the incident light, with each of a plurality of holes of the shadow mask corresponding to a measuring spot/measuring angle.
- the dispersive element causes a spatial separation of the Wavelength components on the image sensor for each measurement spot/angle. That is, by analyzing the output of the image sensor, a spectrum can be recorded for each measuring spot/measuring angle. The color coordinates for each measuring spot/measuring angle can then in turn be derived from this by means of the computing unit.
- the incident light from the test object is split (by splitting optics), with part of the light being supplied to the image sensor and the other part being supplied to the measuring unit, e.g.
- the image values of the image supplied by the image sensor are transformed, e.g. converted into color coordinates, by means of a computing unit (e.g. computer).
- the radiometric, photometric or colorimetric measurement is not carried out for just one measuring spot on the test object, as in the prior art, but for several measuring spots located at different positions on the test object, or for several measuring angles.
- the measurement variables e.g. the "true" color coordinates for the light emitted by the measuring spot/measuring angle, are measured separately for each measuring spot/measuring angle.
- An individual set of precise measurement variables e.g. color coordinates
- is therefore available for each measuring spot/measuring angle which are taken into account in the transformation of the image values obtained by means of the image sensor. Consequently, spectral properties of the light emission that vary across the surface of the test object—unlike in the prior art—can be taken into account in the transformation.
- the color coordinates obtained are correspondingly more precise, in particular less subject to systematic errors dependent on the beam angle.
- the color coordinates are preferably XYZ color coordinates (tristimulus values) in the CIE standard valence system or coordinates derived therefrom, such as the xy color locus coordinates or Lu'v' coordinates in the CIE LUV color space system.
- the specification of the so-called dominant wavelength or the color temperature can also be included in the color coordinates.
- the concept of color coordinates stands for colorimetric data for the quantification of physiological color perception, while the concept of color values of the Image sensor for information in a different color system according to the spectral properties (spectral channels) of the image sensor (eg RGB).
- the color coordinates are the relevant variables for assessing the quality of the test objects (e.g. matrix displays).
- the system has conoscopic optics that are designed to image the light emitted from an area on the test object at different angles onto the image sensor in such a way that a different emission angle is assigned to each pixel of the two-dimensional digital image.
- the second part of the light can be received by the measuring unit or units in a particularly simple manner in that the radiometric and/or photometric measured variables, in particular the color coordinates of the emitted light, are recorded for individual measuring angles.
- the transformation of the image values into color coordinates takes place in two steps: i) transformation of the image values into color coordinates on the basis of a transformation rule determined in advance by calibration, ii) correction of the color coordinates obtained in step i), the correction being based on a comparison of the Step i) obtained color coordinates are derived with the color coordinates recorded for the measuring spots.
- a transformation rule is determined in advance by calibration, e.g. by measuring a number of reference objects, e.g. in the form of a transformation matrix, which calculates the color value vector for each pixel of the image of the image sensor into a vector of color coordinates.
- the image values of the image generated by the image sensor are first transformed into color coordinates on the basis of the transformation matrix. These "raw values" are then corrected on the basis of the color coordinates recorded parallel to the test object for the measuring spots/measuring angles.
- the correction is based not only on the color coordinates recorded for one measurement spot, but also on the basis of color coordinates recorded for two or more measurement spots at different positions on the test object or at different measurement angles. This reduces the errors that previously occurred due to a spatially inhomogeneous emission.
- the correction includes dividing the image into spatially separate zones, with each zone being assigned a measuring spot/measuring angle and the correction for each zone being based on a comparison of the color coordinates within this zone obtained in step i) with those for this Zone associated measurement spot / measurement angle detected color coordinates is derived.
- the correction resulting from this measuring spot/measuring angle is applied specifically to those pixels that are in the same zone, i.e. near the relevant measuring spot/measuring angle. This directly takes into account the spatial deviations of the light emission, assuming that the variation of the light emission is spatially continuous, e.g. in the form of a spectral shift that increases continuously with increasing distance from the optical axis.
- the correction of the color coordinates applies an interpolation according to the positions of the measuring spots/measuring angles within the image.
- the interpolation eg linear or cubic
- the model can then be parameterized on the basis of the color coordinates recorded for the measuring spots/measuring angles and used to correct the color coordinates for all pixels obtained by means of the transformation rule.
- the image values of the image of the image sensor are transformed on the basis of a transformation rule that is derived from the image values of the digital image captured by the test object and the color coordinates captured by the same test object for the measuring spots/measuring angles.
- This procedure does not require a calibration carried out beforehand, because the transformation rule is calculated “in situ”, so to speak, using the image values recorded simultaneously by the image sensor for the measurement spots/measurement angles (in the color system of the image recorded by the image sensor) and color coordinates recorded by the colorimeter (in the desired color system, eg in the CIE standard valence system) can be determined.
- the number of measuring spots/measuring angles should be at least equal to the number of spectral channels of the image sensor used. This is not possible with only one measuring spot (as in the prior art).
- This configuration is particularly advantageous because it does not require (time-consuming) prior calibration and because it simultaneously takes into account the inhomogeneous emission properties of the test object and thus ensures improved precision of the determined color coordinates compared to the prior art. This configuration is, so to speak, “self-calibrating”.
- the image comprises at least three, preferably at least five, particularly preferably at least nine image values for each pixel.
- three spectral channels of a common RGB image sensor prove to be insufficient for some applications in order to enable precise conversion of the image values into color coordinates. The reason for this is simply that with only three color channels too much spectral information is lost. With more spectral channels, the precision can be significantly improved.
- An image sensor (such as a multispectral camera) with nine (or more) spectral channels has proven to be particularly suitable.
- the measurement spots on the test object are at different radial distances from the recording axis of the image sensor.
- This arrangement of the measuring spots takes into account the fact that with some display types that come into question as test objects (e.g. OLED displays), the spectral shift of the emission depends on the viewing angle, i.e. on the distance of the emission point from the center of the display, where the recording axis of the image sensor is the display surface intersects, depends.
- Figure 1 schematic representation of a first
- Figure 2 schematic representation of a second
- FIG. 3 Illustration of the spectral detection of measurement spots in the second exemplary embodiment using GRISM;
- Figure 4 schematic representation of a third
- FIG. 5 Illustration of the assignment of zones to measurement spots when correcting color coordinates
- FIG. 6 Illustration of the determination of color coordinates by means of an image sensor of a multispectral camera using a plurality of measurement spots recorded colorimetrically.
- the imaging system 1 of FIG. 1 comprises an objective 3, which collimates the light emitted by a test object, namely a matrix display 2 (eg OLED display).
- a beam splitter 4 is arranged downstream of the lens 3 in the beam path as splitting optics. The beam splitter 4 divides the light coming from the matrix display 3 into a first part 5 and a second part 6 .
- the image output by the image sensor 7 is displayed transmitted to a computer (not shown) connected to the image sensor 7.
- Two coupling units 9, 10 of light-conducting fibers 11 and 12, respectively, are arranged in a common plane 8 within the beam cross-section of the second part 6 of the light.
- the light is correspondingly coupled into the fibers 11 and 12 at the positions at which the two coupling units are located. In this way it is achieved that the light propagating in the fiber 11 comes from a first measuring spot 13 and the light propagating in the fiber 12 comes from a second measuring spot 14 on the matrix display 2 .
- the positions of the coupling units 9, 10 in the plane 8 determine the positions of the measuring spots 13, 14 on the matrix display 2. As can be seen clearly in FIG light emitted by the corresponding positions on the matrix display 2 is detected by the lens 3 .
- An imaging spectrometer 17 (hyperspectral camera) is used as the measuring unit (colorimeter).
- the two fibers 11, 12 lead to different (vertical) positions on the entrance slit of the imaging spectrometer 17, so that each measurement spot 13, 14 is associated with a different image area of the imaging spectrometer.
- the spectrometer 17 (or the computer connected to it) is able to record a spectrum separately for each measuring spot 13, 14 and to determine the color coordinates from this.
- the imaging spectrometer 17 is also connected to the computer.
- the computer is programmed by which the image values of the pixels of the image output by the image sensor 7 are displayed in color coordinates be transformed in the CIE standard valence system. The color coordinates precisely recorded by means of the spectrometer for the measuring spots 13, 14 are taken into account as a reference.
- a further image sensor 21 comprises.
- Each of the holes in the perforated mask corresponds to a measurement spot 13, 14.
- the spatial arrangement of the holes determines the positions of the measurement spots 13, 14 on the matrix display 2.
- Figure 3 illustrates the functional principle of the colorimeter 19.
- Figure 22 in Figure 3 shows an example hole pattern the perforated mask 18.
- the dispersive element 20 brings about a spatial separation of the wavelength components on the image sensor 21 for each measurement spot, as illustrated in figure 23 in FIG.
- the spatial separation of the wavelength components is marked at 24 as an example for the extreme right measuring spot.
- a spectrum as shown in Figure 25 can be acquired accordingly for each measurement spot. From this, the color coordinates for the measuring spot in question can then in turn be derived by means of the computer.
- the light emitted by the measuring spots 13, 14 via the two fibers 11, 12 is supplied to two separate colorimeters 15, 16, for example conventional filter colorimeters, as measuring units. Accordingly, the colorimeters 15, 16 detect the color coordinates of the emitted light separately for each of the two measurement spots 13, 14.
- the two colorimeters 15, 16 are connected to the computer.
- the computer is programmed by which the image values of the pixels of the image output by the image sensor 7 are transformed into color coordinates in the CIE standard valence system.
- the color coordinates precisely recorded by means of the colorimeters 15, 16 for the measuring spots 13, 14 are taken into account as a reference. It should be pointed out that the exemplary embodiments in FIGS.
- FIG. 3 illustrates, likewise only by way of example, an embodiment with a total of 36 measurement spots.
- the lens 3 can be a conoscopic lens that is designed to be of a limited (possibly approximately punctiform) area on the test object 2 at different angles project the emitted light onto the image sensor 7 in such a way that a spatial emission angle (e.g. given by the polar angle and the azimuth of the emission) is assigned to each pixel of the two-dimensional digital image. This makes it possible to measure the angle-dependent emission characteristics of the test object 2 precisely.
- a spatial emission angle e.g. given by the polar angle and the azimuth of the emission
- the spatial arrangement of the holes in the perforated mask 18 determines the (here two) measuring angles.
- the image values of the image sensor 7 can be transformed into CIE color coordinates on the basis of a previously performed calibration with subsequent correction based on the color coordinates determined for the measuring spots 13, 14, similarly to the cited EP 3 054 273 A1.
- a transformation rule is determined once beforehand by calibration, for example in the form of a transformation matrix, which converts the image value vector for each pixel of the image of the image sensor 7 into a vector of the color coordinates.
- the image values of the image generated by the image sensor 7 are first transformed into color coordinates on the basis of the Transformation matrix, ie based on the calibration that has taken place.
- FIG. 5 illustrates that the correction can provide for a subdivision of the image 28 into spatially separate zones (zone 1, zone 2), with each zone being assigned a measurement spot 13, 14.
- the correction is derived for each zone from a comparison of the color coordinates within this zone, previously obtained by transformation on the basis of the calibration, with the color coordinates recorded for the measuring spot 13, 14 assigned to this zone.
- the correction can be, for example, a simple scaling of the individual color coordinates X, Y and Z, corresponding to the ratio of the color coordinates initially obtained by transformation matrix for the positions of the measuring spots 13, 14 and the colorimeters 15, 16, 17, 19 for the respectively corresponding measuring spot 13, 14 precisely recorded color coordinates. This correction is then applied to all transformed color coordinates within the zone in question.
- FIG. 5 shows two possible variants for subdividing into zones. The subdivision is expediently chosen according to the course of change in the light emission over the surface of the matrix display 2 .
- the image values of the image from the image sensor 7 can be transformed on the basis of a transformation rule which is derived from the image values of the digital image captured by the matrix display 2 and from the same matrix display 2 (in parallel or sequentially) for the measurement spots 13, 14 is derived from the color coordinates detected by the colorimeter 15, 16, 17, 19.
- the transformation rule is determined “in situ”, so to speak, using the image values recorded for the measurement spots 13 , 14 by the image sensor 7 and also the color coordinates recorded by the colorimeter 15 , 16 , 17 , 19 .
- Diagram 29 illustrates the sensitivities of the nine spectral channels of image sensor 7.
- Figure 30 shows a plan view of matrix display 2 to be measured with a number of nine measurement spots located thereon at nine different distances R1-R9 from the Center of the matrix display 2.
- the colorimeter 15, 16, 17, 19 is used to precisely record the XYZ color coordinates of the light emission for all of the measurement spots, either in parallel or sequentially.
- Diagram 31 shows the spectra of the light emission at the various measurement spots with increasing distance (arrow direction) from the center of matrix display 2. The distance-dependent shift in the emission spectrum can be clearly seen. This results in nine sets of XYZ color coordinates for the nine measurement spots:
- the measurement using the multispectral image sensor 7 results in nine image values for each of the nine measuring spots corresponding to the nine spectral channels of the image sensor 7:
- matrix CCM The 9x3 matrix of the XYZ color coordinates is linked to the 9x9 matrix of the image values via the required transformation rule (hereinafter referred to as matrix CCM):
- the transformation rule CCM can be determined in real time by numerically solving the inverse problem using the computer (for example based on the known method of minimizing the squared deviations or using other known algorithms). With a sufficient number of measurement spots (here at least nine, corresponding to the number of spectral channels of the image sensor 7), it can be ensured that there is sufficient data for solving the inverse problem for finding the correct transformation rule CCM.
- This approach to the Transformation of the image values of the image sensor 7 into CIE color coordinates, taking into account the color coordinates directly colorimetrically recorded for the measuring spots, is particularly advantageous because it does not require calibration to be carried out beforehand and also automatically takes inhomogeneous emission properties of the measured matrix display 2 into account.
- the procedure described with reference to FIG. 6 does not depend on the use of a multispectral image sensor 7 .
- the same method can also be used analogously, e.g. with an RGB image sensor 7 or an imaging filter wheel colorimeter with a monochrome image sensor, which has only three spectral channels.
- a minimum of three measurement spots is then sufficient to determine the transformation rule CCM.
- a number of measurement spots that is even larger than the number of spectral channels can be advantageous in order to determine the transformation rule CC/W numerically with greater accuracy.
- the inverse problem to be solved is then overdetermined.
- a transformation rule can be derived for different spatial areas of the test object, i.e. the matrix display 2, without prior calibration.
- a transformation rule CCM1 can be derived from the measurement spots at the distances Ri, R2, R3, a transformation rule CCM2 from the measurement spots at the distances R2, R3, R4, a transformation rule CCM3 from the measurement spots at the distances R3, R4, Rs, etc.
- These transformation rules are then used to transform the RGB image values into color coordinates for the pixels in the various areas, i.e. here in the ring-shaped areas determined by the corresponding distances Ri to R9 from the center.
Landscapes
- Physics & Mathematics (AREA)
- Spectroscopy & Molecular Physics (AREA)
- General Physics & Mathematics (AREA)
- Biochemistry (AREA)
- Chemical & Material Sciences (AREA)
- Analytical Chemistry (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Immunology (AREA)
- Pathology (AREA)
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Spectrometry And Color Measurement (AREA)
Abstract
Die Erfindung betrifft ein bildgebendes System, das zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt (2) emittiert wird, ausgelegt ist. Ein Bildsensor (7) ist dazu vorgesehen, einen ersten Teil (6) des Lichts zu empfangen und ein zweidimensionales digitales Bild der Lichtemission des Testobjekts (2) zu erzeugen. Eine Messeinheit (15, 16, 17, 19) empfängt einen zweiten Teil (6) des Lichts und erfasst radiometrische und/oder photometrische Messgrößen für verschiedene Messflecken (13, 14) bzw. Messwinkel. Eine Recheneinheit transformiert die Bildwerte wenigstens einiger Bildpunkte des erzeugten Bildes, wobei die Transformation die für die Messflecken (13, 14) bzw. Messwinkel erfassten Messgrößen berücksichtigt. Es ist Aufgabe der Erfindung, ein gegenüber dem Stand der Technik verbessertes System bereit zu stellen. Insbesondere soll die Bestimmung der Farbkoordinaten bei der Vermessung von Displays mit räumlich inhomogener spektraler Emission gegenüber dem Stand der Technik präziser sein. Zur Lösung schlägt die Erfindung vor, dass die Messeinheit (15, 16, 17, 19) ein bildgebendes Spektrometer umfasst, das dazu in der Lage ist, für jeden Messfleck (13, 14) bzw. Messwinkel separat die Messgrößen zu ermitteln. Alternativ können zwei oder mehr Messeinheiten (15, 16, 17, 19) vorgesehen sein, wobei jedem Messfleck (13, 14) bzw. Messwinkel eine Messeinheit (15, 16, 17, 19) zugeordnet ist. Außerdem betrifft die Erfindung ein Verfahren zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das ein solches bildgebendes System (1) verwendet.
Description
Kolorimetrie-Verfahren und -System
Die Erfindung betrifft ein bildgebendes System, das ausgelegt ist zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt emittiert wird. Außerdem betrifft die Erfindung ein Verfahren zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht.
Die Erfindung liegt auf dem Gebiet der bildgebenden Farbmessgeräte, wie sie zum Beispiel in der Display-Herstellungsindustrie zur Qualitätssicherung verwendet werden.
Bildgebende Kolorimetrie-basierte Prüfsysteme haben sich bei der Verbesserung der Qualität und der Senkung der Produktionskosten für alle Arten von Flachbildschirmen wie LCD- und LED-Anzeigen als erfolgreich erwiesen. Die Prüfanwendungen umfassen die Farbmatrix-Displays von Smartphones, Tablets, Laptops, Monitoren, Fernsehgeräten usw. als Testobjekte.
Schlüsselkomponenten bekannter Display-Testumgebungen sind sogenannte bildgebende Kolorimeter (Farbmessgeräte), die eine genaue Messung der visuellen Leistung von Displays ermöglichen, die der menschlichen Wahrnehmung von Helligkeit, Farbe und räumlichen Beziehungen entspricht. Leistungsstarke bildgebende Farbmessgeräte können die Farbe und die Leuchtdichte (Helligkeit) einzelner Pixel eines Bildschirms sowie die
Gesamtgleichmäßigkeit des Bildschirms genau anhand eines mittels eines Bildsensors aufgenommenen Farbbildes des Testobjektes messen.
In einem typischen Herstellungsprozess wird die visuelle Leistung eines Displays durch automatische Inspektionssysteme geprüft, die solche bildgebenden Kolorimeter verwenden. Dies hat mehrere Vorteile. Es ist eine quantitative Bewertung von Displayfehlern möglich, es kann eine höhere Prüfgeschwindigkeit erreicht werden, und vor allem ist eine gleichzeitige Bewertung der gesamten Displayqualität, d. h. der Gleichmäßigkeit und der Farbgenauigkeit, möglich.
Im Allgemeinen werden Spektrometer oder Filterkolorimeter für die Messung von Farbkoordinaten (in der Regel im CIE-Normvalenzsystem) verwendet. Filterkolorimeter sind mit optischen Filtern ausgestattet, die den Tristimuluswerten (XYZ-Koordinaten) des CIE-Normvalenzsystems entsprechen, und messen die Farbart und die Leuchtdichte, indem sie die Intensität des durch die optischen Filter fallenden Lichts erfassen. Ein Spektrometer misst die Farbkoordinaten, indem es das Licht des Testobjektes in Wellenlängenkomponenten aufteilt, z. B. mit Hilfe eines Prismas, eines Beugungsgitters oder eines Spektralfilters, und die Intensität jedes primären Wellenlängenelements erfasst. Das gemessene Spektrum wird dann gemäß den Empfindlichkeitskurven des CIE- Normvalenzsystems in Farbkoordinaten umgerechnet. Ein Spektrometer ist daher in der Lage, die absolute Farbigkeit und Leuchtdichte genau zu messen. Spektrometer eignen sich jedoch eher nicht als bildgebende Testvorrichtungen.
Ein bildgebendes Kolorimetrie-System ist zum Beispiel aus US 5,432,609 bekannt. In dem bekannten System befindet sich ein optisches Filter, das nur bestimmte Wellenlängen durchlässt, vor einem monochromen CCD-Bildsensor, der das Licht von dem Testobjekt empfängt. Auf diese Weise werden die Farbkoordinaten an den verschiedenen Punkten des Testobjektes mit räumlicher Auflösung durch ein einfaches Verfahren gemessen, das auf demselben Prinzip beruht wie das eines Filterkolorimeters. Außerdem ist ein Spektrometer vorgesehen, das das Licht von einem vorgegebenen Messfleck von dem Testobjekt empfängt, d. h. ohne räumliche Auflösung. Somit werden die Farbkoordinaten an dem einen Messfleck genau vermessen. Die Ergebnisse der räumlich aufgelösten Messung, die von dem CCD-Bildsensor ausgegeben
werden, werden schließlich auf der Grundlage der genauen, aber nicht räumlich aufgelösten spektralen Messung korrigiert.
Die EP 3 054 273 A1 beschreibt ein Kolorimetrie-System zum Testen von Displays, bei dem ein RGB-Bildsensor zur ortsaufgelösten Messung der Farbkoordinaten Verwendung findet. Dies ermöglicht eine schnelle und kostengünstige Prüfung in der Produktion von Matrixdisplays. Der RGB- Bildsensor ordnet jedem Bildpunkt des von dem Testobjekt aufgenommenen Farbbildes einen Satz von RGB-Farbwerten zu. Die Spektralkanäle (Rot, Grün, Blau) des RGB-Bildsensors sind jedoch sehr weit von den Farbkoordinaten XYZ des CIE-Normvalenzsystems (CIE1931 -Norm) entfernt, die aber bestimmt werden müssen, um die visuelle Leistung des Testobjektes in Übereinstimmung mit der menschlichen Wahrnehmung von Helligkeit und Farbe genau zu beurteilen. Daher werden die RGB-Farbwerte der Bildpunkte des aufgenommenen Bildes in Farbkoordinaten transformiert. Im Allgemeinen ist die Umwandlung von RGB-Farbwerten in XYZ-Farbkoordinaten zwar nicht möglich, weil die XYZ-Farbkoordinaten vom Spektrum des gemessenen Lichts abweichend von den Empfindlichkeiten der RGB-Spektralkanäle abhängen, die spektrale Information jedoch in dem RGB-Farbbild nicht mehr vorhanden ist. Für einen Satz "typischer" Testobjekte, die Licht mit einer ähnlichen spektralen Verteilung emittieren, kann aber eine (lineare) Transformation gefunden werden, um die RGB-Farbwerte in XYZ-Farbkoordinaten umzusetzen. Eine verbleibende Abweichung der so gewonnenen Farbkoordinaten wird dann korrigiert, indem wiederum parallel zu der Messung mittels des RGB-Bildsensors ein zweiter Teil des emittierten Lichts von einem Messfleck auf dem Testobjekt, d.h. ohne räumliche Auflösung, mittels eines Spektrometers vermessen wird. Aus dem für den Messfleck gemessenen Spektrum werden die wahren Farbkoordinaten abgeleitet. Auf dieser Grundlage werden schließlich die durch Transformation des Farbbildes des RGB-Bildsensors erhaltenen Farbkoordinaten für jeden Bildpunkt entsprechend korrigiert. Das sich daraus ergebende Abbild der korrigierten XYZ- Farbkoordinaten ist für eine Reihe von Anwendungen von ausreichender Genauigkeit, auch wenn die "wahren" Farbkoordinaten nicht mit räumlicher Auflösung gemessen werden.
Der zuvor beschriebene, bekannte Ansatz stößt in der Praxis allerdings an seine Grenzen, wenn die spektralen Eigenschaften der Lichtemission über die Displayoberfläche hinweg nicht homogen sind. Es zeigt sich z.B., dass bei OLED- oder pLED-Displays der Fehler in den erhaltenen Farbkoordinaten mit zunehmendem Abstand von dem mittig auf dem Display (d.h. auf der Aufnahmeachse des Bildsensors) positionierten Messfleck über ein tolerierbares Maß hinaus zunimmt (M. E. Becker et al.,“ Spectrometer-Enhanced Imaging Colorimetry“, SID 2017, https://doi.org/10.1002/sdtp.11951 ). Die Ursache dafür ist, dass das Emissionsspektrum bei OLED- und pLED-Displays vom Abstrahlwinkel abhängt und weiter entfernt vom Zentrum des Displays emittiertes Licht unvermeidlich unter einem zunehmend größeren Winkel gegenüber der Aufnahmeachse des verwendeten Bildsensors erfasst wird. Vergleichbare Probleme bestehen bei sog. Virtual Reality (VR)- oder Augmented Reality (AR)- Displays. Zur Beurteilung der Qualität dieser Displays muss die damit kombinierte Beobachtungsoptik (Weitwinkeloptik, Konoskopoptik) mit in Betracht gezogen werden. Aufgrund unvermeidlicher chromatischer Aberration kommt es zu beobachtungswinkelabhängigen spektralen Veränderungen (T. Steinei et al., “Quality Control of AR/VR Near-Eye Displays: Goniometrie vs. Advanced 2D Imaging Light Measurements“, 2021 ). Diese führen zu signifikanten systematischen Fehlem der Farbkoordinaten bei Anwendung des oben beschriebenen, bekannten Messprinzips.
Vor diesem Hintergrund ist es Aufgabe der Erfindung, ein gegenüber dem Stand der Technik verbessertes System und ein entsprechendes Verfahren bereit zu stellen. Insbesondere soll die Bestimmung der Farbkoordinaten bei der Vermessung von Displays mit räumlich inhomogener spektraler Emission gegenüber dem Stand der Technik präziser und/oder erweitert sein.
Zur Lösung der Aufgabe schlägt die Erfindung ein bildgebendes System nach Anspruch 1 vor. Dabei umfasst die Messeinheit des Systems ein bildgebendes Spektrometer und jeder Messfleck/Messwinkel ist einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet, so dass das bildgebende Spektrometer dazu in der Lage ist, für jeden Messfleck/Messwinkel separat die Messgrößen zu ermitteln. Alternativ können zwei oder mehr Messeinheiten vorgesehen sein, wobei jedem Messfleck/Messwinkel eine Messeinheit zugeordnet ist.
Bei der Messeinheit bzw. den Messeinheiten kann es sich um ein bzw. mehrere Kolorimeter handeln.
Unter einem Messfleck ist ein begrenzter Bereich auf der Licht emittierenden Oberfläche des Testobjektes zu verstehen.
Unter einem Messwinkel ist ein Winkel im dreidimensionalen Raum (angegeben z.B. durch Polarwinkel und Azimut) zu verstehen, unter dem das Licht von der Oberfläche des Testobjektes emittiert wird, z.B. bezüglich einer Oberflächennormalen des Testobjektes oder bezüglich einer optischen Achse des Systems.
Unter einer Transformation ist jede Art von Umrechnung oder Korrektur der Bildwerte (d.h. der Zahlenwerte, die die Intensität beschreiben, mit der die Bildpunkte des Bildsensors jeweils von dem ersten Teil des Lichts getroffen werden, wie z.B. R-, G- und B-Werte eines RGB-Bildsensors) zu verstehen, wie z.B. die Umrechnung von RGB-Werten in Farbkoordinaten gemäß dem CIE- Normvalenzsystem oder auch die Korrektur von mittels einem bildgebenden Filterrad-Kolorimeter erfassten Farbkoordinaten anhand der mittels der Messeinheit bzw. der Messeinheiten erfassten (präzisen) Messgrößen.
Außerdem schlägt die Erfindung ein Verfahren nach Anspruch 10, zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt emittiert wird vor. Das Verfahren verwendet das zuvor angegebene bildgebende System.
Bei dem bildgebenden System der Erfindung kann die Aufteilungsoptik einen Strahlteiler oder auch einen beweglichen Spiegel umfassen. Bei dem Strahlteiler ist sichergestellt, dass der erste und der zweite Teil des Lichts gleichzeitig per Bildsensor bzw. per Messeinheit/Kolorimeter erfasst werden. Bei Verwendung eines beweglichen Spiegels (z.B. per ansteuerbarem Aktor) erfolgt die Erfassung des Lichts per Bildsensor bzw. per Kolorimeter sequentiell bzw. abwechselnd. Der Spiegel richtet das einfallende Licht abwechselnd auf den Bildsensor (erster Teil) und das Kolorimeter (zweiter Teil).
Das System umfasst gemäß einer Variante der Erfindung ein bildgebendes Spektrometer (z.B. in Form einer Hyperspektralkamera), wobei jeder Messfleck bzw. Messwinkel einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet ist, so dass das Spektrometer dazu in der Lage ist, simultan für jeden Messfleck bzw. Messwinkel separat ein Spektrum zu erfassen und die Messgrößen zu ermitteln.
Bei einer möglichen Ausgestaltung weist das bildgebende Spektrometer einen Eintrittsspalt auf, wobei zwei oder mehr optische Fasern vorgesehen sind, von denen jede einem anderen Messfleck bzw. Messwinkel zugeordnet ist und das von dem jeweiligen Messfleck bzw. unter dem jeweiligen Messwinkel emittierte Licht zu einer anderen Position auf dem E intrittsspalt führt.
Dabei kann das bildgebende Spektrometer ein dispersives optisches Element, z.B. ein Gitter oder ein Prisma, und einen weiteren Bildsensor umfassen. Der weitere Bildsensor kann eine matrixförmige Ausgestaltung mit einer Anzahl von Bildzeilen aufweisen, wobei die Zuführung des Lichts von den einzelnen Messflecken/Messwinkeln zu unterschiedlichen Positionen auf dem Eintrittsspalt bewirkt, dass jeweils eine oder mehrere Bildzeilen als Bildbereich einem Messfleck/Messwinkel zugeordnet sind, wobei das Spektrum, d.h. die Wellenlängen- bzw. Frequenzdimension, durch das dispersive optische Element entlang der Bildzeilen aufgelöst wird. Da die Messflecken/Messwinkel somit verschiedenen Bildzeilen zugeordnet sind und die Bildzeilen jeweils ein Spektrum wiedergeben, ist das Spektrometer dazu in der Lage, für jeden Messfleck/Messwinkel separat ein Spektrum und (per Recheneinheit) damit die Farbkoordinaten zu ermitteln.
Bei einer weiteren möglichen Ausgestaltung ist eine im Strahlverlauf des zweiten Teils des einfallenden Lichts angeordnete, die Messflecken/Messwinkel definierende Lochmaske vorgesehen. Die Lochmaske ist beispielsweise in einem kollimierten Strahl des zweiten Teils des einfallenden Lichts angeordnet, wobei jedes einer Mehrzahl von Löchern der Lochmaske einem Messfleck/Messwinkel entspricht. D.h. die räumliche Anordnung der Löcher bestimmt die Positionen der Messflecken auf dem Testobjekt bzw. die Messwinkel, unter denen die Emission erfolgt ist. Das dispersive Element bewirkt eine räumliche Separation der
Wellenlängenkomponenten auf dem Bildsensor für jeden Messfleck/Messwinkel. D.h. durch Analyse der Ausgabe des Bildsensors kann für jeden Messfleck/Messwinkel ein Spektrum erfasst werden. Daraus können dann wiederum die Farbkoordinaten für jeden Messfleck/Messwinkel mittels der Recheneinheit abgeleitet werden.
Ähnlich wie im Stand der Technik wird gemäß der Erfindung das von dem Testobjekt einfallende Licht aufgeteilt (per Aufteilungsoptik), wobei ein Teil des Lichts dem Bildsensor und der andere Teil der Messeinheit, z.B. dem Kolorimeter zugeführt wird. Mittels einer Recheneinheit (z.B. Computer) werden die Bildwerte des von dem Bildsensor gelieferten Bildes transformiert, z.B. in Farbkoordinaten umgewandelt.
Gemäß der Erfindung erfolgt die radio-, photo- oder kolorimetrische Vermessung nicht, wie im Stand der Technik, für nur einem Messfleck auf dem Testobjekt, sondern für mehrere Messflecken, die sich an unterschiedlichen Positionen auf dem Testobjekt befinden, oder für mehrere Messwinkel. Für jeden Messfleck/Messwinkel werden separat die Messgrößen, z.B. die „wahren“ Farbkoordinaten für das von dem Messfleck/Messwinkel emittierte Licht gemessen. Für jeden Messfleck/Messwinkel liegt somit ein individueller Satz präziser Messgrößen (z.B. Farbkoordinaten) vor, die bei der Transformation der mittels des Bildsensors erhaltenen Bildwerte berücksichtigt werden. Folglich können über die Oberfläche des Testobjektes variierende spektrale Eigenschaften der Lichtemission - anders als im Stand der Technik - bei der Transformation berücksichtigt werden. Z.B. die erhaltenen Farbkoordinaten sind entsprechend präziser, insbesondere weniger stark mit vom Abstrahlwinkel abhängigen, systematischen Fehlem behaftet.
Die Farbkoordinaten sind vorzugsweise XYZ-Farbkoordinaten (Tristimuluswerte) im CIE-Normvalenzsystem oder daraus abgeleitete Koordinaten, wie z.B. die x-y- Farbortkoordinaten oder Lu’v'-Koordinaten im CIE-LUV-Farbraumsystem. Auch die Angabe der sog. dominanten Wellenlänge oder der Farbtemperatur kann von den Farbkoordinaten umfasst sein. Jedenfalls steht der Begriff der Farbkoordinaten für farbmetrische Angaben zur Quantifizierung der physiologischen Farbwahrnehmung, während der Begriff der Farbwerte des
Bildsensors für Angaben in einem davon abweichenden Farbsystem entsprechend den spektralen Eigenschaften (Spektralkanälen) des Bildsensors (z.B. RGB) steht. Die Farbkoordinaten sind die relevanten Größen zur Qualitätsbeurteilung der Testobjekte (z.B. Matrixdisplays).
Bei einer möglichen Ausgestaltung weist das System eine konoskopische Optik auf, die dazu ausgelegt ist, das von einem Bereich auf dem Testobjekt unter verschiedenen Winkeln emittierte Licht auf den Bildsensor in der Weise abzubilden, dass jedem Bildpunkt des zweidimensionalen digitalen Bildes ein anderer Emissionswinkel zugeordnet ist. Bei dieser Ausgestaltung kann der zweite Teil des Lichts besonders einfach in der Weise von der Messeinheit bzw. von den Messeinheiten empfangen werden, dass die radiometrische und/oder photometrische Messgrößen, insbesondere die Farbkoordinaten des emittierten Lichts, für individuelle Messwinkel erfasst werden.
Bei einer möglichen Ausgestaltung erfolgt die Transformation der Bildwerte in Farbkoordinaten in zwei Schritten: i) Transformieren der Bildwerte in Farbkoordinaten auf Basis einer vorab durch Kalibrierung ermittelten Transformationsvorschrift, ii) Korrektur der im Schritt i) erhaltenen Farbkoordinaten, wobei die Korrektur aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten mit den für die Messflecken erfassten Farbkoordinaten abgeleitet wird.
Demnach wird, ähnlich wie in dem oben genannten Stand der Technik (EP 3 054 273 A1 ) vorab per Kalibrierung, z.B. durch Vermessen einer Anzahl von Referenzobjekten, eine Transformationsvorschrift ermittelt, z.B. in Form einer Transformationsmatrix, die den Farbwertvektor für jeden Bildpunkt des Bildes des Bildsensors in einen Vektor der Farbkoordinaten umsetzt. Während der Messung der eigentlichen Testobjekte erfolgt dann zunächst eine Transformation der Bildwerte des von dem Bildsensor erzeugten Bildes in Farbkoordinaten auf Basis der Transformationsmatrix. Diese „Rohwerte“ werden dann einer Korrektur auf Basis der für die Messflecken/Messwinkel parallel von dem Testobjekt erfassten Farbkoordinaten korrigiert. Im Unterschied zum Stand der Technik erfolgt gemäß
der Erfindung die Korrektur nicht nur anhand der für einen Messfleck erfassten Farbkoordinaten, sondern anhand von für zwei oder mehr an unterschiedlichen Positionen auf dem Testobjekt positionierten Messflecken oder unter verschiedenen Messwinkeln erfassten Farbkoordinaten. Dadurch werden die bisher aufgrund einer räumlich inhomogenen Emission auftretenden Fehler reduziert.
Bei einer möglichen Ausgestaltung umfasst die Korrektur ein Unterteilen des Bildes in räumlich separate Zonen, wobei jeder Zone ein Messfleck/Messwinkel zugeordnet ist und wobei die Korrektur für jede Zone aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten innerhalb dieser Zone mit den für den dieser Zone zugeordneten Messfleck/Messwinkel erfassten Farbkoordinaten abgeleitet wird. Indem jeder Zone ein Messfleck/Messwinkel zugeordnet wird, wird die sich aus diesem Messfleck/Messwinkel ergebende Korrektur gezielt auf diejenigen Bildpunkte angewendet, die sich in der selben Zone, d.h. in der Nähe des betreffenden Messflecks/Messwinkels befinden. Dadurch wird den räumlichen Abweichungen der Lichtemission unmittelbar Rechnung getragen, unter der Annahme, dass die Variation der Lichtemission räumlich stetig verläuft, z.B. in Form einer mit zunehmendem Abstand von der optischen Achse kontinuierlich zunehmenden spektralen Verschiebung.
Bei einer möglichen Ausgestaltung wendet die Korrektur der Farbkoordinaten eine Interpolation entsprechend den Positionen der Messflecken/Messwinkel innerhalb des Bildes an. Die Interpolation (z.B. linear oder kubisch) liefert bei über die Oberfläche des Testobjektes kontinuierlicher Variation der Emissionseigenschaften eine weiter verbesserte Präzision. Es ist auch möglich, mit einem (mathematischen) Modell der Emissionseigenschaften des Testobjektes zu arbeiten, wenn z.B. Testobjekte vermessen werden sollen, die ein charakteristisches Verhalten der Lichtemission (z.B. in Abhängigkeit vom Betrachtungswinkel) aufweisen. Das Modell kann dann anhand der für die Messflecken/Messwinkel erfassten Farbkoordinaten parametriert und für die Korrektur der per Transformationsvorschrift erhaltenen Farbkoordinaten für alle Bildpunkte verwendet werden.
Bei einer alternativen, besonders vorteilhaften Ausgestaltung erfolgt die Transformation der Bildwerte des Bildes des Bildsensors auf Basis einer Transformationsvorschrift, die aus den Bildwerten des von dem Testobjekt erfassten digitalen Bildes und den von demselben Testobjekt für die Messflecken/Messwinkel erfassten Farbkoordinaten abgeleitet wird. Diese Vorgehensweise kommt ohne eine vorab durchgeführte Kalibrierung aus, weil die Transformationsvorschrift gleichsam „in situ“ anhand der für die Messflecken/Messwinkel gleichzeitig per Bildsensor erfassten Bildwerte (im Farbsystem des per Bildsensor aufgenommenen Bildes) und per Kolorimeter erfassten Farbkoordinaten (in dem gewünschten Farbsystem, z.B. im CIE- Normvalenzsystem) ermittelt werden kann. Bei einer ausreichenden Anzahl von Messflecken/Messwinkeln kann insbesondere sichergestellt werden, dass genügend Daten für die Lösung des inversen Problems zum Auffinden der korrekten Transformationsvorschrift (z.B. als Transformationsmatrix) vorliegen. Dabei sollte die Zahl der Messflecken/Messwinkel mindestens gleich der Anzahl der Spektralkanäle des verwendeten Bildsensors sein. Mit nur einem Messfleck (wie im Stand der Technik) ist dies nicht möglich. Diese Ausgestaltung ist besonders vorteilhaft, weil sie zum einen ohne (zeitraubende) Vorab-Kalibrierung auskommt und weil sie gleichzeitig die inhomogenen Emissionseigenschaften des Testobjektes berücksichtigt und somit eine gegenüber dem Stand der Technik verbesserte Präzision der ermittelten Farbkoordinaten gewährleistet. Diese Ausgestaltung ist gleichsam „selbstkalibrierend“.
Bei einer möglichen Ausgestaltung umfasst das Bild für jeden Bildpunkt mindestens drei, vorzugsweise mindestens fünf, besonders bevorzugt mindestens neun Bildwerte. In der Praxis erweisen sich drei Spektralkanäle eines gängigen RGB-Bildsensors für manche Anwendungen als unzureichend, um eine präzise Umwandlung der Bildwerte des Bildes in Farbkoordinaten zu ermöglichen. Der Grund hierfür ist schlicht, dass bei nur drei Farbkanälen zu viele spektrale Informationen verloren gehen. Mit mehr Spektralkanälen kann die Präzision deutlich verbessert werden. Als besonders geeignet erweist sich ein Bildsensor (etwa einer Multispektralkamera) mit neun (oder mehr) Spektralkanälen.
Bei einer weiteren möglichen Ausgestaltung befinden sich die Messflecken auf dem Testobjekt in unterschiedlichem radialen Abstand von der Aufnahmeachse
des Bildsensors. Durch diese Anordnung der Messflecken wird der Tatsache Rechnung getragen, dass bei einigen als Testobjekt in Frage kommenden Displaytypen (z.B. OLED-Displays) die spektrale Verschiebung der Emission vom Betrachtungswinkel, d.h. vom Abstand des Emissionsortes vom Zentrum des Displays, wo die Aufnahmeachse des Bildsensors die Displayoberfläche schneidet, abhängt.
Ausführungsbeispiele der Erfindung werden nachfolgend anhand der Zeichnungen näher erläutert. Es zeigen:
Figur 1 : schematische Darstellung eines ersten
Ausführungsbeispiels des Kolorimeter- Systems mit paralleler Erfassung von Messflecken;
Figur 2: schematische Darstellung eines zweiten
Ausführungsbeispiels des Kolorimeter- Systems mit paralleler Erfassung von Messflecken; Figur 3: Illustration der spektralen Erfassung von Messflecken bei dem zweiten Ausführungsbeispiel per GRISM;
Figur 4: schematische Darstellung eines dritten
Ausführungsbeispiels des Kolorimeter- Systems mit paralleler Erfassung von Messflecken; Figur 5: Illustration der Zuordnung von Zonen zu Messflecken bei der Korrektur von Farbkoordinaten;
Figur 6: Illustration der Ermittlung von Farbkoordinaten mittels eines Bildsensors einer Multispektralkamera unter Verwendung einer Mehrzahl von kolorimetrisch erfassten Messflecken.
In den Zeichnungen werden gleiche Elemente mit gleichen Bezugsziffern bezeichnet. Für gleiche Elemente werden in der nachfolgenden Beschreibung die gleichen Begriffe verwendet.
In den Zeichnungen wird das erfindungsgemäße bildgebende Kolorimeter- System jeweils insgesamt mit der Bezugsziffer 1 bezeichnet.
Das bildgebende System 1 der Figur 1 umfasst ein Objektiv 3, das von einem Testobjekt, und zwar einem Matrixdisplay 2 (z.B. OLED-Display), emittiertes Licht kollim iert. Dem Objektiv 3 im Strahlverlauf nachgeschaltet ist ein Strahlteiler 4 als Aufteilungsoptik. Der Strahlteiler 4 teilt das von dem Matrixdisplay 3 kommende Licht in einen ersten Teil 5 und einen zweiten Teil 6 auf. Ein Bildsensor 7, z.B. ein RGB-Bildsensor oder ein bildgebendes Filterrad-Kolorimeter mit monochromem Bildsensor, empfängt den ersten Teil 5 des Lichts und erzeugt ein zweidimensionales digitales Bild (Farbbild) der Lichtemission des Matrixdisplays 2. Das von dem Bildsensor 7 ausgegebene Bild wird an einen mit dem Bildsensor 7 verbundenen Computer (nicht dargestellt) übertragen. In einer gemeinsamen Ebene 8 sind innerhalb des Strahlquerschnitts des zweiten Teils 6 des Lichts zwei Koppeleinheiten 9, 10 von lichtleitenden Fasern 11 bzw. 12 angeordnet. An den Positionen, an denen sich die die beiden Koppeleinheiten befinden, wird entsprechend das Licht in die Fasern 11 bzw. 12 eingekoppelt. Auf diese Weise wird erreicht, dass das in der Faser 11 propagierende Licht von einem ersten Messfleck 13 und das in der Faser 12 propagierende Licht von einem zweiten Messfleck 14 auf dem Matrixdisplay 2 stammt. Die Positionen der Koppeleinheiten 9, 10 in der Ebene 8 bestimmen die Positionen der Messflecken 13, 14 auf dem Matrixdisplay 2. Wie in Figur 1 gut zu erkennen ist, unterscheiden sich die beiden Messflecken 13, 14 hinsichtlich des Abstrahlwinkels voneinander, unter dem das von den entsprechenden Positionen auf dem Matrixdisplay 2 emittierte Licht von dem Objektiv 3 erfasst wird. Es kommt als Messeinheit (Kolorimeter) ein bildgebendes Spektrometer 17 (Hyperspektralkamera) zum Einsatz. Die beiden Fasern 11 , 12 führen zu unterschiedlichen (vertikalen) Positionen auf dem Eintrittsspalt des bildgebenden Spektrometers 17, so dass jeder Messfleck 13, 14 einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet ist. So ist das Spektrometer 17 (bzw. der damit verbundene Computer) dazu in der Lage, für jeden Messfleck 13, 14 separat ein Spektrum zu erfassen und daraus jeweils die Farbkoordinaten zu ermitteln. Das bildgebende Spektrometer 17 ist ebenfalls mit dem Computer verbunden. Der Computer weist eine Programmierung auf, durch welche die Bildwerte der Bildpunkte des von dem Bildsensor 7 ausgegebenen Bildes in Farbkoordinaten
im CIE-Normvalenzsystem transformiert werden. Dabei werden die mittels des Spektrometers für die Messflecken 13, 14 präzise erfassten Farbkoordinaten als Referenz berücksichtigt.
Bei dem Ausführungsbeispiel der Figur 2 ist eine im Strahlverlauf des zweiten Teils 6 des Lichts angeordnete, die Messflecken 13, 14 definierende Lochmaske 18 vorgesehen, wobei die Messeinheit, hier das Kolorimeter 19, ein Spektrometer mit einem dispersiven optischen Element 20, hier ein sog. GRISM, d.h. eine Prima-Gitter-Prisma-Anordnung, und einen weiteren Bildsensor 21 umfasst. Jedes der Löcher der Lochmaske entspricht einem Messfleck 13, 14. D.h. die räumliche Anordnung der Löcher bestimmt die Positionen der Messflecken 13, 14 auf dem Matrixdisplay 2. Figur 3 illustriert das Funktionsprinzip des Kolorimeters 19. Die Abbildung 22 in Figur 3 zeigt ein beispielhaftes Lochmuster der Lochmaske 18. Das dispersive Element 20 bewirkt eine räumliche Separation der Wellenlängenkomponenten auf dem Bildsensor 21 für jeden Messfleck, wie die Abbildung 23 in Figur 3 veranschaulicht. Die räumliche Separation der Wellenlängenkomponenten beispielhaft für den äußersten rechten Messfleck ist bei 24 markiert. Durch Analyse der Ausgabe des Bildsensors 21 kann entsprechend für jeden Messfleck ein Spektrum, wie in der Abbildung 25 dargestellt, erfasst werden. Daraus können dann wiederum die Farbkoordinaten für den betreffenden Messfleck mittels des Computers abgeleitet werden.
Bei dem Ausführungsbeispiel der Figur 4 wird das über die beiden Fasern 11 , 12 von den Messflecken 13, 14 emittierte Licht zwei separaten Kolorimetern 15, 16, beispielsweise herkömmlichen Filterkolorimetern, als Messeinheitenzugeführt. Dementsprechend erfassen die Kolorimeter 15, 16 die Farbkoordinaten des emittierten Lichts separat für jeden der beiden Messflecken 13, 14. Die beiden Kolorimeter 15, 16 sind mit dem Computer verbunden. Der Computer weist eine Programmierung auf, durch welche die Bildwerte der Bildpunkte des von dem Bildsensor 7 ausgegebenen Bildes in Farbkoordinaten im CIE-Normvalenzsystem transformiert werden. Dabei werden die mittels der Kolorimeter 15, 16 für die Messflecken 13, 14 präzise erfassten Farbkoordinaten als Referenz berücksichtigt.
Es sei darauf hingewiesen, dass die Ausführungsbeispiele der Figuren 1 , 2 und 4 jeweils aus Übersichtlichkeitsgründen beispielhaft nur zwei Messflecken 13, 14 zeigen. Die Darstellung dient jeweils nur der Erläuterung des Prinzips. Ohne Weiteres können die Ausführungsbeispiele auf eine größere Anzahl von (z. B. drei, fünf, neun oder mehr) Messflecken in vollständig analoger Weise erweitert werden. Die Figur 3 illustriert, ebenfalls nur beispielhaft, eine Ausgestaltung mit insgesamt 36 Messflecken.
Bei einer möglichen, nicht dargestellten Variante der in den Figuren 1 , 2 und 4 gezeigten Ausführungsformen kann das Objektiv 3 ein konoskopisches Objektiv sein, das dazu ausgelegt ist, das von einem begrenzten (ggf. annähernd punktförmigen) Bereich auf dem Testobjekt 2 unter verschiedenen Winkeln emittierte Licht auf den Bildsensor 7 in der Weise abzubilden, dass jedem Bildpunkt des zweidimensionalen digitalen Bildes ein räumlicher Emissionswinkel (z.B. gegeben durch den Polarwinkel und den Azimut der Abstrahlung) zugeordnet ist. Dies ermöglicht es, die winkelabhängige Abstrahlcharakteristik des Testobjektes 2 präzise zu vermessen. Bei der Variante der Figur 1 , aber mit konoskopischem Objektiv 3, mit in der gemeinsamen Ebene 8 innerhalb des Strahlquerschnitts angeordneten Koppeleinheiten 9, 10 der lichtleitenden Fasern 11 bzw. 12, bestimmen die Positionen, an denen sich die die beiden Koppeleinheiten 9, 10 befinden, die (beiden) Messwinkel, unter denen das Licht von dem Matrixdisplay 2 emittiert wird. Bei der entsprechend modifizierten Variante der Figur 2 bestimmt die räumliche Anordnung der Löcher in der Lochmaske 18 die (hier zwei) Messwinkel.
Wie oben erläutert, kann die Transformation der Bildwerte des Bildsensors 7 in CIE-Farbkoordinaten auf Basis einer vorab durchgeführten Kalibrierung mit anschließender Korrektur anhand der für die Messflecken 13, 14 ermittelten Farbkoordinaten erfolgen, ähnlich wie in der zitierten EP 3 054 273 A1 beschrieben. Per Kalibrierung wird einmalig vorab eine Transformationsvorschrift ermittelt, z.B. in Form einer Transformationsmatrix, die den Bildwertvektor für jeden Bildpunkt des Bildes des Bildsensors 7 in einen Vektor der Farbkoordinaten umsetzt. Während der eigentlichen Messung des Testobjektes, d.h. des Matrixdisplays 2 erfolgt dann zunächst eine Transformation der Bildwerte des von dem Bildsensor 7 erzeugten Bildes in Farbkoordinaten auf Basis der
Transformationsmatrix, d.h. auf Basis der erfolgten Kalibrierung. Danach erfolgt eine Korrektur anhand der für die Messflecken 13, 14 parallel von dem Matrixdisplay 2 erfassten Farbkoordinaten. Die Figur 5 illustriert, dass die Korrektur dabei ein Unterteilen des Bildes 28 in räumlich separate Zonen (Zone 1 , Zone 2) vorsehen kann, wobei jeder Zone ein Messfleck 13, 14 zugeordnet ist. Die Korrektur wird dabei für jede Zone aus einem Vergleich der zuvor durch Transformation auf Basis der Kalibrierung erhaltenen Farbkoordinaten innerhalb dieser Zone mit den für den dieser Zone zugeordneten Messfleck 13, 14 erfassten Farbkoordinaten abgeleitet. Die Korrektur kann z.B. eine einfache Skalierung der einzelnen Farbkoordinaten X, Y und Z sein, entsprechend dem Verhältnis der per Transformationsmatrix zunächst für die Positionen der Messflecken 13, 14 erhaltenen Farbkoordinaten und den per Kolorimeter 15, 16, 17, 19 für den jeweils korrespondieren Messfleck 13, 14 präzise erfassten Farbkoordinaten. Diese Korrektur wird dann auf alle per Transformation erhaltenen Farbkoordinaten innerhalb der betreffenden Zone angewendet. Die Figur 5 zeigt zwei mögliche Varianten zur Unterteilung in Zonen. Die Unterteilung wird zweckmäßig entsprechend dem Änderungsverlauf der Lichtemission über die Oberfläche des Matrixdisplays 2 gewählt.
Alternativ zu der zuvor beschriebenen Korrekturmethode kann die Transformation der Bildwerte des Bildes des Bildsensors 7 auf Basis einer Transformationsvorschrift erfolgen, die aus den Bildwerten des von dem Matrixdisplay 2 erfassten digitalen Bildes und den von demselben Matrixdisplay 2 (parallel oder sequentiell) für die Messflecken 13, 14 per Kolorimeter 15, 16, 17, 19 erfassten Farbkoordinaten abgeleitet wird. Die Transformationsvorschrift wird dabei gleichsam „in situ“ anhand der für die Messflecken 13, 14 per Bildsensor 7 erfassten Bildwerte und außerdem der per Kolorimeter 15, 16, 17, 19 erfassten Farbkoordinaten ermittelt.
Dieses Prinzip wird nachfolgend anhand der Figur 6 erläutert. Bei dem Beispiel der Figur 6 kommt ein Bildsensor 7 mit neun Spektralkanälen zum Einsatz (wie bei einer Multispektralkamera). Das Diagramm 29 illustriert die Empfindlichkeiten der neun Spektralkanäle des Bildsensors 7. Die Abbildung 30 zeigt eine Draufsicht auf das zu vermessende Matrixdisplay 2 mit einer Anzahl von neun darauf befindlichen Messflecken bei neun verschiedenen Abständen R1-R9 vom
Zentrum des Matrixdisplays 2. Für sämtliche der Messflecken werden per Kolorimeter 15, 16, 17, 19 parallel oder sequentiell die XYZ-Farbkoordinaten der Lichtemission präzise erfasst. Das Diagramm 31 zeigt die Spektren der Lichtemission an den verschiedenen Messflecken mit zunehmendem Abstand (Pfeilrichtung) vom Zentrum des Matrixdisplays 2. Deutlich ist die abstandsabhänge Verschiebung des Emissionsspektrums zu erkennen. Es ergeben sich für die neun Messflecken entsprechend neun Sätze von XYZ- Farbkoordinaten:
Aus der Messung mittels des multispektralen Bildsensors 7 ergeben sich für jeden der neun Messflecken neun Bildwerte entsprechend den neun Spektralkanälen des Bildsensors 7:
Die 9x3-Matrix der XYZ-Farbkoordinaten ist über die gesuchte Transformationsvorschrift (nachfolgend als Matrix CCM bezeichnet) mit der 9x9- Matrix der Bildwerte verknüpft:
XYZ = CCM * C
Die Transformationsvorschrift CCM kann durch numerisches Lösen des inversen Problems mittels des Computers in Echtzeit ermittelt werden (beispielsweise auf Basis der bekannten Methode der Minimierung der Abweichungsquadrate oder unter Verwendung anderer bekannter Algorithmen). Bei einer ausreichenden Anzahl von Messflecken (hier mindestens neun, entsprechend der Anzahl der Spektralkanäle des Bildsensors 7) kann sichergestellt werden, dass genügend Daten für die Lösung des inversen Problems zum Auffinden der korrekten Transformationsvorschrift CCM vorliegen. Diese Vorgehensweise bei der
Transformation der Bildwerte des Bildsensors 7 in CIE-Farbkoordinaten unter Berücksichtigung der für die Messflecken direkt kolorimetrisch erfassten Farbkoordinaten ist besonders vorteilhaft, weil sie ohne vorab durchzuführende Kalibrierung auskommt und zudem automatisch inhomogene Emissionseigenschaften des vermessenen Matrixdisplays 2 berücksichtigt.
Es ist darauf hinzuweisen, dass die anhand der Figur 6 beschriebene Vorgehensweise nicht auf den Einsatz eines multispektralen Bildsensors 7 angewiesen ist. Dieselbe Methode kann analog z.B. auch mit einem RGB- Bildsensor 7 oder einem bildgebenden Filterrad-Kolorimeter mit monochromem Bildsensor angewendet werden, der bzw. das nur drei Spektralkanäle aufweist. Es genügt dann entsprechend ein Minimum von drei Messflecken, um die Transformationsvorschrift CCM zu ermitteln. Eine Anzahl von Messflecken, die sogar größer ist als die Anzahl von Spektralkanälen kann vorteilhaft sein, um die Transformationsvorschrift CC/W mit größerer Genauigkeit numerisch zu ermitteln. Das zu lösende inverse Problem ist dann überbestimmt.
Es ist auch der Einsatz z.B. eines RGB-Bildsensors 7 in Kombination mit der Anordnung der Messflecken gemäß Abbildung 30 in Figur 6 denkbar. Dabei ist die Anzahl der Messflecken deutlich größer als die Zahl der Spektralkanäle des Bildsensors 7. In diesem Fall kann für unterschiedliche räumliche Bereiche des Testobjekts, d.h. des Matrixdisplays 2, jeweils eine Transformationsvorschrift ohne vorherige Kalibrierung abgeleitet werden. Aus den Messflecken bei den Abständen Ri, R2, R3 kann z.B. eine Transformationsvorschrift CCM1 abgeleitet werden, aus den Messflecken bei den Abständen R2, R3, R4 eine Transformationsvorschrift CCM2, aus den Messflecken bei den Abständen R3, R4, Rs eine Transformationsvorschrift CCM3 usw.. Diese Transformationsvorschriften werden dann jeweils zur Transformation der RGB-Bildwerte in Farbkoordinaten für die Bildpunkte in den verschiedenen Bereichen, d.h. hier in den durch die entsprechenden Abstände Ri bis R9 vom Zentrum bestimmten ringförmigen Bereichen, angewendet.
Claims
1. Bildgebendes System, das zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt (2) emittiert wird, ausgelegt ist, umfassend: eine Aufteilungsoptik (4), dazu eingerichtet, das von dem Testobjekt (2) einfallende Licht in zumindest einen ersten Teil (5) und zumindest einen zweiten Teil (6) aufzuteilen, wobei der zweite Teil (6) Licht umfasst, das von zwei oder mehr Messflecken (13, 14) oder unter zwei oder mehr Messwinkeln von dem Testobjekt (2) emittiert wird, einen Bildsensor (7), dazu eingerichtet, den ersten Teil (6) des Lichts zu empfangen und ein zweidimensionales digitales Bild der Lichtemission des Testobjekts (2) zu erzeugen, wenigstens eine Messeinheit (15, 16, 17, 19), dazu eingerichtet, den zweiten Teil (6) des Lichts zu empfangen und radiometrische und/oder photometrische Messgrößen, insbesondere Farbkoordinaten des emittierten Lichts für jeden Messfleck (13, 14) bzw. jeden Messwinkel zu erfassen, und eine Recheneinheit, dazu eingerichtet, die Bildwerte wenigstens einiger, vorzugsweise aller Bildpunkte des zweidimensionalen digitalen Bildes zu transformieren, insbesondere in Farbkoordinaten, wobei die Transformation die für die Messflecken (13, 14) bzw. Messwinkel erfassten radiometrischen und/oder photometrischen Messgrößen berücksichtigt,
wobei die Messeinheit (15, 16, 17, 19) ein bildgebendes Spektrometer umfasst und jeder Messfleck (13, 14) bzw. Messwinkel einem anderen Bildbereich des bildgebenden Spektrometers zugeordnet ist, so dass das bildgebende Spektrometer dazu in der Lage ist, für jeden Messfleck (13, 14) bzw. Messwinkel separat die Messgrößen zu ermitteln, oder zwei oder mehr Messeinheiten (15, 16, 17, 19) vorgesehen sind, wobei jedem Messfleck (13, 14) bzw. Messwinkel eine Messeinheit (15, 16, 17, 19) zugeordnet ist.
2. Bildgebendes System nach Anspruch 1 , wobei die Messein- heit/Messeinheiten (15, 16, 17, 19) ein Kolorimeter ist/Kolorimeter sind.
3. Bildgebendes System nach Anspruch 1 oder 2, wobei das bildgebende Spektrometer einen Eintrittsspalt aufweist, wobei zwei oder mehr optische Fasern (11 , 12) vorgesehen sind, von denen jede einem anderen Messfleck (13, 14) bzw. Messwinkel zugeordnet ist und das von dem jeweiligen Messflecken (13, 14) bzw. unter dem jeweiligen Messwinkel emittierte Licht zu einer anderen Position auf dem Eintrittsspalt führt.
4. Bildgebendes System nach einem der Ansprüche 1 bis 3, wobei das bildgebende Spektrometer ein dispersives optisches Element (18), vorzugsweise ein Gitter oder ein Prisma, und einen weiteren Bildsensor (21 ) umfasst.
5. Bildgebendes System nach Anspruch 4, wobei eine im Strahlverlauf des zweiten Teils (6) des einfallenden Lichts angeordnete, die Messflecken (13, 14) bzw. Messwinkel definierende Lochmaske (18) vorgesehen ist.
6. Bildgebendes System nach einem der Ansprüche 1 bis 5, wobei die Aufteilungsoptik (4) einen Strahlteiler oder einen beweglichen Spiegel (26) umfasst.
7. Bildgebendes System nach einem der Ansprüche 1 bis 6, wobei der Bildsensor (7) mehr als drei, vorzugsweise mindestens fünf, besonders bevorzugt mindestens neun Spektralkanäle aufweist.
8. Bildgebendes System nach Anspruch 7, wobei die Anzahl der Messflecken (13, 14) bzw. Messwinkel mindestens gleich der Anzahl der Spektralkanäle des Bildsensors (7) ist.
9. Bildgebendes System nach einem der Ansprüche 1 bis 8, wobei das System eine konoskopische Optik umfasst, die dazu ausgelegt ist, das von einem Bereich auf dem Testobjekt (2) unter verschiedenen Winkeln emittierte Licht auf den Bildsensor (7) in der Weise abzubilden, dass jedem Bildpunkt des zweidimensionalen digitalen Bildes ein Emissionswinkel zugeordnet ist.
10. Verfahren zur zweidimensionalen, räumlich aufgelösten Messung von radiometrischen und/oder photometrischen Messgrößen, insbesondere der Farbkoordinaten von Licht, das von einem Testobjekt (2) emittiert wird, unter Verwendung eines bildgebenden Systems (1 ) nach einem der Ansprüche 1 bis 9, umfassend die Schritte:
Richten zumindest eines ersten Teils (5) des Lichts auf den Bildsensor (7), der ein zweidimensionales digitales Bild der Lichtemission des Testobjekts (2) erzeugt,
Richten zumindest eines zweiten Teils (6) des Lichts, das von zwei oder mehr Messflecken (13, 14) oder unter zwei oder mehr Messwinkeln von dem Testobjekt (2) emittiert wird, auf die Messeinheit/Messeinheiten (15, 16, 17, 19) und Erfassen von radiometrischen und/oder photometrischen Messgrößen, insbesondere Farbkoordinaten des emittierten Lichts für jeden Messfleck (13, 14) bzw. jeden Messwinkel, und
Transformieren der Bildwerte wenigstens einiger, vorzugsweise aller Bildpunkte des zweidimensionalen digitalen Bildes, insbesondere in Farbkoordinaten, wobei die Transformation die für die Messflecken (13, 14) bzw. Messwinkel erfassten Messgrößen berücksichtigt.
11. Verfahren nach Anspruch 10, wobei die Transformation der Bildwerte in Farbkoordinaten in zwei Schritten erfolgt:
21 i) Transformieren der Bildwerte in Farbkoordinaten auf Basis einer vorab durch Kalibrierung ermittelten Transformationsvorschrift, ii) Korrektur der im Schritt i) erhaltenen Farbkoordinaten, wobei die Korrektur aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten mit den für die Messflecken (13, 14) bzw. Messwinkel erfassten Farbkoordinaten abgeleitet wird.
12. Verfahren nach Anspruch 11 , wobei die Korrektur ein Unterteilen des zweidimensionalen digitalen Bildes (28) in räumlich separate Zonen umfasst, wobei jeder Zone ein anderer Messfleck (13, 14) bzw. ein anderer Messwinkel zugeordnet ist und wobei die Korrektur für jede Zone aus einem Vergleich der im Schritt i) erhaltenen Farbkoordinaten innerhalb dieser Zone mit den für den dieser Zone zugeordneten Messfleck (13, 14) bzw. Messwinkel erfassten Farbkoordinaten abgeleitet wird.
13. Verfahren nach Anspruch 11 , wobei die Korrektur eine Interpolation entsprechend den Positionen der Messflecken (13, 14) bzw. Messwinkel innerhalb des zweidimensionalen digitalen Bildes anwendet.
14. Verfahren nach einem der Ansprüche 11 bis 13, wobei die Transformation der Bildwerte auf Basis einer Transformationsvorschrift erfolgt, die aus den Bildwerten des von dem Testobjekt (2) erfassten digitalen Bildes und den von demselben Testobjekt (2) für die Messflecken (13, 14) bzw. Messwinkel erfassten Farbkoordinaten abgeleitet wird.
15. Verfahren nach Anspruch 10, wobei die Transformation der Bildwerte auf Basis einer Transformationsvorschrift erfolgt, die aus den Bildwerten des von dem Testobjekt (2) erfassten digitalen Bildes und den von demselben Testobjekt (2) für die Messflecken (13, 14) bzw. Messwinkel erfassten Messgrößen abgeleitet wird, wobei die Transformationsvorschrift ohne vorherige Kalibrierung abgeleitet wird.
22
16. Verfahren nach einem der Ansprüche 10 bis 15, wobei das zweidimensionale digitale Bild für jeden Bildpunkt mindestens drei, vorzugsweise mindestens fünf, besonders bevorzugt mindestens neun Bildwerte umfasst.
17. Verfahren nach einem der Ansprüche 10 bis 16, wobei sich die Messflecken (13, 14) auf dem Testobjekt (2) in unterschiedlichem radialem Abstand von der Aufnahmeachse des Bildsensors (7) befinden.
18. Verfahren nach einem der Ansprüche 10 bis 17, wobei das Erfassen der Messgrößen für die zwei oder mehr Messflecken (13, 14) bzw. Messwinkel gleichzeitig erfolgt.
19. Verfahren nach einem der Ansprüche 11 bis 14, wobei sich die Farbsysteme der Farbkoordinaten einerseits und der Bildwerte des von dem Bildsensor (7) erzeugten zweidimensionalen digitalen Bildes andererseits voneinander unterscheiden.
20. Verfahren nach Anspruch 19, wobei das Farbsystem der Farbkoordinaten das CIE-Normvalenzsystem ist.
21. Verfahren nach Anspruch 19 oder 20, wobei das Farbsystem der Bildwerte des zweidimensionalen digitalen Bildes das RGB-Farbsystem oder ein anderes Farbsystem entsprechend drei oder mehr Spektralkanälen des Bildsensors ist.
22. Verfahren nach einem der Ansprüche 10 bis 21 , wobei die
Messflecken (13, 14) voneinander beabstandet innerhalb des
Aufnahmebereiches des Bildsensors (7) auf dem Testobjekt (2) positioniert sind.
23. Verfahren nach einem der Ansprüche 10 bis 22, wobei die Anzahl der Messflecken (13, 14) bzw. Messwinkel wenigstens drei, vorzugsweise wenigstens fünf, besonders bevorzugt wenigstens neun beträgt, wobei die Anzahl der Messflecken (13, 14) wenigstens gleich der Anzahl von Spektralkanälen des Bildsensors (7) ist.
Applications Claiming Priority (2)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| DE102021134569.3A DE102021134569A1 (de) | 2021-12-23 | 2021-12-23 | Kolorimetrie-Verfahren und -System |
| PCT/EP2022/087564 WO2023118478A2 (de) | 2021-12-23 | 2022-12-22 | Kolorimetrie-verfahren und -system |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| EP4453522A2 true EP4453522A2 (de) | 2024-10-30 |
Family
ID=84981146
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| EP22843783.6A Pending EP4453522A2 (de) | 2021-12-23 | 2022-12-22 | Kolorimetrie-verfahren und -system |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US20240344975A1 (de) |
| EP (1) | EP4453522A2 (de) |
| KR (1) | KR20240127435A (de) |
| CN (1) | CN118715427A (de) |
| DE (1) | DE102021134569A1 (de) |
| WO (1) | WO2023118478A2 (de) |
Families Citing this family (2)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| EP4603810A1 (de) * | 2024-02-14 | 2025-08-20 | Lisa Dräxlmaier GmbH | Verfahren zum bestimmen einer abbildung eines ersten farbraums einer prüfkamera auf einen zweiten farbraum eines spektrometers |
| CN119779486B (zh) * | 2025-03-10 | 2025-12-09 | 上海唯视锐光电技术有限公司 | 一种成像色度测量方法及基于该测量方法的测量装置 |
Family Cites Families (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3246021B2 (ja) | 1993-01-06 | 2002-01-15 | ミノルタ株式会社 | 二次元測色計 |
| US6051835A (en) * | 1998-01-07 | 2000-04-18 | Bio-Rad Laboratories, Inc. | Spectral imaging apparatus and methodology |
| JP2007158700A (ja) | 2005-12-05 | 2007-06-21 | National Univ Corp Shizuoka Univ | 色忠実カメラ |
| CN101799328B (zh) * | 2009-02-10 | 2011-11-09 | 致茂电子股份有限公司 | 建构光源测量对照表的方法、光源测量方法及系统 |
| JP2010271246A (ja) | 2009-05-22 | 2010-12-02 | Sony Corp | 色彩輝度測定装置及び色彩輝度測定方法 |
| US20170010153A1 (en) * | 2014-01-30 | 2017-01-12 | Horiba Instruments Incorporated | Spectroscopic mapping system and method |
| DE102014106974A1 (de) * | 2014-05-16 | 2015-11-19 | Cubert GmbH | Räumlich und spektral auflösende Hyperspektralkamera und Verfahren |
| CN106461465B (zh) * | 2014-05-29 | 2018-05-25 | 柯尼卡美能达株式会社 | 光学特性测定装置以及光学特性测定方法 |
| EP3054273B8 (de) | 2015-02-09 | 2019-09-11 | Instrument Systems Optische Messtechnik GmbH | Kolorimetriesystem zur Anzeigeprüfung |
| US11627259B2 (en) * | 2019-10-24 | 2023-04-11 | Sony Corporation | Device, method and computer program |
| US12271004B2 (en) * | 2021-07-14 | 2025-04-08 | Westboro Photonics Inc. | Imager and spot sampler with translatable stage |
| US11624654B1 (en) * | 2022-11-15 | 2023-04-11 | ML Optic Corp. | Compact modulation transfer function colorimeter |
-
2021
- 2021-12-23 DE DE102021134569.3A patent/DE102021134569A1/de active Pending
-
2022
- 2022-12-22 WO PCT/EP2022/087564 patent/WO2023118478A2/de not_active Ceased
- 2022-12-22 EP EP22843783.6A patent/EP4453522A2/de active Pending
- 2022-12-22 KR KR1020247024930A patent/KR20240127435A/ko active Pending
- 2022-12-22 CN CN202280092134.3A patent/CN118715427A/zh active Pending
-
2024
- 2024-06-24 US US18/751,514 patent/US20240344975A1/en active Pending
Also Published As
| Publication number | Publication date |
|---|---|
| KR20240127435A (ko) | 2024-08-22 |
| US20240344975A1 (en) | 2024-10-17 |
| DE102021134569A1 (de) | 2023-06-29 |
| WO2023118478A3 (de) | 2023-11-23 |
| CN118715427A (zh) | 2024-09-27 |
| WO2023118478A2 (de) | 2023-06-29 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| DE112013005127T5 (de) | Bildgebendes Hochpräzisions-Kolorimeter durch Closed-Loop-Kalibrierung mit speziell entworfenen Mustern, gestützt durch einen Spektrographen | |
| EP2930494B1 (de) | Handmessgerät zur erfassung des visuellen eindrucks eines messobjekts | |
| EP2270451B1 (de) | Farbmessgerät | |
| DE69329131T2 (de) | Dreidimensionaler automatischer Gonio-Spektrophotometer | |
| EP2277304B1 (de) | Verfahren und vorrichtung zur originalgetreuen wiedergabe von farben auf bildschirmen | |
| DE69413277T2 (de) | Verbrennungsauswertungsvorrichtung zum Auswerten eines Verbrennungszustandes von Flammen | |
| EP2505974B1 (de) | Farbmessgerätkalibrierung | |
| EP1775565B1 (de) | Verfahren zur Farbmessung von gedruckten Proben mit Aufhellern | |
| EP3184990B1 (de) | Sparkle-messung | |
| EP2409125B1 (de) | Verfahren und vorrichtung zur durchführung eines optischen vergleiches zwischen zumindest zwei mustern, vorzugsweise durch vergleich von auswählbaren ausschnitten | |
| WO2023118478A2 (de) | Kolorimetrie-verfahren und -system | |
| EP3139147B1 (de) | Vorrichtung und verfahren zur messung einer wellenlängenabhängigen optischen kenngrösse eines optischen systems | |
| EP3186673B1 (de) | Verfahren zum korrigieren einer farbwiedergabe eines digitalen mikroskops sowie digitales mikroskop | |
| DE102022132453A1 (de) | Vorrichtung und Verfahren zum Bestimmen einer Abbildungsqualität zumindest einer Abbildung für einen Prüfling | |
| DE102018108809B4 (de) | Kamerasystem | |
| WO2023046769A1 (de) | Inspektionssystem und verfahren zur fehleranalyse | |
| WO2025172198A1 (de) | Verfahren zum bestimmen einer abbildung eines ersten farbraums einer prüfkamera auf einen zweiten farbraum eines spektrometers | |
| DE19950176B4 (de) | Verfahren und Einrichtung zum Bestimmen der spektralen Zusammensetzung und daraus ableitbarer farbmetrischer Kenngrößen von selbststrahlenden oder reflektivstrahlenden Objekten | |
| DE4439533C2 (de) | Vorrichtung und Verfahren zur farbmetrischen Erfassung von Farbkontrollfeldern bei der Farbkalibrierung der ausgegebenen Farben von elektronischen Bildverarbeitungssystemen | |
| DE102021124507B4 (de) | Inspektionssystem und Verfahren zur Fehleranalyse | |
| WO2024120821A1 (de) | Verfahren zur fehleranalyse und inspektionssystem | |
| DE102022132807A1 (de) | Verfahren und Vorrichtung zum Inspizieren von lackierten Oberflächen mit Effektpigmenten | |
| EP4682487A1 (de) | Farbmesssystem und verfahren für ortsaufgelöste spektrale farbmessungen einer strukturierten und bedruckten oberfläche | |
| DE102021112658A1 (de) | VERFAHREN UND VORRICHTUNG ZUM GEWINNEN EINES WEIßABGEGLICHENEN BILDS EINER PROBE | |
| WO2021110671A1 (de) | System zur vermessung von messobjekten |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: UNKNOWN |
|
| STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: THE INTERNATIONAL PUBLICATION HAS BEEN MADE |
|
| PUAI | Public reference made under article 153(3) epc to a published international application that has entered the european phase |
Free format text: ORIGINAL CODE: 0009012 |
|
| STAA | Information on the status of an ep patent application or granted ep patent |
Free format text: STATUS: REQUEST FOR EXAMINATION WAS MADE |
|
| 17P | Request for examination filed |
Effective date: 20240723 |
|
| AK | Designated contracting states |
Kind code of ref document: A2 Designated state(s): AL AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC ME MK MT NL NO PL PT RO RS SE SI SK SM TR |
|
| DAV | Request for validation of the european patent (deleted) | ||
| DAX | Request for extension of the european patent (deleted) |