WO2004017034A1 - Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor - Google Patents

Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor Download PDF

Info

Publication number
WO2004017034A1
WO2004017034A1 PCT/DE2003/002146 DE0302146W WO2004017034A1 WO 2004017034 A1 WO2004017034 A1 WO 2004017034A1 DE 0302146 W DE0302146 W DE 0302146W WO 2004017034 A1 WO2004017034 A1 WO 2004017034A1
Authority
WO
WIPO (PCT)
Prior art keywords
color
color channel
image sensor
counter
signal
Prior art date
Application number
PCT/DE2003/002146
Other languages
English (en)
French (fr)
Inventor
Volker Lohweg
Harald Heinrich Willeke
Original Assignee
Koenig & Bauer Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=30469124&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=WO2004017034(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koenig & Bauer Aktiengesellschaft filed Critical Koenig & Bauer Aktiengesellschaft
Priority to AT03787613T priority Critical patent/ATE511632T1/de
Priority to US10/521,762 priority patent/US7609878B2/en
Priority to EP03787613A priority patent/EP1525442B1/de
Priority to AU2003250762A priority patent/AU2003250762A1/en
Publication of WO2004017034A1 publication Critical patent/WO2004017034A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/462Computing operations in or between colour spaces; Colour management systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/465Measurement of colour; Colour measuring devices, e.g. colorimeters taking into account the colour perception of the eye; using tristimulus detection

Definitions

  • the invention relates to methods for analyzing color deviations of images with an image sensor according to the preamble of claim 1 or 2.
  • the trichromatic model most commonly used in technology to describe additive color images is the RGB model.
  • the color space is described by the three primary colors red, green and blue.
  • a particular disadvantage of this model is that the description made by the RGB model does not correspond to the sensation of the human eye, since in particular the behavior of human perception, that is to say the perception by the sensory organs, is not taken into account.
  • DE 44 19 395 A1 discloses a method for analyzing color images by means of an image sensor, the image signals of which are analyzed pixel by pixel. The image signals are separated according to color and brightness.
  • a method for classifying color images by means of fuzzy logic is known from DE 198 38806 A1.
  • the invention has for its object to provide methods for analyzing color deviations of images with an image sensor.
  • the object is achieved by the features of claim 1 or 2.
  • the human eye there are three types of cones that absorb in different spectral ranges.
  • the maximum absorption of the S-cone type is in the blue range at 420nm
  • the M-cone type absorbs at most in the green spectral range at 534nm
  • the L-cone type has its absorption maximum at 564nm in the yellow / red spectral range.
  • Three-pin vision is called trichomatic vision.
  • the individual color impressions are triggered by different excitation strengths of the individual cone types.
  • the same excitement of all cones leads to the impression of the color white.
  • color sensation phenomena such as color antagonism and color constancy cannot be explained.
  • Color antagonism means that certain colors can never be seen in transitions, so that no color transition between these colors is possible. Colors that show the color antagonism are called counter or complementary colors. The color pairs red / green and blue / yellow and black / white are worth mentioning here.
  • the color constancy compensates for the different spectral distribution of light, which depends, for example, on weather or daylight conditions.
  • the counter-color model assumes that the cones are arranged in receptive fields, namely in blue / yellow fields and red / green fields.
  • Receptive fields are to be understood here as neurons and the way in which the light signals coming from the cones are further processed by the neurons.
  • Two types of receptive fields are essentially responsible for color vision. The first receptive field gets its input from the L and M cones, the second receptive field from the S cones together with differently weighted signals of the L and M cones. It is believed that at the level of neurons or receptive fields a subtractive one Color mixing of the excitations of the cones is made.
  • the image signal received by the image sensor is analyzed pixel by pixel in a manner known per se.
  • the image signal is recorded by the image sensor in three separate color channels.
  • Each of the three color channels has a characteristic spectral sensitivity.
  • the two receptive fields, which represent the second stage of color processing in human vision, are simulated by correspondingly linking the image sensor signals of the three separate color channels.
  • the red / green field of human color perception represents the first counter-color channel in the technical model.
  • the output signal of the first counter-color channel is generated by linking the image sensor signal of a first color signal with the image sensor signal of a second color channel.
  • the link is made by means of a calculation rule which consists of at least one calculation rule.
  • the blue / yellow field is generated in the technical model by linking the image sensor signal of a third color channel with a combination of the image sensor signals of the first and the second color channel.
  • the blue / yellow field corresponds to the second counter-color channel.
  • the output signal of the second counter-color channel is generated by the link described above.
  • the link is made by means of a second calculation rule, which consists of at least one calculation rule. In order to evaluate the image content of the examined pixel, the output signals of the two counter-color channels are classified in the next step. This determines whether the image content of the examined pixel corresponds to a certain class, whereby a good / bad classification can be made.
  • the spectral range in which the three color channels of the method lie is of no essential importance for the principle of the invention, as long as they are mutually exclusive separate color channels.
  • a preferred embodiment of the invention is that the three color channels correspond to the primary colors of the RGB model, namely red, green and blue. This has the advantage that a widely used color model can be used.
  • each color channel In order to match the spectral sensitivity of each color channel to the spectral sensation of the corresponding cones of the retina of the human eye, it is useful if the spectral sensitivity of each color channel can be adapted to the spectral sensitivity of the cones.
  • the manner in which the two output signals of the counter-color channels are generated is of secondary importance for the principle of the invention.
  • One possibility is that a calculation rule of the first calculation rule a weighted difference formation of the image sensor signal of the second color channel from the image sensor signal of the first color channel and / or a calculation rule of the second calculation rule a weighted difference formation of the weighted sum of the image sensor signals of the first and second color channel from the image sensor signal of the third color channel provides.
  • At least one signal in at least one counter-color channel is subjected to a transformation regulation, and in particular a non-linear transformation regulation, after and / or before the combination.
  • a transformation has the particular advantage that the digital character of electronically generated recordings can be taken into account. It is also possible through transformation rules to transform a signal from the color space into a space in which the excitation of the cones can be described.
  • the signals in both counter-color channels are subjected to a transformation. Since the receptive fields in human vision are characterized by a low-pass behavior, it makes sense if at least one signal in at least one counter-color channel is filtered using a low-pass filter. According to a particularly preferred embodiment, the output signal of each counter-color channel is filtered using a low-pass filter.
  • the method has a learning mode and an inspection mode.
  • the learning mode at least one reference image is analyzed pixel by pixel and the output signals of the two counter-color channels generated by the reference image are stored in a reference data memory.
  • the output signals of each counter color channel are then stored pixel by pixel in the reference data memory.
  • the subsequent inspection mode the output signals of the corresponding pixel generated by a test image are then compared with the corresponding value of the reference data memory and a classification decision is made.
  • the values stored in the reference data memory are formed by analyzing several reference data sets, so that an allowable tolerance window is defined for each value in the reference data memory output signal value of a counter color channel generated by the image inspection can fluctuate.
  • the setpoint of the output signal of a counter-color channel can be determined, for example, by arithmetic averaging of the individual values that result from the reference data sets.
  • the tolerance window can be generated, for example, by the minimum and maximum values or by the standard deviation of the reference images examined Output signals of the counter color channels of each pixel can be set.
  • Fig. 1 shows a schematic representation of the method for analyzing color deviations from
  • Fig. 2 is a flowchart of the learning and inspection mode.
  • the image signal is recorded by an image sensor in three color channels 01; 02; 03.
  • Each of the color channels 01; 02; 03 has an adjustable spectral sensitivity. This has the advantage that each color channel 01; 02; 03 can be adapted in its characteristics to the conditions of the present problem. For example, it is possible to adjust the spectral sensitivity of a color channel 01; 02; 03 to adapt to the spectral sensitivity of the respective cone of the retina of the human eye.
  • the spectral content of an image is analyzed pixel by pixel.
  • each image sensor signal in the counter color channel 07; 08 undergoes a non-linear transformation 09. This takes into account the digital character of the electronically generated recordings.
  • the generation of the output signals 12; 13 of the counter-color channels 07; 08 is analogous to the generation of the signals of the receptive fields in the human retina.
  • the image sensor signals of the red color channel 01 and the green color channel 02 are linked to one another by means of the first calculation rule 04.
  • the image sensor signal of the blue color channel 03 is linked to the minimum 14 of the image sensor signals of the red color channel 01 and the green color channel 02 by means of the calculation rule 06.
  • the receptive fields of the human retina are characterized by a low-pass behavior. Accordingly, in the present exemplary embodiment, the signals obtained by linking are subjected to low-pass filtering 16 using a Gauss low-pass filter.
  • the learning mode 17 has the goal of the pixel-by-pixel generation of reference data values 19, which in the subsequent inspection mode 18 with the output signals 12; 13 of the counter-color channels 07; 08 of the corresponding pixels are compared.
  • the image contents of a reference image 21 or of a plurality of reference images 21 are analyzed in that the image contents of each pixel in three color channels 01; 02; 03 are recorded and a subsequent perceptual adaptation of the image signals of each color channel 01; 02; 03 is carried out and subsequently further processing of the image sensor signals is carried out using the counter-color method described above.
  • the output signals 12; 13 of the counter-color channels 07; 08 are then stored in a reference data store saved.
  • a reference data store saved.
  • the fluctuation tolerance can be determined either by the minimum / maximum values or the standard deviation from the data obtained from the image contents of the reference images 21 of each pixel ,
  • a pixel-by-pixel comparison of the output values 12, 13 of the counter-color channels 07; 08 of an inspection image 22 with the reference data values 19 ', 19 " from the reference data memory can be made using a linear or non-linear classifier 23, in particular using threshold value classifiers, Euclidean - distance classifiers, Bayes - classifiers, fuzzy classifiers or artificial neural networks, A good / bad decision is then made.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor, wobei das vom Bildsensor empfangene Bildsignal pixelweise analysiert wird,gekennzeichnet durch folgende Verfahrensschritte: aus Farbkanälen wird für jeden Farbkanal ein Bildsensorsignal erzeugt; Verknüpfung des Bildsensorsignals eines ersten Farbkanals mit dem Bildsensorsignal eines zweiten Farbkanals mittels einer ersten Berechnungsvorschrift wodurch ein Ausgangssignal eines ersten Gegenfarbkanals generiert wird, sowie Verknüpfung des Bildsensorsignals eines dritten Farbkanals mit den Bildsensorsignalen des ersten und des zweiten Farbkanals mittels einer zweiten Berechnungsvorschrift wodurch ein Ausgangssignal eines zweiten Gegenfarbkanals generiert wird; Klassifikation der Ausgangssignale der Gegenfarbkanäle.

Description

Beschreibung
Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor
Die Erfindung betrifft Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor gemäß dem Oberbegriff des Anspruchs 1 oder 2.
Das in der Technik meist verwendete trichromatische Modell zur Beschreibung von additiven Farbbildern ist das RGB-Modell. Im RGB-Modell wird der Farbraum durch die drei Grundfarben Rot, Grün und Blau beschrieben. Nachteilig an diesem Modell ist insbesondere, dass die durch das RGB-Modell vorgenommene Beschreibung nicht dem Empfinden des menschlichen Auges entspricht, da insbesondere das Verhalten der menschlichen Perzeption, also die Wahrnehmung durch die Sinnesorgane, keine Berücksichtigung findet.
Die DE 44 19 395 A1 offenbart ein Verfahren zur Analyse von Farbbildern mittels Bildsensor, dessen Bildsignale pixelweise analysiert werden. Dabei werden die Bildsignale nach Buntheit und Helligkeit getrennt.
Die DE 69224 812 T2 beschreibt ein Verfahren zur Bildverarbeitung bei dem RGB- Signale in Farbsignalwerte L, C1, C2 nichtlinear transformiert werden.
Durch die DE 198 38806 A1 ist ein Verfahren zur Klassifikation von Farbbildern mittels Fuzzy-Logik bekannt.
Der Erfindung liegt die Aufgabe zugrunde, Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor zu schaffen.
Die Aufgabe wird erfindungsgemäß durch die Merkmale des Anspruchs 1 oder 2 gelöst. Im menschlichen Auge existieren drei Zapfentypen, die in unterschiedlichen Spektralbereichen absorbieren. Die maximale Absorption des S-Zapfentyps liegt im blauen Bereich und zwar bei 420nm, der M-Zapfentyp absorbiert maximal im grünen Spektralbereich und zwar bei 534nm und der L-Zapfentyp hat sein Absorptionsmaximum bei 564nm im Gelb/Roten Spektralbereich. Man nennt das Sehen mit drei Zapfentypen trichomatisches Sehen. Die einzelnen Farbeindrücke werden durch unterschiedliche Erregungsstärken der einzelnen Zapfensorten ausgelöst. Gleiche Erregung aller Zapfen führt zum Eindruck der Farbe weiß. Mit dem trichromatischen Sehmodell können aber Farbempfindungsphänomene wie beispielsweise der Farbantagonismus und die Farbkonstanz nicht erklärt werden.
Farbantagonismus bedeutet, dass bestimmte Farben nie in Übergängen gesehen werden können, dass also kein Farbübergang zwischen diesen Farben möglich ist. Farben die den Farbantagonismus zeigen nennt man Gegen- oder Komplementärfarben. Zu nennen sind hier die Farbpaare Rot/Grün und Blau/Gelb sowie Schwarz/Weiß.
Bei der Farbkonstanz wird die unterschiedliche spektrale Verteilung des Lichts, die beispielsweise abhängig von Wetter oder Tageslichtverhältnissen ist, ausgeglichen.
1920 entwickelte Hering die Gegenfarbentheorie um diese Farbempfindungsphänomene abweichend vom klassischen trichromatischen Farbmodell zu erklären. Das Gegenfarbmodell geht davon aus, dass die Zapfen in rezeptiven Feldern, nämlich in Blau/Gelb-Feldern und Rot/Grün-Feldern angeordnet sind. Unter rezeptiven Feldern sind hier Neuronen zu verstehen und die Art und Weise, wie die von den Zapfen kommenden Lichtsignale durch die Neuronen weiter verarbeitet werden. Für das Farbensehen sind im Wesentlichen zwei Arten von rezeptiven Feldern verantwortlich. Das erste rezeptive Feld bezieht seinen Input aus den L- und M-Zapfen, das zweite rezeptive Feld aus den S- Zapfen zusammen mit unterschiedlich gewichteten Signalen der L- und M-Zapfen. Man geht davon aus, dass in der Ebene der Neuronen oder rezeptiven Felder eine subtraktive Farbmischung der Erregungen der Zapfen vorgenommen wird.
Beim Verfahren zur Analyse von Farbabweichungen von Druckbildern wird in an sich bekannterWeise das vom Bildsensor empfangene Bildsignal pixelweise analysiert. Um die drei Zapfensorten des menschlichen Auges mit ihrer unterschiedlichen spektralen Empfindlichkeit nachzubilden, wird gemäß der Erfindung das Bildsignal durch den Bildsensor in drei voneinander getrennten Farbkanälen aufgenommen. Jeder der drei Farbkanäle besitzt eine charakteristische spektrale Empfindlichkeit. Die beiden rezeptiven Felder, welche die zweite Stufe der Farbverarbeitung beim menschlichen Sehen darstellen, werden durch entsprechende Verknüpfung der Bildsensorsignale der drei voneinander getrennten Farbkanäle simuliert. Das Rot/Grün-Feld der menschlichen Farbwahrnehmung stellt im technischen Modell den ersten Gegenfarbkanal dar. Das Ausgangssignal des ersten Gegenfarbkanals wird durch Verknüpfung des Bildsensorsignals eines ersten Farbsignals mit dem Bildsensorsignal eines zweiten Farbkanals generiert. Die Verknüpfung geschieht mittels einer Berechnungsvorschrift, welche aus zumindest einer Rechenregel besteht. Das Blau/Gelb-Feld wird im technischen Modell durch Verknüpfung des Bildsensorsignals eines dritten Farbkanals mit einer Kombination aus den Bildsensorsignalen des ersten und des zweiten Farbkanals erzeugt. Das Blau/Gelb-Feld entspricht im technischen Modell dem zweiten Gegenfarbkanal. Das Ausgangssignal des zweiten Gegenfarbkanals wird durch die vorgehend beschriebene Verknüpfung generiert. Die Verknüpfung geschieht mittels einer zweiten Berechnungsvorschrift, welche aus zumindest einer Rechenregel besteht. Um den Bildinhalt des untersuchten Pixel zu bewerten, findet im nächsten Schritt eine Klassifikation der Ausgangssignale der beiden Gegenfarbkanäle statt. Dadurch wird entschieden, ob der Bildinhalt des untersuchten Pixel einer bestimmten Klasse entspricht, wodurch eine gut/schlecht Klassifikation getroffen werden kann.
In welchem spektralen Bereich die drei Farbkanäle des Verfahrens liegen, ist für das Prinzip der Erfindung ohne wesentlichen Belang, solange es sich um voneinander getrennte Farbkanäle handelt. Eine bevorzugte Ausführungsform der Erfindung besteht darin, dass die drei Farbkanäle den Grundfarben des RGB-Modells, nämlich Rot, Grün und Blau entsprechen. Dies hat den Vorteil, dass auf ein weit verbreitetes Farbmodell zurückgegriffen werden kann.
Um die spektrale Empfindlichkeit jedes Farbkanals an das spektrale Empfinden der entsprechenden Zapfen der Retina des menschlichen Auges anzugleichen, ist es sinnvoll, wenn jeder Farbkanal in seiner spektralen Empfindlichkeit an die spektrale Empfindlichkeit der Zapfen angepasst werden kann.
In welcher Art und Weise die beiden Ausgangssignale der Gegenfarbkanäle generiert werden, ist für das Prinzip der Erfindung von untergeordneter Bedeutung. Eine Möglichkeit besteht darin, dass eine Rechenregel der ersten Berechnungsvorschrift eine gewichtete Differenzbildung des Bildsensorsignals des zweiten Farbkanals vom Bildsensorsignal des ersten Farbkanals und / oder eine Rechenregel der zweiten Berechnungsvorschrift eine gewichtete Differenzbildung der gewichteten Summe der Bildsensorsignale des ersten und zweiten Farbkanals vom Bildsensorsignal des dritten Farbkanals vorsieht.
Nach einem weiteren bevorzugten Ausführungsbeispiel der Erfindung wird zumindest ein Signal in zumindest einem Gegenfarbkanal nach und / oder vor der Verknüpfung einer Transformationsvorschrift, insbesondere einer nichtlinearen Transformationsvorschrift, unterzogen. Eine Transformation hat insbesondere den Vorteil, dass der digitale Charakter von elektronisch erzeugten Aufnahmen Berücksichtigung finden kann. Ebenfalls ist es durch Transformationsvorschriften möglich, ein Signal aus dem Farbraum in einen Raum zu transformieren, in welchem die Erregung der Zapfen beschrieben werden kann. In vielen Ausführungsbeispielen werden die Signale in beiden Gegenfarbkanälen einer Transformation unterzogen. Da die rezeptiven Felder beim menschlichen Sehen durch ein Tiefpassverhalten charakterisiert sind, ist es sinnvoll, wenn zumindest ein Signal in zumindest einem Gegenfarbkanal mittels eines Tiefpassfilters gefiltert wird. Nach einem besonders bevorzugten Ausführungsbeispiel wird das Ausgangssignal jedes Gegenfarbkanals mittels eines Tiefpassfilters gefiltert.
Nach einem besonders bevorzugten Ausführungsbeispiel weist das Verfahren einen Lernmodus und einen Inspektionsmodus auf. Während des Lernmodus wird zumindest ein Referenzbild pixelweise analysiert und die durch das Referenzbild erzeugten Ausgangssignale der beiden Gegenfarbkanäle in einem Referenzdatenspeicher gespeichert. Konkret bedeutet das, dass der Bildinhalt des Referenzbilds in drei Farbkanälen aufgezeichnet wird, die Bildsignale jedes Farbkanals empfindungsgemäß angepasst werden und anschließend entsprechend dem Gegenfarbmodell miteinander verknüpft werden. Die Ausgangssignale jedes Gegenfarbkanals werden dann pixelweise im Referenzdatenspeicher gespeichert. Im nachfolgenden Inspektionsmodus werden dann die durch ein Prüfbild erzeugten Ausgangssignale des entsprechenden Pixels mit den entsprechenden Wert des Referenzdatenspeichers verglichen und eine Klassifikationsentscheidung getroffen.
Um zulässige Schwankungen des Bildinhalts, wie auch Schwankungen der Bedingungen bei der Bildaufnahme zu berücksichtigen ist es sinnvoll, wenn die im Referenzdatenspeicher gespeicherten Werte durch die Analyse mehrerer Referenzdatensätze gebildet werden, so dass für jeden Wert im Referenzdatenspeicher ein zulässiges Toleranzfenster festgelegt wird innerhalb dessen ein bei der Bildinspektion erzeugter Ausgangssignalwert eines Gegenfarbkanals schwanken kann. Der Sollwert des Ausgangssignals eines Gegenfarbkanals kann hierbei beispielsweise durch arithmetische Mittelwertbildung der Einzelwerte die sich aus den Referenzdatensätzen ergeben ermittelt werden. Das Toleranzfenster kann beispielsweise durch die Minimal- und Maximalwerte oder durch die Standardabweichung der durch die untersuchten Referenzbilder erzeugten Ausgangssignale der Gegenfarbkanäle jedes Pixels festgelegt werden.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben.
Es zeigen:
Fig. 1 schematische Darstellung des Verfahrens zur Analyse von Farbabweichungen von
Druckbildern mit einem Gegenfarbmodell; Fig. 2 einen Ablaufplan des Lern- und Inspektionsmodus.
Wie in der Fig. 1 zu erkennen ist, erfolgt die Aufnahme des Bildsignals durch einen Bildsensor in drei voneinander getrennten Farbkanälen 01; 02; 03. Im vorliegenden Ausführungsbeispiels handelt es sich bei den Farbkanälen 01; 02; 03 um die Farbkanäle Rot 01 , Grün 02 und Blau 03. Jeder der Farbkanäle 01 ; 02; 03 weist eine einstellbare spektrale Empfindlichkeit auf. Dies hat den Vorteil, dass jeder Farbkanal 01 ; 02; 03 in seiner Charakteristik an die Bedingungen der vorliegenden Problemstellung angeglichen werden kann. So ist es beispielsweise möglich, die spektrale Empfindlichkeit eines Farbkanals 01; 02; 03 an die spektrale Empfindlichkeit des jeweiligen Zapfens der Retina des menschlichen Auges anzupassen.
Beim erfindungsgemäßem Verfahren wird der Spektralgehalt eines Bildes pixelweise analysiert. Zur Modellierung der beiden rezeptiven Felder Rot/Grün und Blau/Gelb des menschlichen Auges werden im erfindungsgemäßen Verfahren die Bildsensorsignale der Farbkanäle 01 ; 02; 03 miteinander verknüpft. Vor der eigentlichen Verknüpfung mit den Berechnungsvorschriften 04; 06 wird jedes Bildsensorsignal im Gegenfarbkanal 07; 08 einer nicht linearen Transformation 09 unterzogen. Dadurch wird dem digitalen Charakter der elektronisch erzeugten Aufnahmen Rechnung getragen. Anschließend wird jedes Signal mit einem Koeffizienten K (i=1...4) 11 gewichtet. Dadurch wird erreicht, dass eine reine Intensitätsänderung des Ausgangsbilds keinen Beitrag zu einem der Ausgangssignale 12; 13 der Gegenfarbkanäle 07; 08 liefert. Die Generierung der Ausgangssignale 12; 13 der Gegenfarbkanäle 07; 08 erfolgt analog der Generierung der Signale der rezeptiven Felder bei der menschlichen Retina. Das heißt, es wird eine Verknüpfung mittels der Berechnungsvorschriften 04; 06 der Farbkanäle 01 ; 02; 03 entsprechend der Verknüpfung der Zapfen der menschlichen Retina durchgeführt. Zur Schaffung des Ausgangssignals 12 des Rot/Grünen-Gegenfarbkanals 07 werden die Bildsensorsignale des roten Farbkanals 01 und des grünen Farbkanals 02 miteinander mittels der ersten Berechnungsvorschrift 04 verknüpft. Zur Generierung des Ausgangssignals 13 des Blau/Gelben-Gegenfarbkanals 08 wird im vorliegenden Ausführungsbeispiel das Bildsensorsignal des blauen Farbkanals 03 mit dem Minimum 14 der Bildsensorsignale des roten Farbkanals 01 und des grünen Farbkanals 02 mittels der Berechnungsvorschrift 06 verknüpft. Die rezeptiven Felder der menschlichen Retina sind durch ein Tiefpassverhalten charakterisiert. Dementsprechend werden im vorliegenden Ausführungsbeispiel die durch Verknüpfung erhaltenen Signale einer Tiefpassfilterung 16 mit einem Gauss-Tiefpassfilter unterzogen.
Die Fig. 2 zeigt die eigentliche Inspektion der Druckprodukte, welche zweistufig erfolgt, nämlich in einem Lernmodus 17 und einem nachgeschalteten Inspektionsmodus 18. Der Lernmodus 17 hat das Ziel der pixelweisen Generation von Referenzdatenwerten 19, die im nachfolgenden Inspektionsmodus 18 mit den Ausgangssignalen 12; 13 der Gegenfarbkanäle 07; 08 der entsprechenden Pixel verglichen werden. Beim Lernmodus 17 werden die Bildinhalte von einem Referenzbild 21 oder von mehreren Referenzbildern 21 dadurch analysiert, dass die Bildinhalte jedes Pixels in drei Farbkanälen 01; 02; 03 aufgenommen werden und eine anschließende wahrnehmungsgemäße Anpassung der Bildsignale jedes Farbkanals 01; 02; 03 vorgenommen wird und nachfolgend eine Weiterverarbeitung der Bildsensorsignale nach der oben beschriebenen Gegenfarbmethode durchgeführt wird. Die für jedes Pixel erhaltenen Ausgangssignale 12; 13 der Gegenfarbkanäle 07; 08 werden dann in einem Referenzdatenspeicher gespeichert. Um zulässige Schwankungen der Referenzbilder 21 mit zu berücksichtigen, ist es sinnvoll, wenn mehrere Referenzbilder 21 im Lernmodus 17 Berücksichtigung finden. Dadurch ist es möglich, dass die in Referenzspeicher gespeicherten Referenzdatenwerte 19', 19" jedes Pixels eine gewisse zulässige Schwankungstoleranz aufweisen. Die Schwankungstoleranz kann entweder durch die Minimal-/ Maximalwerte oder die Standardabweichung aus den erhaltenen Daten der Bildinhalte der Referenzbilder 21 jedes Pixels festgelegt werden.
Im Inspektionsmodus 18 findet dann ein pixelweiser Vergleich der Ausgangswerte 12, 13 der Gegenfarbkanäle 07; 08 eines Inspektionsbildes 22 mit den Referenzdatenwerten 19', 19" aus dem Referenzdatenspeicher statt. Der Vergleich kann mittels eines linearen oder nichtlinearen Klassifikators 23, insbesondere mittels Schwellwertklassifikatoren, Euklidische - Abstands - Klassifikatoren, Bayes - Klassifikatoren, Fuzzy-Klassifikatoren oder künstliche neuronale Netze, durchgeführt werden. Anschließend findet eine gut/ schlecht - Entscheidung statt.
Bezugszeichenliste
01 erster (roter) Farbkanal
02 zweiter (grüner) Farbkanal
03 dritter (blauer) Farbkanal
04 erste Berechnungsvorschrift 05
06 zweite Berechnungsvorschrift
07 erster (rot/grüner) Gegenfarbkanal; erster neuer Farbkanal
08 zweiter (blau/gelber) Gegenfarbkanal; zweiter neuer Farbkanal
09 nichtlineare Transformation 10
11 Koeffizienten K| (i=1...4)
12 Ausgangssignal d. ersten (rot/grünen) Gegenfarbkanals, Ausgangswert
13 Ausgangssignal d. zweiten (blau/gelben) Gegenfarbkanals, Ausgangswert
14 Minimum von rotem und grünen Farbkanal 15
16 Tiefpassfilter
17 Lernmodus
18 Inspektionsmodus
19 Referenzdatenwerte 20
21 Referenzbild
22 Inspektionsbild
23 Klassifikator, Klassifikatorsystem 19' Ausgangssignal, Referenzdatenwert 19" Ausgangssignal, Referenzdatenwert

Claims

Ansprüche
1. Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor, wobei das vom Bildsensor empfangene Bildsignal pixelweise analysiert wird, gekennzeichnet durch folgende Verfahrensschritte:
- aus Farbkanälen (01 ; 02; 03) wird für jeden Farbkanal (01 ; 02; 03) ein Bildsensorsignal erzeugt;
- Verknüpfung des Bildsensorsignals eines ersten Farbkanals (01 ) mit dem Bildsensorsignal eines zweiten Farbkanals (02) mittels einer ersten Berechnungsvorschrift (04) wodurch ein Ausgangssignal (12) eines ersten Gegenfarbkanals (07) generiert wird, sowie Verknüpfung des Bildsensorsignals eines dritten Farbkanals (03) mit den Bildsensorsignalen des ersten (01) und des zweiten Farbkanals (02) mittels einer zweiten Berechnungsvorschrift (06) wodurch ein Ausgangssignal (13) eines zweiten Gegenfarbkanals (08) generiert wird;
- Klassifikation (23) der Ausgangssignale (12; 13) der Gegenfarbkanäle (07; 08).
2. Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor, wobei das vom Bildsensor empfangene Bildsignal pixelweise analysiert wird, gekennzeichnet durch folgende Verfahrensschritte:
- aus Farbkanälen (01 ; 02; 03) wird für jeden Farbkanal (01 ; 02; 03) ein Bildsensorsignal erzeugt;
- die Bildsensorsignale von Farbkanälen (01 ; 0203) werden zu einem neuen ersten Farbkanal (07) und einem neuen zweiten Farbkanal (08) verknüpft;
- der erste Farbkanal (07) entspricht dem Rot Grün rezeptiven Feld des menschlichen Auges;
- der zweite Farbkanal (08) entspricht dem Blau/Gelb rezeptiven Feld des menschlichen Auges.
3. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der erste neue Farbkanal (07) dem Rot/Grün rezeptiven Feld des menschlichen Auges entspricht und der zweite neue Farbkanal (08) dem Blau/Gelb rezeptiven Feld des menschlichen Auges entspricht.
4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die drei Farbkanäle (01; 02; 03) den Grundfarben des RGB-Modells, nämlich R=rot, G=grün und B=blau entsprechen.
5. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die spektrale Empfindlichkeit jedes Farbkanals (01 ; 02; 03) einstellbar ist.
6. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die erste Berechnungsvorschrift (04) eine gewichtete Differenzbildung des Bildsensorsignals des zweiten Farbkanals (02) vom Bildsensorsignal des ersten Farbkanals (01) vorsieht, und / oder die zweiten Berechnungsvorschrift (06) eine gewichtete Differenzbildung der gewichteten Summe der Bildsensorsignale des ersten Farbkanals (01) und des zweiten Farbkanals (02) vom Bildsensorsignal des dritten Farbkanals (03) vorsieht.
7. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zumindest ein Signal zumindest eines Gegenfarbkanals (07; 08) vor und / oder nach der Verknüpfung mittels einer Berechnungsvorschrift (04; 06) einer Transformation (09), insbesondere eine nichtlineare Transformation (09), unterzogen wird.
8. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass jedes bei einer Verknüpfung (04; 06) berücksichtigte Bildsensorsignal vor und / oder nach der Transformation (09) mit einem Koeffizienten (11 ) gewichtet wird.
9. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass in zumindest einem Gegenfarbkanal (07; 08) zumindest ein Signal mittels eines Tiefpassfilters (16), insbesondere eines Gauss-Tiefpassfilters, gefiltert wird.
10. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das Verfahren einen Lernmodus (17) und einen Inspektionsmodus (18) aufweist, wobei im Lernmodus (17) die durch zumindest ein Referenzbild (21 ) erzeugten Referenzdatenwerte (19'; 19") der beiden Gegenfarbkanäle (07; 08) in einem Referenzdatenspeicher gespeichert werden, und wobei im Inspektionsmodus (18) die durch ein Inspektionsbild (22) erzeugten Ausgangssignale (12; 13) der beiden Gegenfarbkanäle (07; 08) pixelweise mit den Referenzdatenwerten (19'; 19") des Referenzdatenspeichers verglichen werden.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass der Vergleich mittels eines Klassifikatorsystems (23) durchgeführt wird.
12. Verfahren nach Anspruch 11 , dadurch gekennzeichnet, dass lineare und / oder nichtlineare Klassifikatorsysteme (23), insbesondere Schwellwertklassifikatoren, Euklidische - Abstands - Klassifikatoren, Bayes - Klassifikatoren, Fuzzy- Klassifikatoren, oder künstliche neuronale Netze, Verwendung finden.
13. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die im Referenzdatenspeicher gespeicherten Refenzdatenwerte (19'; 19") jedes Pixels durch Analyse mehrerer Referenzbilder (21 ) erzeugt werden, wodurch für die Referenzdatenwerte (19'; 19") ein Toleranzfenster festgelegt wird.
14. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass mit dem Verfahren Druckbilder analysiert werden.
PCT/DE2003/002146 2002-07-26 2003-06-27 Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor WO2004017034A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
AT03787613T ATE511632T1 (de) 2002-07-26 2003-06-27 Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor
US10/521,762 US7609878B2 (en) 2002-07-26 2003-06-27 Method for analyzing the color deviations in images using an image sensor
EP03787613A EP1525442B1 (de) 2002-07-26 2003-06-27 Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor
AU2003250762A AU2003250762A1 (en) 2002-07-26 2003-06-27 Method for analyzing the color deviations in images using an image sensor

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10234085A DE10234085B4 (de) 2002-07-26 2002-07-26 Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor
DE10234085.4 2002-07-26

Publications (1)

Publication Number Publication Date
WO2004017034A1 true WO2004017034A1 (de) 2004-02-26

Family

ID=30469124

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2003/002146 WO2004017034A1 (de) 2002-07-26 2003-06-27 Verfahren zur analyse von farbabweichungen von bildern mit einem bildsensor

Country Status (7)

Country Link
US (1) US7609878B2 (de)
EP (1) EP1525442B1 (de)
AT (1) ATE511632T1 (de)
AU (1) AU2003250762A1 (de)
DE (1) DE10234085B4 (de)
ES (1) ES2364650T3 (de)
WO (1) WO2004017034A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1790473A1 (de) 2005-11-25 2007-05-30 Kba-Giori S.A. Verfahren zur Erfassung vom Eintreten von Druckfehlern auf Druckbogen während deren Bearbeitung in einer Druckmaschine
US8613254B2 (en) 2005-11-25 2013-12-24 Kba-Notasys Sa Method for detection of occurrence of printing errors on printed substrates during processing thereof on a printing press
DE102019208257A1 (de) 2018-07-03 2020-01-09 Heidelberger Druckmaschinen Ag Druckqualitätsanalyse mit neuronalen Netzen

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004019978B3 (de) 2004-04-23 2005-08-04 Koenig & Bauer Ag Verfahren zur Beurteilung einer Qualität einer von einer Druckmaschine produzierten Drucksache
DE102004021047B3 (de) * 2004-04-29 2005-10-06 Koenig & Bauer Ag Verfahren zum Vergleich eines Bildes mit mindestens einem Referenzbild
CA2847707C (en) * 2014-03-28 2021-03-30 Intelliview Technologies Inc. Leak detection
US10600213B2 (en) * 2016-02-27 2020-03-24 Focal Sharp, Inc. Method and apparatus for color-preserving spectrum reshape
US11425281B1 (en) * 2016-09-07 2022-08-23 Google Llc Color image processing using models of overlapped response spectra for retinal cone cells
US10769817B2 (en) * 2017-08-07 2020-09-08 Samsung Display Co., Ltd. Measures for image testing

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4419395A1 (de) 1994-05-30 1995-12-14 Graphikon Gmbh Verfahren und Einrichtung zur Analyse und Verarbeitung von Farbbildern
EP0473432B1 (de) 1990-08-29 1997-06-25 Xerox Corporation Farbdrucken
DE69224812T2 (de) 1992-01-06 1998-08-06 Canon Kk Farbvorstellungsmethode und Bildverarbeitungsgerät dafür
DE19838806A1 (de) 1998-08-26 2000-03-02 Max Planck Gesellschaft Verfahren und Vorrichtung zur Erfassung von Objektfarben
US20020021444A1 (en) 1997-12-18 2002-02-21 Chromatics Colorsciences Inc., Color measurement system with color index for skin, teeth, hair and material substances

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3052352B2 (ja) * 1990-08-20 2000-06-12 ブラザー工業株式会社 色補正処理装置
KR940008510A (ko) * 1992-09-14 1994-04-29 김광호 고체촬상소자(ccd)형 컬러비디오카메라의 비디오신호처리회로
US6486981B1 (en) * 1993-07-27 2002-11-26 Canon Kabushiki Kaisha Color image processing method and apparatus thereof
US5999636A (en) * 1997-10-10 1999-12-07 Printprobe Technology, Llc Apparatus and process for inspecting print material
JP2002032751A (ja) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
JP3766274B2 (ja) * 2000-12-21 2006-04-12 株式会社東芝 時分割カラー表示装置および表示方法
US6751348B2 (en) * 2001-03-29 2004-06-15 Fotonation Holdings, Llc Automated detection of pornographic images

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0473432B1 (de) 1990-08-29 1997-06-25 Xerox Corporation Farbdrucken
DE69224812T2 (de) 1992-01-06 1998-08-06 Canon Kk Farbvorstellungsmethode und Bildverarbeitungsgerät dafür
DE4419395A1 (de) 1994-05-30 1995-12-14 Graphikon Gmbh Verfahren und Einrichtung zur Analyse und Verarbeitung von Farbbildern
US20020021444A1 (en) 1997-12-18 2002-02-21 Chromatics Colorsciences Inc., Color measurement system with color index for skin, teeth, hair and material substances
DE19838806A1 (de) 1998-08-26 2000-03-02 Max Planck Gesellschaft Verfahren und Vorrichtung zur Erfassung von Objektfarben

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
MICHAEL J. SWAIN; DANA H. BALLARD: "Color Indexing", INTERNATIONAL JOURNAL OF COMPUTER VISION, vol. 7, no. 1, 1991, pages 11 - 32, XP008150018, DOI: doi:10.1007/BF00130487

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1790473A1 (de) 2005-11-25 2007-05-30 Kba-Giori S.A. Verfahren zur Erfassung vom Eintreten von Druckfehlern auf Druckbogen während deren Bearbeitung in einer Druckmaschine
US8613254B2 (en) 2005-11-25 2013-12-24 Kba-Notasys Sa Method for detection of occurrence of printing errors on printed substrates during processing thereof on a printing press
DE102019208257A1 (de) 2018-07-03 2020-01-09 Heidelberger Druckmaschinen Ag Druckqualitätsanalyse mit neuronalen Netzen

Also Published As

Publication number Publication date
DE10234085A1 (de) 2004-02-19
EP1525442A1 (de) 2005-04-27
US7609878B2 (en) 2009-10-27
DE10234085B4 (de) 2012-10-18
ES2364650T3 (es) 2011-09-08
ATE511632T1 (de) 2011-06-15
US20050259869A1 (en) 2005-11-24
EP1525442B1 (de) 2011-06-01
AU2003250762A1 (en) 2004-03-03

Similar Documents

Publication Publication Date Title
DE10314071B3 (de) Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal
EP1104570A1 (de) Verfahren zum erkennen von objekten in digitalisierten abbildungen
DE3610916A1 (de) Matrixfoermige fluessigkristall-anzeigeeinrichtung
WO2000057632A1 (de) Verfahren zur erzeugung von überfülllungskonturen in einer druckseite
DE10234085B4 (de) Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor
EP1323294B1 (de) Verfahren und vorrichtung zum proofen von gerasterten druckdaten unter beibehaltung der rasterinformation
DE4124698A1 (de) Helligkeitssignal/farbsignal-trennfilter
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
EP1206123B1 (de) Verfahren zur Falschfarbendarstellung von Bildinformation
EP3683558A1 (de) Farbbildsensor
DE10064678C1 (de) Verfahren zur Signalverbesserung in einer mit einer digitalen Farbvideokamera aufgenommenen Bilderfolge
WO2005106792A2 (de) Verfahren zum vergleich eines bildes mit mindestens einem referenzbild
DE10048308A1 (de) Verfahren und Vorrichtung zum Klassifizieren von Objekten aus als Pixelmuster vorliegenden eingangsseitigen Bilddaten
EP1272970B1 (de) Verfahren und vorrichtung zur automatischen zeichenerkennung
WO2009065956A2 (de) Verfahren und vorrichtung zur qualitätskontrolle einer oberfläche
EP4094944A1 (de) Verfahren zur bestimmung eines übereinstimmungsfaktors hinsichtlich der farblichen übereinstimmung eines erstellten druckerzeugnisses mit vorgegebenen sollwerten für farben
EP1018264B1 (de) Verfahren und vorrichtung zur erzeugung von rahmen um videobilder
DE102006048847A1 (de) Anpassung eines digitalen Bildes für die Anzeige auf einem Bildschirm
DE19744648A1 (de) Verfahren und Vorrichtung zur Sekundärbilderzeugung und zur schnellen Suche in digitalen Bilddatenbanken
EP1606763B1 (de) Verfahren und einrichtung zum verarbeiten der farbinformation einer mit st rzeichen und nutzzeichen versehenen vorlage
DE102022102017A1 (de) Verbesserte spektrale Rekonstruktion für multispektrale Bildgebung
DE10140695C2 (de) Verfahren und Vorrichtung zur Erkennung einer Bewegung in einem Bild
DE19640635C2 (de) Verfahren zur Defuzzifizierung für signalverarbeitende Fuzzy-Baueinheiten
DE19805493A1 (de) Anordnung und Verfahren zur Unterdrückung von Zeilenflimmern auf Anzeigen mit zeitlich zeilenversetzter Teilbildanzeige
DE102007057018A1 (de) Verfahren und Vorrichtung zur Qualitätskontrolle einer Oberfläche

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PH PL PT RO RU SC SD SE SG SK SL TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2003787613

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 10521762

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 2003787613

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: JP

WWW Wipo information: withdrawn in national office

Country of ref document: JP