WO2005106792A2 - Method for comparing an image to at least one reference image - Google Patents

Method for comparing an image to at least one reference image Download PDF

Info

Publication number
WO2005106792A2
WO2005106792A2 PCT/EP2005/051571 EP2005051571W WO2005106792A2 WO 2005106792 A2 WO2005106792 A2 WO 2005106792A2 EP 2005051571 W EP2005051571 W EP 2005051571W WO 2005106792 A2 WO2005106792 A2 WO 2005106792A2
Authority
WO
WIPO (PCT)
Prior art keywords
image
color
logic
logic unit
signal
Prior art date
Application number
PCT/EP2005/051571
Other languages
German (de)
French (fr)
Other versions
WO2005106792A3 (en
Inventor
Carsten Diederichs
Volker Lohweg
Original Assignee
Koenig & Bauer Aktiengesellschaft
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koenig & Bauer Aktiengesellschaft filed Critical Koenig & Bauer Aktiengesellschaft
Priority to EP05740075A priority Critical patent/EP1741060A2/en
Publication of WO2005106792A2 publication Critical patent/WO2005106792A2/en
Publication of WO2005106792A3 publication Critical patent/WO2005106792A3/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • G06T7/001Industrial image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30144Printing quality

Definitions

  • the invention relates to a method for comparing an image with at least one reference image according to the preamble of claim 1.
  • camera systems are increasingly being used for different applications, for example in inspection systems, web monitoring systems or register measuring systems, these systems being arranged in or on a printing press or a machine that processes a printing material. Furthermore, there is a requirement that these systems perform their function “inline”, ie integrated in the work process of the printing press or printing machine, which is due to the large amount of data supplied by the camera system and the fast process flow of the printing press or the printing press for the respective machine
  • Camera system means a considerable challenge, for example in quality control even for spectral photo metric identification features that are difficult to identify, despite the high transport speed of the material in the short time available for assessment to arrive at a reliable assessment, preferably of each individual identification feature
  • use is often made of electronic image sensors in particular color cameras with an image sensor consisting of a CCD chip, the light-sensitive pixels of which correspond to d he recorded color in the observation area an output signal z. B. in three separate signal channels, mostly for the colors red, green and blue.
  • the position of a recognition feature to be assessed in the test process varies within certain tolerance limits within a defined expectation range.
  • the position of a window thread as z. B. is used for banknotes or tokens, vary relative to the printed image of the banknotes or tokens on a printed sheet due to the properties of the production process for producing the window thread.
  • positional tolerances of certain identification features which are in principle tolerable, can generate an error message, since when comparing a print pattern defined as a target value with the current print image, image position by image position is compared one after the other, so that positional deviations of identification features are identified as errors that are not.
  • DE 101 32 589 A1 discloses a method for the qualitative assessment of printed material with at least one identification feature, in which an image sensor records an image of the material to be assessed and for this image the geometric contour and / or the relative arrangement in an evaluation device of several identifying features is evaluated with one another.
  • the post-published DE 103 14 071 B3 discloses a method for the qualitative assessment of a material with at least one identification feature, with a color image being recorded at least from the identification feature with an electronic image sensor, with at least one first electrical signal correlating directly or indirectly with the color image from the image sensor is provided, with an evaluation device connected to the image sensor evaluating the first electrical signal, a second electrical signal being obtained from at least one reference image and being stored in a data memory, the second electrical signal each having a setpoint for the at least two different properties of the reference image First electrical signal, wherein the first signal is compared with at least two of the setpoints contained in the second electrical signal, wherein in the comparison at least the color image of the recognition feature to a Color deviation from the reference image and the identification feature are checked for belonging to a specific class of identification features or for a specific geometric contour or for a relative arrangement to at least one other identification feature of the material, with at least after changing the evaluation device from a learning mode to a working mode based on two of the checks of the color image of
  • a narrow-band excitation light source e.g. B. a tunable laser
  • the object is irradiated with light of a narrow frequency range in a selected location, with light reflected from the object or an emission induced in the object by its irradiation z.
  • B. captured by a multitude of pixels, photometrically calibrated CCD camera, digitized and sent to a computer as a data set identifying each pixel and stored in a memory, whereby the photographically recorded object can also be measured so that the data set contains information Using a geometrical arrangement of different objects, their distance from each other or a depth of their relief structure can be added.
  • the data set created from this image acquisition can, for. B. can be made available over the Internet for a comparison of this data record with a data record created by another object, in order to check the other object elsewhere for a match with the first object, i. H. with the original, and thus to check its authenticity.
  • CH 684 222 A5 discloses a device for classifying a pattern, in particular a banknote or a coin, whereby a multi-stage learning classification system on the pattern sequentially carries out at least three tests by comparing feature vectors with vector nominal values, a light source doing this Illuminates the pattern and a sensor measures the radiation reflected from the pattern at discrete times.
  • methods for pattern recognition determine similarities, such as distance measurements for segmented objects, or they calculate global threshold distributions. These methods are based on translation-invariant output spectra. In reality, however, situations often occur, such as object shifts under the recording system, different substrates during the recording or aliasing effects, so that in many cases a direct comparison of these output spectra with stored target values cannot be carried out.
  • the invention is based on the object of providing a method for comparing an image with at least one reference image, it being possible to carry out a complex assessment of the quality of a printed matter, in particular in real time in the ongoing printing process of a printing press.
  • the logic unit of the image processing system that carries out the image comparison, despite the complex inspection processes to be performed by it, is constructed in a space-saving manner and with low energy consumption in a single chip, which means that the logic unit is connected to one Printing machine is easily adaptable.
  • the logic unit of the image processing system can be flexibly adjusted to the different conditions in the printing process, which leads to a cost-effective solution for different applications.
  • the image processing system offers a sufficiently high bandwidth for processing video signals, in particular also for fast communication with other systems interacting with the image processing system.
  • material preferably a printed matter, in particular printed material with at least one identification feature
  • material is reliably and qualitatively assessed even if the color image recorded by the material, in particular the identification feature, has optical properties that are not sufficiently reliable with spectrophotometric methods alone are to be identified. Since the methods to be preferably used here do not presuppose that the material to be assessed qualitatively has a pronounced reflectivity, practically any optically perceptible property or nature of the material can be defined as its distinguishing feature, which results in a significantly expanded field of application for the method. The determination of what the identifying feature should consist of can therefore be decided based on the application. The test is aimed solely at the fact that there is an optically perceptible difference between the identification feature and its surroundings. This difference is used to assess the material qualitatively, which may also include z. B. to identify or to check its authenticity.
  • the printing press is preferably designed as a rotary printing press, in particular as a printing press printing in an offset printing process, in a steel engraving process, in a screen printing process or in a hot stamping process.
  • the printing press is designed as a sheet-fed printing press, the proposed design of the image processing system ensures that the entire sheet is preferably driven at a machine speed of e.g. B. 18,000 sheets / h can be inspected.
  • the material to be printed is a web of material, the image processing system is able to determine the quality of printed matter which is processed at a machine speed of e.g. B. 15 m / s through the printing press to be subjected to a single piece control.
  • the methods described below can be implemented in an FPGA (Field Programmable Gate Array) and executed there.
  • FPGA Field Programmable Gate Array
  • the implementation of the image processing system in an FPGA miniaturizes its apparatus structure and thereby facilitates its installation in or attachment to the printing press.
  • An access e.g. B. cylinders or other devices of the printing unit is not impeded or restricted by the image processing system attached to the printing machine, which is an important advantage for acceptance of the image processing system due to the narrow, limited installation space in a printing unit of the printing machine.
  • ⁇ E As a color space is z. B. especially the so-called ClELAB color space, which has found widespread use in printing technology.
  • An important parameter for a color deviation is given in the ClELAB color space by the color difference ⁇ E between the target and actual values of the parameters L, a and b characterizing the ClELAB color space, the parameter L for the brightness, a for the red-green Value and b stands for the yellow-blue value.
  • These parameters are also called CIE values.
  • Further parameters are the hue difference ⁇ H and the saturation difference ⁇ C, whereby in multicolor printing in particular the hue difference ⁇ H is important as a parameter because a color cast is subjectively more disturbing than a saturation difference ⁇ C that indicates a difference in brightness.
  • B up to 1 an invisible color difference, from 2 a slight difference, from 3 a recognizable difference, from 4 a clear difference and from 5 a strong difference.
  • the range of values for the CIE values a and b ranges from -100 for green or blue to +100 for red or yellow, the range for brightness L from 0 (black; total absorption) to 100 (white; total reflection).
  • S cones
  • M cones
  • L cones
  • the maximum absorption of the S-cone type is in the blue range, namely at 420 nm.
  • the M-cone type maximally absorbs in the green spectral range, namely at 534 nm.
  • the L- The cone type has its absorption maximum at 564 nm in the yellow / red spectral range.
  • Three-pin vision is called trichromatic vision.
  • the individual color impressions are triggered by differently strong stimuli of the individual cone types. An equally strong attraction of all cone types leads to the impression of the color white.
  • color sensation phenomena such as e.g. B. the color antagonism and color constancy are not explained.
  • Color antagonism means that certain colors can never be seen in transitions, so that no color transition between these colors is possible. Colors that show the color antagonism are called counter or complementary colors. The color pairs red / green and blue / yellow and black / white are worth mentioning here.
  • the color constancy compensates for the different spectral distribution of the light, which is dependent, for example, on weather or daylight conditions.
  • the counter-color model assumes that the cones are arranged in receptive fields, namely in blue / yellow fields and red / green fields.
  • Receptive fields are to be understood here as neurons and the way in which the stimuli of the cones are processed further by the neurons.
  • Two types of receptive fields are essentially responsible for color vision. The first receptive field gets its input from the L and M cones, the second receptive field from the S cones together with differently weighted stimuli from the L and M cones. It is assumed that at the level of the neurons or receptive fields, a subtractive color mixture is used to stimulate the cones.
  • the trichromatic model most commonly used in technology to describe additive color images is the RGB model.
  • the color space is described by the three primary colors red, green and blue.
  • the disadvantage of this model is in particular that the description made by the RGB model does not correspond to the sensation of the human eye, since in particular the behavior of human perception, that is to say the perception by the sensory organs, is not taken into account.
  • Electronic image sensors in particular CCD chips for color cameras, have i. d. R. a variety of z. B. arrayed photosensitive pixels, d. H. individual pixels on, e.g. B. a million or more, of which i. d. R. each provides a first electrical signal that correlates with the color image in accordance with the colored light recorded in the observation area.
  • B. is divided into three separate signal channels, each signal channel at the time of viewing usually provides a part of the first electrical signal corresponding to the primary colors red, green and blue. Such a signal is referred to as an RGB signal.
  • a spectral sensitivity of each signal channel (R; G; B) is set to the spectral sensitivity of the human eye.
  • the first electrical signal as a whole is also adapted to the color perception of the human eye with regard to hue, saturation and brightness. A color image recorded with such a color camera is consequently composed of a large number of pixels.
  • the method for assessing the quality of a printed matter produced by a printing press is characterized in that a second electrical signal is obtained from at least one reference image and is stored in a data memory, the second electrical signal forming at least one desired value for the first electrical signal, that at least the color image of the identifying feature indicates a color deviation from the reference image and / or the identifying feature indicates that it belongs to a specific class of identifying features and / or to a specific geometric contour and / or to a relative arrangement at least a further identification feature of the material is checked in each case by comparing the first signal with the second signal for reaching the target value or for a correspondence with the same.
  • the material and / or its identification feature is preferably always checked simultaneously with respect to at least two of the aforementioned criteria.
  • at least two of the checks of the color image are carried out, in particular the checking of the identification feature for a color deviation from a reference image and the checking of the identification feature for its belonging to a specific class of identification features or for a specific geometric contour or for a relative arrangement to other identification features of the material preferably at the same time in parallel and independent test processes.
  • the color image is preferably checked for a color deviation from the reference image in that the part of the first signal belonging to the color image provided in the first signal channel is linked to the part provided in the second signal channel by means of a first calculation rule, thereby generating an output signal of a first counter-color channel that the part of the first signal belonging to the color image provided in the third signal channel is linked to the part in the first and the second signal channel by means of a second calculation rule, thereby generating an output signal of a second counter-color channel and that the output signals of the counter-color channels are classified by a comparison with target values.
  • the checking of the recognition feature for its belonging to a certain class of recognition features is preferably carried out by converting the first electrical signal provided by the image sensor into a translation-invariant signal with at least one feature value by means of at least one calculation rule, by weighting the feature value with at least one fuzzy membership function that a superordinate fuzzy membership function is generated by linking all membership functions using a calculation rule consisting of at least one rule, that a sympathy value is determined from the superordinate fuzzy membership function, that the sympathy value is compared with a threshold value and that depending on the result of this comparison via a Belonging to the identifier to a certain class of identifiers is decided.
  • the checking of the recognition feature for a specific geometric contour and / or for a relative arrangement to at least one further recognition feature of the material is preferably carried out by storing at least one background setpoint and at least one mask setpoint in the data memory, the background setpoint at least one property of the one to be assessed Material in at least part of a surrounding area surrounding the identification feature and wherein the mask setpoint represents the geometric contour of the identification feature or the relative arrangement of a number of identification features with respect to one another, that when testing the material from the first electrical signal provided by the image sensor and the background setpoint a difference value at least for the expectation range is formed that the current position of the recognition feature is derived from a comparison of the difference value with the mask setpoint and that the qualitative assessment of the material the area of the assessing material, which results from the current position of the identifier, is hidden.
  • the adaptation of the first electrical signal to the color perception of the human eye takes place in that the RGB signal provided by the image sensor at every point in time is interpreted as a vectorial output signal, the coefficients of the RGB signal vector being multiplied by a square correction correction in particular, so that all parts of the first electrical signal representing a signal channel are approximated to the color perception of the human eye.
  • a correction matrix By multiplying the RGB signal vector by a correction matrix, on the one hand, it is possible to classify all printing inks relatively precisely into any color space.
  • an adaptation of the RGB signal vector by means of multiplication with the correction matrix is easy to implement in terms of data technology, so that an implementation in a real system is possible even with large amounts of RGB signals that are provided by a plurality of pixels of the image sensor at the same time is.
  • the coefficients of the correction matrix are of crucial importance for the quality of the proposed correction of the RGB signals, since the RGB signal vectors are transformed in different ways depending on the choice of these coefficients.
  • the coefficients of the correction matrix can consist, for example, of empirical values. They are stored in a data store.
  • an iterative approximation algorithm is proposed.
  • a reference color chart for example an IT8 chart with 288 color patches, is specified to carry out this approximation algorithm.
  • the different reference colors are shown in the color fields.
  • that is Classification of the different reference colors in a suitable color space for example the ClELAB color space.
  • Known transformations can be used to calculate corresponding target values for the three signal channels from these predetermined CIELAB values for the different reference colors of the reference color chart.
  • a reference color chart is thus specified as the input variable for the approximation algorithm and a vector for each reference color with a target value for each signal channel as the desired result of the conversion.
  • the approximation algorithm for determining the coefficients of the corrector matrix is carried out, the reference color table is recorded with the image sensor of the color camera and the RGB signal vector is determined for each color field. The difference between these RGB signal vectors of the color camera and the vector with the predetermined target values corresponds to the difference between the color perception of the human eye and the sensitivity distribution of the color camera.
  • a further correction step can be carried out.
  • the coefficients of the RGB signal vectors are converted in such a way that the result corresponds to those RGB signal vectors that would be obtained by illuminating the observation area with a standard light.
  • the color correction values for adapting the RGB signal vectors to different illumination sources and changes thereof can advantageously be calculated as follows.
  • the starting point of the iteration is a correction matrix, the coefficients of which are specified as output values. These initial values can either be selected purely by chance or selected according to certain empirical values.
  • this correction matrix is then multiplied by all the RGB signal vectors provided by the image sensor and the corrected RGB signal vectors thus obtained are temporarily stored in a data memory. Then the coefficients of the correction matrix are changed slightly and the multiplication is carried out again. The change in the coefficients of the correction matrix is only accepted if the corrected RGB signal vectors approach the vectors with the specified target values.
  • the approximation of the corrected RGB signal vectors to the vectors with the specified target values is evaluated for each iteration step in order to be able to decide on the basis of this evaluation whether the change in the coefficients of the correction matrix made in this iteration step should be adopted or rejected.
  • An advantageous evaluation method provides that for each color field of the reference color table, the difference value between the corrected RGB signal vector and the vector with the specified target values for this color field is determined and the sum of all these difference values is added up.
  • the change in the correction coefficients of the correction matrix in the current iteration step is only adopted if the sum of all difference values in this current iteration step has become smaller compared to the sum of all difference values in the previous iteration step.
  • Another problem with camera systems is the correct adjustment of the color balance, i. H. the correct weighting of the different signal channels to each other.
  • the coefficients of each RGB signal vector can each be multiplied by a correction channel-dependent correction factor.
  • a correction vector is added to each RGB signal vector. This correction of the three signal channels of each RGB signal vector corresponds to a linear shift of the individual coefficients of the RGB signal vectors.
  • a particularly good color balance is achieved if the correction vector and the signal channel-dependent correction factors are selected such that the corrected RGB signal vectors obtained by applying the correction with the correction vector and the correction factors are essentially exact for the two fields with the reference gray values black and white correspond to the vectors with the specified target values for these two color fields.
  • the linear shift of the RGB signal vectors is selected such that corrected results are obtained for the two reference gray values black and white, which correspond to the contrast perception of the human eye. This linear shift is preferably applied to all RGB signal vectors, as a result of which brightness and contrast in the entire color spectrum are automatically corrected as well.
  • RGB signal vectors which has the highest value coefficients and thus represents the brightest point in the observation area is then filtered out of all these RGB signal vectors.
  • all pixels would have to deliver RGB signal vectors that are essentially identical to one another. The respective differences are based on color distortions or a design-related drop in intensity. To compensate for this, correction factors are now selected for each signal channel of each individual pixel, which ensure that when the homogeneously colored material is recorded, all RGB signal vectors correspond to the RGB signal vector at the brightest point in the observation area.
  • Color distortions in particular depend heavily on the lighting conditions in the observation area. In order to rule out sources of error due to a change in the lighting conditions, the lighting should therefore correspond to the experimental determination of the pixel-specific, signal channel-dependent correction factors of the lighting during the later use of the camera system.
  • the corrected RGB signal vectors which are obtained by correcting the RGB signal vectors originally provided by the color camera, are used to control the separate signal channels of a color monitor.
  • the display of colors on a color monitor also poses the problem that the display characteristics of most color monitors do not correspond to the color perception of the human eye. This is based in particular on the fact that the brightness behavior of the color monitors is generally not linear, ie the intensity of the light that is reproduced on the color monitor is a non-linear function of the electrical input signals present on the color monitor, here the RGB signal vectors.
  • the coefficients of the corrected RGB signal vector taken as the basis can each be potentiated by a factor ⁇ .
  • the nonlinearity of the brightness behavior of most color monitors can be compensated for by this nonlinear conversion of the coefficients of the corrected RGB signal vectors.
  • a value in the range between 0.3 and 0.5, in particular approximately 0.45, must be selected for the factor ⁇ .
  • the processing of the stimuli in human color vision is simulated.
  • a signal vector is provided, the coefficients of which preferably represent three separate signal channels.
  • Each of the three signal channels has a characteristic spectral sensitivity.
  • the two receptive fields, which represent the second stage of color processing in human vision, are simulated by correspondingly linking the three separate signal channels.
  • the red / green field of human color perception represents the first counter-color channel in the technical model.
  • the output signal of the first counter-color channel is generated by linking the part of the signal vector in the first signal channel with the part of the signal vector in the second signal channel.
  • the link is made by means of a calculation rule which consists of at least one calculation rule.
  • the blue / yellow field is generated in the technical model by linking the part of the signal vector in the third signal channel with a combination of the parts of the first and the second signal channel. In the technical model, the blue / yellow field corresponds to the second counter-color channel.
  • the output signal of the second counter-color channel is generated by the link described above.
  • the link is made by means of a second calculation rule, which consists of at least one calculation rule. In order to evaluate the signal vector of the examined pixel, the output signals of the two counter-color channels are classified in the next step. In this way it is decided whether the signal vector of the examined pixel and thus ultimately also the color image corresponds to a certain class, whereby a good / bad classification can be made.
  • the spectral range in which the signal channels of the method operate is of no essential importance for the principle of the method, as long as it concerns signal channels with different spectral sensitivity. It is advantageous if the signal channels correspond to the three primary colors of the RGB model, namely red, green and blue, because this makes use of a widely used color model. Each signal channel is advantageously spectrally sensitive to the spectral sensitivity of the cone types of the retina of the human eye adjusted.
  • the manner in which the two output signals of the counter-color channels are generated is of secondary importance for the principle of the invention.
  • One possibility is that a calculation rule of the first calculation rule a weighted difference formation of the part of the signal vector in the second signal channel from the part of the signal vector in the first signal channel and / or a calculation rule of the second calculation rule a weighted difference formation of the weighted sum of the parts of the first and the second signal channel from the part of the third signal channel.
  • At least one signal in at least one counter-color channel is preferably subjected to a transformation rule after and / or before the linkage, in particular a non-linear transformation rule.
  • a transformation has the particular advantage that the digital character of electronically generated color images can be taken into account. It is also possible through transformation regulations to transform a signal from the color space into a space in which the irritation of the cones can be described.
  • the signals are preferably subjected to a transformation in both counter-color channels.
  • the receptive fields in human vision are characterized by a low-pass behavior, it makes sense if at least one signal in at least one counter-color channel is filtered using a low-pass filter.
  • the output signal of each counter-color channel is preferably filtered by means of a low-pass filter.
  • the method preferably has a learning mode and a working mode.
  • an evaluation device processing the signals of the image sensor can be switched between these two operating modes, ie the learning mode and the working mode.
  • At least one reference image e.g. B. the Recording of at least one individual printed sheet, checked pixel by pixel and the output signals of the two counter-color channels generated by the reference image are stored in a data memory as a second electrical signal forming a setpoint.
  • the output signals of each counter color channel are then stored pixel by pixel in the data memory.
  • the output signals of the corresponding pixel generated by a color image to be checked are then compared with the corresponding values stored in the data memory as the desired value, and a classification decision is then made.
  • the values stored in the data memory are formed by several reference data records, so that an allowable tolerance window is defined for each value in the data memory, within which one is used during image verification generated output signal value of a counter color channel may fluctuate.
  • the target value of the output signal of a counter-color channel can be determined, for example, by arithmetic averaging of the individual values, the individual values resulting from the reference data sets.
  • the tolerance window can be determined, for example, by the minimum and maximum values or by the standard deviation of the output signals of the counter-color channels of each pixel generated by the examined reference images.
  • the method for checking the identification feature for its belonging to a specific class of identification features preferably proceeds in the following essential procedural steps: feature formation, fuzzification, interference, defuzzification and decision about a class affiliation.
  • feature formation the first electrical signal provided by the image sensor is converted into a translation-invariant signal in a feature space by means of at least one calculation rule.
  • the aim of the feature formation is to determine such quantities by which typical signal properties of the color image are characterized.
  • the typical signal properties of the color image are represented by so-called features.
  • the characteristics can be represented by values in the characteristics space or by linguistic variables.
  • the affiliation of a feature value to a feature is described by at least one fuzzy affiliation function.
  • This is a soft or fuzzy assignment, whereby depending on the value of the characteristic value, the characteristic value belongs to the characteristic in a standardized interval between 0 and 1.
  • the concept of the membership function means that a characteristic value is no longer either completely or not at all can be assigned to a characteristic, but rather can assume a fuzzy membership which lies between the Boolean truth values 1 and 0.
  • the step just described is called fuzzification. In fuzzification, therefore, a sharp feature value is essentially converted into one or more fuzzy affiliations.
  • a superordinate membership function is generated by means of a calculation rule which consists of at least one rule, all membership functions being linked to one another. The result is a higher-level membership function for each window.
  • a numerical value is determined from the superordinate membership function formed in the interference, which is also called the sympathy value.
  • a comparison of the sympathy value with a predetermined threshold takes place, on the basis of which the affiliation of the window to a particular class is decided.
  • the threshold value forms a further setpoint contained in the second electrical signal.
  • the type of the characteristic values in the characteristic space is of minor importance for the basic sequence of the procedure. In the case of time signals, for example, their mean value or variance can be determined as characteristic values. If the method for checking the identification feature for its belonging to a certain class of identification features is subject to the requirement that it should process the color images without errors, regardless of the prevailing signal intensity, and furthermore small but permissible fluctuations in the color image should not lead to interference, it makes sense if the conversion of the first electrical signal from the two-dimensional space is carried out by means of a two-dimensional spectral transformation. Examples of a suitable spectral transformation are a two-dimensional Fourier, Walsh, Hadamard or circular transformation. The two-dimensional spectral transformation gives translationally invariant feature values. The amount of the spectral coefficients obtained by a spectral transformation is preferably used as the feature value.
  • the membership functions are preferably unimodal potential functions.
  • the higher-level membership function is preferably a multimodal potential function.
  • the membership function has positive and negative slopes, it is advantageous if the parameters of the positive and negative slopes can be determined separately. This will result in a better adaptation of the parameters to those to be examined Guaranteed records.
  • the method for checking a recognition feature of the printed matter for belonging to a certain class of recognition features is again subdivided into two different operating modes, namely a learning mode and a working mode. If the membership functions are parameterized, the parameters of the membership function can be determined in the learning mode from measured data records. In the learning mode, the parameters of the membership functions are matched to so-called reference images. H. In the learning mode, an association of the feature values, which result from the reference images, with the corresponding features is derived by means of the membership functions and their parameters.
  • the characteristic values that result from the subsequently measured data sets are weighted with the membership functions, the parameters of which were determined in the learning mode, whereby the characteristic values of the now measured data sets are associated with the corresponding characteristics.
  • the parameters of the membership functions are determined on the basis of measured reference data records.
  • the data records to be checked are weighted and evaluated with the membership functions defined in the learning mode.
  • At least one rule by means of which the membership functions are linked to one another is preferably a conjunctive rule in the sense of an IF ... THEN link.
  • the generation of the higher-level fuzzy membership function is preferably divided into the following sub-steps: premise evaluation, activation and aggregation.
  • premise evaluation a membership value is determined for each IF part of a rule and, when activated, a membership function for each IF ... THEN- Rule set.
  • the superordinate membership function is generated during the aggregation by superimposing all membership functions generated during activation.
  • the testing of the recognition feature for a specific geometric contour and / or for a relative arrangement to at least one further recognition feature of the material is based on the basic idea when evaluating a position-variant recognition feature in which the optical properties, for example the reflectivity, do not provide sufficiently reliable identification is sufficient to include known information about this identifier in the evaluation. It is assumed as a premise that the position variant identification feature, for example a colored window thread, differs at least in partial areas in the optical properties, for example in the gray value, so far from the other material to be inspected, e.g. B. distinguishes the printed image surrounding the identification feature that there is at least no complete agreement between the identification feature and the printed image.
  • additional information about the known geometric contour of the identification feature or the relative arrangement of several identification features present in the printed image is thus evaluated.
  • This additional information is stored in a mask reference stored as mask setpoints for each material to be evaluated, which mask mask represents the geometric data in a suitable form.
  • a background setpoint is stored in the data memory as a reference, which sets the optical properties of the print image in at least part of one Surrounding area, which surrounds the identifier, represents.
  • the background setpoint must differ at least slightly from the optical properties of the identification feature to be identified.
  • the current first electrical signal provided by the image sensor and the background setpoint are then used to form a difference value representing a difference image, at least for the expected range.
  • the difference image essentially all features of the print image are faded out, the optical properties of which correspond to the background setpoint. Due to their deviation from the background reference value, only position-variant regions of the identification feature and also other elements, such as printing errors or edge deviations, are depicted in the difference image, the regions of the position-variant identification feature having particularly high amplitudes.
  • the difference values are compared with the mask setpoints of the mask reference and the current position of the identification feature is inferred from the result of the comparison.
  • This method step is based on the consideration that the difference image is essentially determined by the depiction of the position-variant identification feature, so that the actual position of the position-variant identification characteristic can be inferred from extensive overlap between mask reference and difference image. If it is not possible to determine sufficient overlap between mask setpoints and difference values due to other error influences, this is harmless. B. only leads to an error display in the print image control and to the removal of the corresponding printed sheet.
  • the areas of the printed image that result from the current position of the identification feature are preferably hidden during the subsequent qualitative assessment of the material, so that interference in the examination of the printed image by the Position variant arrangement of the identifier are excluded.
  • the recognition of the position-variant recognition feature can be improved when this method is carried out by storing a binarization threshold in the data memory. After the difference image has been formed from the current first electrical signal and the background setpoint, all image data whose values are below the binarization threshold can be filtered out from the difference image. I.e. Only those image points are preserved in the difference image that differ sufficiently significantly from the rest of the print image so that the usually other deviations, for example printing errors or edge deviations, can be hidden from the difference image.
  • the procedure can be such that the mask reference is shifted until a maximum overlap between the mask reference and the difference image results.
  • Various mathematical evaluation methods can be used to evaluate the coverage between the mask reference and the difference image and to find the corresponding coverage maximum.
  • the overlap between the difference image and the mask reference should be calculated using suitable mathematical operations, if possible using electronic data processing methods.
  • One way of evaluating the overlap between the mask reference and the difference image consists in calculating centers of gravity in accordance with the optical distribution of the pixels in the difference image and these centers of gravity with the Focus of the mask reference. A maximum coverage occurs when the sum of the center of gravity differences between the mask reference and the difference image is minimized.
  • a prerequisite for carrying out the method for checking the identification feature for a specific geometric contour and / or for a relative arrangement to at least one other identification feature of the material is the storage of a suitable background setpoint in the data memory.
  • the underground setpoint can simply be specified as a process parameter, for example based on one or more empirical values.
  • the background setpoint is specifically determined in a learning mode depending on the respective print image of the material to be tested. Two alternatives are given below.
  • reference material is used in the learning mode that does not contain the position-variant identification feature.
  • printed sheets with banknotes or tokens can be used for which the window thread is not present.
  • the underground setpoint can be derived by evaluating this reference material without a distinguishing feature.
  • the learning mode can also be carried out with reference material that contains the position-variant identification feature. If, when evaluating the printed image of the reference material, the position-variant identification features appear bright in comparison to the surrounding area, then a threshold value is selected as the background setpoint which corresponds to the values of the darkest pixels of the identification feature. When the material is subsequently checked, it is then assumed, based on the threshold value, that at least in the expected range, all pixels that are darker than the Are setpoint value, do not belong to the position-variant identification feature. If, on the other hand, the identification feature appears dark in comparison to the surrounding area, a threshold value is selected as the background setpoint, the value of which corresponds to the brightest pixels of the identification feature.
  • FIG. 1 shows a block diagram with functional units relevant to the method
  • FIG. 2 is a block diagram of the logic unit of the image processing system
  • FIG. 6 shows a flowchart of the method for checking the identification feature for its belonging to a specific class of identification features; 7 shows a schematically represented difference image in a view from above;
  • FIG. 8 shows the difference image according to FIG. 7 after binarization has been carried out
  • FIG. 9 shows the mask reference for determining the position of the position-variant identification feature in the difference image according to FIG. 8;
  • FIG. 10 the overlap between the difference image according to FIG. 8 and the mask reference according to FIG. 9;
  • FIG. 11 shows a second mask reference in a schematically represented side view
  • An image recording unit 01 preferably a color camera 01, the z. B. in or on a printing press or a machine processing a printed matter is fixed so that it can take color images of the material 19 moving past the color camera 01 to be assessed, preferably in the running printing process, with its image sensor 02, is to an evaluation device 03, ie one Image processing system 03, connected. If necessary, the image data recorded by the color camera 01 and evaluated in the evaluation device 03 can be displayed on a color monitor 04, the color monitor 04 being able to be arranged in or on a control station belonging to the printing press.
  • the color monitor 04 can have control elements for entering parameters and for setting and operating the image processing system 03 are in active connection with them by the color monitor 04 z.
  • B. is designed as a so-called touchscreen and has corresponding operating masks.
  • the test methods carried out for the qualitative assessment of the printed material 19 are, in particular if the assessment to increase the reliability of the test is to be based on a test of several criteria, in connection with the evaluation device 03 in e.g. B. three parallel signal paths are shown, the test processes in the respective signal paths preferably taking place independently of one another in the same evaluation device 03.
  • the tests preferably run at least approximately at the same time, i. H. the test processes start at least at the same time.
  • the test processes can begin after the evaluation device 03 having at least two operating modes has changed from its learning mode 48 (FIG. 5) to its working mode 49 (FIG. 5).
  • each signal path relates to a functional unit 06 for checking at least the color image of the identification feature for a color deviation from the reference image, a functional unit 07 for checking the identification feature for its belonging to a specific class of identification features and a functional unit 08 for checking the identification feature a specific geometric contour or a relative arrangement to at least one further identification feature of the material 19, with each test using a comparison point 11 provided in the respective signal path; 12; 13 carried out comparison of the first signal 09 provided and suitably prepared by the image sensor 02 of the color camera 01 with a respectively suitably defined target value 16; 17; 18 includes, the setpoints 16; 17; 18 are stored in a data memory 14 belonging to the evaluation device 03. The respective test results in the individual signal paths are again reported to the evaluation device 03 for the purpose of storage there.
  • the functional units 06; relevant for the method for the qualitative assessment of a printed material 19 with at least one identification feature; 07; 08 can can also be implemented in a machine processing the material 19, this machine e.g. B. a printing press, preferably a sheet-fed printing press, in particular a sheet-fed rotary printing press, preferably arranged downstream, but can also be arranged upstream.
  • the material 19, ie a z. B. multiple identification features printed sheet 19 is in the sheet printing machine at a speed of z. B. printed 18,000 or more sheets per hour and / or then further processed at this speed in the printing sheet 19 processing machine.
  • the testing processes for assessing the quality of the printing machine or the machine processing the material 19 are computationally intensive and the speed of movement of the material 19 are high, a reliable assessment is achieved with the proposed method. Since the functional units 06; relevant for the method for the qualitative assessment of a printed material 19 with at least one identification feature; 07; 08 are arranged in or on the printing press or the machine processing the material 19, the location of the provision of the reference signal and the location of the test are identical. The color image and its reference image can be recorded with the same functional units 06: 07: 08, in particular with the same color camera 01, at the same location and evaluated in the same evaluation device 03.
  • Fig. 2 shows a simplified block diagram of an example of the electronic logic unit of the image processing system 03.
  • the z. B. with only 1, 8 V or 3.3 V voltage-supplied logic unit is designed as a single field-programmable logic circuit with several configurable logic blocks, the logic unit executing the entire image comparison in its logic blocks and assessing the quality of the printed matter.
  • Such field programmable logic circuits are also referred to as the field programmable gate array with the abbreviation FPGA according to its English-language name.
  • An FPGA preferably has a matrix structure made up of logic blocks.
  • B. 20,000 or even 50,000 logic blocks are each provided with freely configurable gate systems.
  • An FPGA can e.g. B. have a total of more than 2 million gate systems.
  • the creation of a software required for the configuration of the logic blocks can be based on a hardware description language, eg. B. with VHDL (very high speed integrated circuit hardware description language).
  • the FPGA has an internal structure width, preferably 0.25 ⁇ m or less, e.g. B. 0.18 ⁇ m or 0.15 ⁇ m, so that its structures are in the range of well below 1 ⁇ m.
  • the FPGA is preferably reprogrammable several times, so that the FPGA z. B. is also able to self-configure its programming, which carries out the image comparison and assesses the quality of the printed matter.
  • the FPGA Due to the speed of the printing process in the printing press, the FPGA has to carry out the test processes required to assess the quality of the printed matter within less than 100 ms in order to arrive at a qualified assessment inline, ie during the printing process.
  • the test processes running in the FPGA are preferably designed in such a way that the FPGA with a picture format of 2048 x 1536 pixels (ie more than 3 million pixels) requires a maximum computing time of less than 80 ms for the entire picture comparison, individual test processes being carried out much faster become. Even if the printing press sequentially produces a large number of copies of a printed matter, the FPGA preferably assesses the quality of each individual copy produced in the current production process of the printing press.
  • the FPGA's assessment of the quality of the copy produced in the current production process of the printing press includes checking the printed matter with regard to several criteria, the various tests preferably being carried out simultaneously in quasi-parallel test processes, each of the test processes relating to the printed matter with respect to at least one other Criterion assessed.
  • the image recording unit 01 has an image sensor 02 with a large number of individual pixels (z. B. more than four million pixels, the image recording unit 01, the image data recorded with its image sensor 02 preferably pixel by pixel as digital data z. B. with a clock rate of 40 MHz or more to the FPGA.
  • the FPGA has for communication with the image acquisition unit 01 or with another control unit, for. B.
  • z. B. a VME bus interface is provided as an interface to another control unit.
  • An input and output for a system bus enables e.g. B. the exchange z. B. 32-bit-wide data with the image acquisition unit 01. Via a connection interface formed on the FPGA, for. B. two FPGAs are interconnected.
  • the FPGA has an input for reading z. B. 32-bit-wide data from a data memory, for. B. an SDRAM memory, and an output to z. B. 32-bit data can be stored there in this data memory.
  • the FPGA each has at least one SDRAM controller, one SRAM controller and one FIFO controller.
  • the FIFO memory stores e.g. B. 32 lines with a length of 2048 pixels with an 8-bit quantization.
  • An SRAM memory which is connected to the FPGA and is controlled by the SRAM controller, serves to store parameters which are required to carry out at least one of the methods for assessing the quality of the printed matter produced by the printing press.
  • a SDRAM memory connected to the FPGA and controlled by the SDRAM controller is used for local image storage and storage of geometric objects, e.g. B. location-based symbols for an error display.
  • the FPGA can e.g. B.
  • the FPGA is preferably operated in such a way that the result from at least one of the methods for Assessment of the quality of the printed matter produced by the printing press after a total of less than 10 ⁇ s, preferably after about 6 ⁇ s, is present.
  • the rapid processing of the process steps for assessing the quality of the printed matter produced by the printing press is achieved in that the process is divided into several process units and each process unit as a macro, ie as a program part consisting of a coherent instruction set, in a coherent group of logic blocks in the FPGA is programmed, the logic blocks combined into a group each being clocked by a clock signal stabilized in a phase locked loop (PLL - phase-locked loop).
  • PLL - phase-locked loop phase locked loop
  • the method for checking the identification feature for its belonging to a specific class of identification features is divided into the method units explained in connection with FIG. 6, with each method unit being assigned at least one method step to be processed in the method.
  • the logic blocks combined into a group are preferably connected to one another. Because the process for assessing the quality of the printed matter produced by the printing press within the FPGA is divided into at least two process units and Each process unit is implemented as a macro in logic blocks combined into a group and all logic blocks of each group are clocked with a clock signal stabilized in a phase-locked loop. This eliminates the need to set up an otherwise very complex signal flow diagram for the timing of the clock signal clocking the FPGA.
  • the clock signal is usually generated by an oscillator arranged in or on the FPGA.
  • the color camera 01 With the color camera 01, a color image of a color printed material 19 arranged in the observation area 21 is recorded.
  • the color camera 01 has an image sensor 02, preferably designed as a CCD chip 02, which converts the image information acquired in the observation area 21 into electronic image data, which form a first electrical, preferably digital signal 09 provided by the color camera 01 or its image sensor 02.
  • a signal vector 22 is generated from each light-sensitive pixel of the CCD chip 02.
  • the color camera 01 Corresponding to the number of pixels of the CCD chip 02, the color camera 01 provides a corresponding number of signal vectors 22, identified by a counting index, to the evaluation device 03 for further processing.
  • Each signal vector 22 preferably has three coefficients R, G and B.
  • the coefficients R, G and B correspond to the color values of the three signal channels red, green and blue, the vectorial first electrical signal 09 emitted by a pixel correlating with the recorded color of the printed material 19 at the corresponding position in the observation area 21.
  • a correction vector 24 with the fixed value coefficients ai, a 2 and a 3 is added to the resulting result vector. This arithmetic operation generates first corrected signal vectors 26 which improve the color balance, the brightness and the contrast of the image data.
  • This goal is achieved in that the signal channel-dependent correction factors K ⁇ K 2 and K 3 and the coefficients ai, a 2 and a 3 of the correction vector 24 are selected such that when the reference gray values black and white are recorded, the signal generated by the color camera 01 -Vectors 22 are transformed in such a way that the corrected signal vectors 26 obtained correspond to such target values as result in vectors from the conversion of the known CIELAB color values.
  • the first corrected signal vectors 26 are then fed to a second correction module 27.
  • the second corrected signal vectors 29 result from this multiplication.
  • the coefficients K 4 to K 12 of the correction matrix 28 were previously determined in a suitable iteration process in such a way that the image information contained in the first corrected signal vectors 26 relates to the color perception of the human being Eye to be approximated.
  • the second corrected signal vectors 29 are then forwarded to a third correction module 31.
  • the third correction module 31 signal channel-dependent correction factors are stored in a data memory 14 for each pixel, which are multiplied by the coefficients R, G and B to adapt the intensity values depending on the position of the respective pixels.
  • This correction of the second corrected signal vectors 29 is preferably carried out for all pixels of the image sensor 02.
  • the third corrected signal vectors 32 are then forwarded to a fourth correction module 33.
  • the coefficients R; G; B of the third corrected signal vectors 32 is potentiated by a factor ⁇ and the fourth corrected signal vectors 34 are calculated therefrom.
  • the potentiation by the factor ⁇ takes into account the non-linear brightness transfer function of a color monitor 04, to which the fourth corrected signal vectors 34 are transferred for display.
  • the result of the correction of the signal vectors 22 in the correction modules 23, 27, 31 and 33 is that the color images displayed on the color monitor 04 are adapted to the color perception of the human eye in such a way that the visual impression when viewing the display on the color monitor 04 is good corresponds to the perception of color that would arise if the printed material 19 were viewed directly.
  • the image signal is recorded by an image sensor 02 in separate signal channels R; G; B.
  • the signal channels R; G; B around the three signal channels red R, green G and blue B.
  • Each of the signal channels R; G; B has an adjustable spectral sensitivity. This has the advantage that each signal channel R; G; B can be adapted in its spectral sensitivity to the spectral sensitivity of the respective cone of the retina of the human eye.
  • the spectral content of an image is analyzed pixel by pixel.
  • the image sensor signals of the signal channels R; G; B linked together.
  • each image sensor signal in the counter color channel 38; 39 subjected to a non-linear transformation 41. This takes into account the digital character of the electronically generated recordings.
  • the generation of the output signals 43; 44 of the counter-color channels 38; 39 is carried out analogously to the generation of the signals of the receptive fields in the human retina. That is, a link is created using the calculation rules 36; 37 of the signal channels R; G; B performed according to the linkage of the cones of the human retina.
  • the image sensor signals of the red signal channel R and the green signal channel G are linked to one another by means of the first calculation rule 36.
  • the image sensor signal of the blue signal channel B is linked to the minimum 46 of the image sensor signals of the red signal channel R and the green signal channel G by means of the calculation rule 37.
  • the receptive fields of the human retina are characterized by a low-pass behavior. Accordingly, in the present exemplary embodiment, the signals of a low-pass filtering 47, e.g. B. with a Gauss low-pass filter.
  • the learning mode 48 has the aim of the pixel-by-pixel generation of target values as reference data values, which in the subsequent working mode 49 with the output signals 43; 44 of the counter-color channels 38; 39 of the corresponding pixels are compared.
  • the image contents of one reference image 52 or of a plurality of reference images 52 are analyzed in that the image contents of each pixel are divided into three Signal channels R; G; B are recorded and a subsequent perceptual adaptation of the image signals of each signal channel R; G; B is carried out and subsequently further processing of the image sensor signals is carried out according to the previously described counter-color method.
  • the output signals 43; 44 of the counter-color channels 38; 39 are then stored in a data memory 14.
  • a data memory 14 In order to take account of permissible fluctuations in the reference images 52, it is useful if several reference images 52 are taken into account in the learning mode 48. This makes it possible for the stored target values of each pixel to have a certain permissible fluctuation tolerance.
  • the fluctuation tolerance can be determined either by the minimum / maximum values or the standard deviation from the data obtained from the image contents of the reference images 52 of each pixel.
  • the working mode 49 there is then a pixel-by-pixel comparison of the output values 43; 44 of the counter-color channels 38; 39 of an inspection image 53 with the target values from the data memory 14.
  • the comparison can be carried out using a linear or non-linear classifier 54, in particular using threshold value classifiers, Euclidean - distance classifiers, Bayesian classifiers, fuzzy classifiers or artificial neural networks. Then a good / bad decision is made.
  • FIG. 6 shows a flowchart for signal evaluation in the method for checking the identification feature for its belonging to a specific class of identification features.
  • a grid of M x N windows 56 is placed over the entire color image to be checked, where M, N> 1.
  • Each window 56 advantageously consists of mxn pixels with m; n> 1.
  • a square grid of N x N windows 56 is preferably selected, each window 56 consisting of nxn pixels.
  • the signal of each window 56 is checked separately in the test process.
  • the two-dimensional color image of the spatial space is transformed into a two-dimensional image in the frequency space by one or more spectral transformations 58.
  • the spectrum obtained is called the frequency spectrum. Since the present exemplary embodiment is a discrete spectrum, the frequency spectrum is also discrete.
  • the frequency spectrum is formed by the spectral coefficients 59 - also called spectral values 59.
  • the amount 61 of the spectral values 59 is formed.
  • the magnitude of the spectral values 59 is called the spectral amplitude value 62.
  • the spectral amplitude values 62 form the feature values 62, i. H. they are identical to the feature values 62.
  • the feature selection 63 follows as a further method step.
  • the aim of the feature selection 63 is to select those features 64 which are characteristic of the image content of the color image to be checked.
  • Both characteristic spectral amplitude values 62, which define the characteristic 64 by their position in the frequency space and by their amplitude, and linguistic variables such as “gray”, “black” or “white” are possible as characteristics 64.
  • the fuzzification 66 the association of each spectral amplitude value 62 with a feature 64 is determined by a soft or unsharp membership function 67; d. H. a weighting takes place.
  • the membership functions 67 can be adapted in a learning mode to target values stored as reference data records, it makes sense if the membership functions 67 are designed as parameterized monomodal, that is to say one-dimensional potential functions, in which the parameters of the positive and negative slope are separated from the target values to be examined be adjusted can.
  • the data records of the image content, from which the feature values 62 of the color images to be checked result are weighted with the respective membership functions 67, the parameters of which were determined in the previous learning mode. I.e. for each feature 64 there is a kind of TARGET-ACTUAL comparison between a reference data record, which is expressed in the parameters of the membership functions 67, and the data record of the color image to be checked.
  • the membership functions 67 create a soft or fuzzy association between the respective feature value 62 and the feature 64.
  • interference 68 there is essentially a conjunctive link 69 - also called aggregation 69 - of all membership functions 67 of features 64, as a result of which a superordinate membership function 71 is generated.
  • the next method step, the defuzzification 72 determines a specific membership value 73 or sympathy value 73 from the superordinate membership function 71.
  • this sympathy value 73 is compared with a previously set threshold value 76, whereby a classification statement can be made.
  • the threshold value 76 is set either manually or automatically.
  • the threshold value 76 is also set in the learning mode.
  • the method for checking the identification feature for a specific geometric contour and / or for a relative arrangement to at least one further identification feature of the material essentially takes place in the following steps.
  • a difference image 77 is formed from printed sheets printed with banknotes 19, only a section of the difference image 77 being shown in the area of a banknote 19 in FIG. 7. 7 that the normal printed image of the bank note 19 is hidden in the difference image 77 and only that Areas of the printed image that differ significantly from the background reference value are depicted as dark fields in the differential image.
  • a dashed, strip-shaped expectation area 78 the position z.
  • FIG. 9 shows a mask reference 82 in its geometric shape.
  • the data for the width 83 and the length 84 of the window thread openings 79 are stored in the mask reference 82.
  • the values for the distance 86 between the window thread openings 79 and the number of window thread openings 79 per bank note 19 are also stored in the mask reference 82.
  • the mask reference 82 is shifted relative to the difference image 77 during evaluation by data technology operations until there is a maximum overlap between the mask reference 82 and the dark fields 79 in the difference image 77. If this maximum coverage is reached, the distances 87; 88, which z. B. from the current positions in the X and Y directions of the mask reference 82 relative to the edges of the bank note 19, the current position of the window thread 79 in the printed image can be concluded, so that the areas of the window thread openings during a subsequent check of the printed image 79 can be hidden.
  • FIG. 11 shows a second mask reference 89, which represents dark fields 91 corresponding to eight window thread openings 91 when checking a bank note 19 on a concavely curved contact surface.
  • Fig. 12 schematically shows a difference image 92, in which the window thread openings 91 in dark fields 93, z. B. in window threads 93 have shown.
  • the dark field 94 was caused by a printing error 94 and not by a window thread opening 91.
  • a window thread opening 91 in the middle did not appear in the difference image 92 due to the insufficient color difference between the background and window thread 93.
  • the mask reference 89 is projected onto a projection line 96 and the light-dark distribution resulting therefrom with the light-dark resulting from the projection of the difference image 92 onto a projection line 97 -Distribution compared.
  • This one-dimensional comparison of the light-dark distribution enables the position of the window thread 93 to be determined in one direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

The invention relates to a method which is used to compare an image to at least one reference image, by using a system comprising at least one image capturing unit and an image processing system, provided with a logic unit, said image processing unit evaluating image data of the image capturing unit. An image captured by the image capturing unit is compared to the at least one reference image, whereby the logic unit, which is embodied as a field-programmable logic circuit comprising several configurable logic blocks, compares the image in the logic blocks thereof. The logic unit comparing the image evaluates the quality of the printed matter with respect to several criteria. Evaluation is carried out in parallel examination steps and each of the examination steps evaluates the printed matter in relation to one other criterion.

Description

Beschreibungdescription
Verfahren zum Vergleich eines Bildes mit mindestens einem ReferenzbildMethod for comparing an image with at least one reference image
Die Erfindung betrifft ein Verfahren zum Vergleich eines Bildes mit mindestens einem Referenzbild gemäß dem Oberbegriff des Anspruchs 1.The invention relates to a method for comparing an image with at least one reference image according to the preamble of claim 1.
In der Druckindustrie werden zunehmend Kamerasysteme für unterschiedliche Anwendungen eingesetzt, beispielsweise in Inspektionssystemen, Bahnbeobachtungssystemen oder Registermesssystemen, wobei diese Systeme in oder an einer Druckmaschine oder einer einen Bedruckstoff verarbeitenden Maschine angeordnet sind. Überdies besteht die Forderung, dass diese Systeme ihre Funktion „inline", d. h. im Arbeitsprozess der Druckmaschine oder Bedruckstoff verarbeitenden Maschine integriert ausüben sollen, was aufgrund der vom Kamerasystem gelieferten großen Datenmenge und dem schnellen Prozessablauf der Druckmaschine oder der einen Bedruckstoff verarbeitenden Maschine für das jeweilige Kamerasystem eine erhebliche Herausforderung bedeutet, um beispielsweise in einer Qualitätskontrolle auch für spektralfoto metrisch nur schwer zu identifizierende Erkennungsmerkmale trotz der hohen Transportgeschwindigkeit des Materials in der Kürze der zur Beurteilung zur Verfügung stehenden Zeit zu einer zuverlässigen Beurteilung vorzugsweise jedes einzelnen Erkennungsmerkmals zu gelangen. Zur Bildaufnahme finden in derartigen Kamerasystemen vielfach elektronische Bildsensoren Verwendung, insbesondere Farbkameras mit einem aus einem CCD-Chip bestehenden Bildsensor, dessen lichtempfindliche Pixel entsprechend der im Beobachtungsbereich aufgenommenen Farbe ein Ausgangssignal z. B. in drei getrennten Signalkanälen, zumeist für die Farben Rot, Grün und Blau liefern.In the printing industry, camera systems are increasingly being used for different applications, for example in inspection systems, web monitoring systems or register measuring systems, these systems being arranged in or on a printing press or a machine that processes a printing material. Furthermore, there is a requirement that these systems perform their function “inline”, ie integrated in the work process of the printing press or printing machine, which is due to the large amount of data supplied by the camera system and the fast process flow of the printing press or the printing press for the respective machine Camera system means a considerable challenge, for example in quality control even for spectral photo metric identification features that are difficult to identify, despite the high transport speed of the material in the short time available for assessment to arrive at a reliable assessment, preferably of each individual identification feature In such camera systems, use is often made of electronic image sensors, in particular color cameras with an image sensor consisting of a CCD chip, the light-sensitive pixels of which correspond to d he recorded color in the observation area an output signal z. B. in three separate signal channels, mostly for the colors red, green and blue.
Ein Problem der bekannten Kamerasysteme bei der Prüfung von farbigen Material, insbesondere von farbig bedruckten Material besteht darin, dass die von den Farbkameras gelieferten Bilddaten häufig nicht dem Farbempfinden des menschlichen Auges entsprechen. Unbearbeitete Bilddaten dieser Farbkameras sind hinsichtlich Farbbalance, Helligkeit, Kontrast und Farbtonwiedergabe unzureichend im Hinblick auf die Farbabstimmung, die dem menschlichen Farbensehen entspricht. Hauptgrund für dieses Problem ist neben den Unzulänglichkeiten von Objektiven und Beleuchtungseinrichtungen die spektrale Empfindlichkeitsverteilung der eingesetzten Farbkameras. Wenn die Empfindlichkeitsverteilung der eingesetzten Farbkameras nicht mit der Empfindlichkeitsverteilung des menschlichen Auges übereinstimmt, führt das dazu, dass die von den Farbkameras gelieferten Bilddaten bei der nachgeordneten Weiterbearbeitung, beispielsweise der Anzeige an einem Farbmonitor, zu einem verfälschten Seheindruck führen, sodass bei der Prüfung eine angemessene qualitative Beurteilung des bedruckten Materials schon allein aus diesem Grund kaum möglich ist.A problem with the known camera systems when testing colored material, in particular colored printed material, is that of the Color data supplied by color cameras often do not correspond to the color perception of the human eye. Unprocessed image data from these color cameras are inadequate in terms of color balance, brightness, contrast and color reproduction with regard to the color matching that corresponds to human color vision. The main reason for this problem is, in addition to the inadequacies of lenses and lighting devices, the spectral sensitivity distribution of the color cameras used. If the sensitivity distribution of the color cameras used does not match the sensitivity distribution of the human eye, this leads to the fact that the image data supplied by the color cameras lead to a distorted visual impression during subsequent processing, for example, the display on a color monitor, so that the test is adequate For this reason alone, qualitative assessment of the printed material is hardly possible.
Aufgrund vorgelagerter Produktionsprozesse kann es vorkommen, dass die Position eines im Prüfvorgang zu beurteilenden Erkennungsmerkmals innerhalb bestimmter Toleranzgrenzen in einem definierten Erwartungsbereich variiert. Beispielsweise kann die Position eines Fensterfadens, wie er z. B. bei Banknoten oder Wertmarken Verwendung findet, relativ zum Druckbild der Banknoten oder Wertmarken auf einem Druckbogen aufgrund der Eigenschaften des Produktionsprozesses zur Herstellung des Fensterfadens variieren. Bei Inspektionssystemen können derartige im Grundsatz tolerierbare Positionsabweichungen bestimmter Erkennungsmerkmale eine Störmeldung generieren, da beim Vergleich eines als Sollwert definierten Druckmusters mit dem aktuellen Druckbild Bildposition für Bildposition nacheinander verglichen wird, sodass Positionsabweichungen von Erkennungsmerkmalen als Fehler festgestellt werden, die keine sind.Due to upstream production processes, it can happen that the position of a recognition feature to be assessed in the test process varies within certain tolerance limits within a defined expectation range. For example, the position of a window thread, as z. B. is used for banknotes or tokens, vary relative to the printed image of the banknotes or tokens on a printed sheet due to the properties of the production process for producing the window thread. In the case of inspection systems, such positional tolerances of certain identification features, which are in principle tolerable, can generate an error message, since when comparing a print pattern defined as a target value with the current print image, image position by image position is compared one after the other, so that positional deviations of identification features are identified as errors that are not.
So ist z. B. durch die DE 102 34 085 A1 ein Verfahren zur Analyse von Farbabweichungen von mit einem Bildsensor aufgenommenen Bildern bekannt, wobei das vom Bildsensor empfangene Bildsignal pixelweise analysiert wird. Durch die DE 102 34086 A1 ist ein Verfahren zur Signalauswertung eines elektronischen Bildsensors bei der Mustererkennung von Bildinhalten eines Prüfkörpers bekannt, bei dem über die Zugehörigkeit des Prüfkörpers zu einer bestimmten Klasse von Prüfkörpern entschieden wird.So z. B. from DE 102 34 085 A1 a method for analyzing color deviations of images recorded with an image sensor is known, the image signal received by the image sensor being analyzed pixel by pixel. From DE 102 34086 A1 a method for signal evaluation of an electronic image sensor for pattern recognition of image contents of a test specimen is known, in which a decision is made about the belonging of the test specimen to a certain class of test specimens.
Durch die DE 101 32 589 A1 ist ein Verfahren zur qualitativen Beurteilung von bedrucktem Material mit zumindest einem Erkennungsmerkmal bekannt, bei dem mit einem Bildsensor ein Bild des zu beurteilenden Materials aufgenommen und für dieses Bild in einer Auswerteeinrichtung die geometrische Kontur und/oder die relative Anordnung mehrerer Erkennungsmerkmale untereinander ausgewertet wird.DE 101 32 589 A1 discloses a method for the qualitative assessment of printed material with at least one identification feature, in which an image sensor records an image of the material to be assessed and for this image the geometric contour and / or the relative arrangement in an evaluation device of several identifying features is evaluated with one another.
Durch die nachveröffentlichte DE 103 14 071 B3 ist ein Verfahren zur qualitativen Beurteilung eines Materials mit mindestens einem Erkennungsmerkmal bekannt, wobei mit einem elektronischen Bildsensor zumindest vom Erkennungsmerkmal ein Farbbild aufgenommen wird, wobei vom Bildsensor mittelbar oder unmittelbar mindestens ein mit dem Farbbild korrelierendes erstes elektrisches Signal bereitgestellt wird, wobei eine mit dem Bildsensor verbundene Auswertevorrichtung das erste elektrische Signal auswertet, wobei aus zumindest einem Referenzbild ein zweites elektrisches Signal gewonnen und in einem Datenspeicher gespeichert wird, wobei das zweite elektrische Signal zumindest für zwei unterschiedliche Eigenschaften des Referenzbildes jeweils einen Sollwert für das erste elektrische Signal aufweist, wobei das erste Signal mit zumindest zwei der im zweiten elektrischen Signal enthaltenen Sollwerte verglichen wird, wobei in dem Vergleich zumindest das Farbbild des Erkennungsmerkmals auf eine Farbabweichung von dem Referenzbild und das Erkennungsmerkmal auf eine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen oder auf eine bestimmte geometrische Kontur oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials geprüft wird, wobei nach einem Wechsel der Auswertevorrichtung von einem Lernmodus in einen Arbeitsmodus zumindest zwei der Prüfungen des Farbbildes anhand des in dem zur Auswertevorrichtung gehörenden Datenspeicher gespeicherten Referenzbildes zeitgleich in parallel verlaufenden Prüfvorgängen in einem laufenden Druckprozess einer Druckmaschine erfolgen.The post-published DE 103 14 071 B3 discloses a method for the qualitative assessment of a material with at least one identification feature, with a color image being recorded at least from the identification feature with an electronic image sensor, with at least one first electrical signal correlating directly or indirectly with the color image from the image sensor is provided, with an evaluation device connected to the image sensor evaluating the first electrical signal, a second electrical signal being obtained from at least one reference image and being stored in a data memory, the second electrical signal each having a setpoint for the at least two different properties of the reference image First electrical signal, wherein the first signal is compared with at least two of the setpoints contained in the second electrical signal, wherein in the comparison at least the color image of the recognition feature to a Color deviation from the reference image and the identification feature are checked for belonging to a specific class of identification features or for a specific geometric contour or for a relative arrangement to at least one other identification feature of the material, with at least after changing the evaluation device from a learning mode to a working mode based on two of the checks of the color image of the reference image stored in the data storage device belonging to the evaluation device take place simultaneously in parallel test processes in a running printing process of a printing press.
Durch die DE 198 02 781 A1 ist eine Messanordnung zur Identifizierung von wertvollen Objekten durch digitale Bildanalytik bekannt, wobei eine schmalbandige Anregungslichtquelle, z. B. ein abstimmbarer Laser, das Objekt mit Licht eines engen Frequenzbereiches in einem ausgewählten Ortsbereich bestrahlt, wobei vom Objekt reflektiertes Licht oder eine im Objekt durch dessen Bestrahlung induzierte Emission z. B. von einer eine Vielzahl von Pixel aufweisenden, photometrisch geeichten CCD-Kamera erfasst, digitalisiert und als einen jedes Pixel kennzeichnenden Datensatz einem Computer zugeleitet und in einem Speicher gespeichert wird, wobei das fotografisch erfasste Objekt zusätzlich vermessen werden kann, sodass dem Datensatz eine Information über eine geometrische Anordnung verschiedener Objekte, deren Abstand zueinander oder eine Tiefe von deren Reliefstruktur, hinzugefügt werden kann. Der aus dieser Bilderfassung erstellte Datensatz kann z. B. über das Internet jeweils zu einem Vergleich dieses Datensatzes mit einem von einem anderen Objekt erstellten Datensatz zur Verfügung gestellt werden, um das andere Objekt andernorts auf eine Übereinstimmung mit dem ersten Objekt, d. h. mit dem Original, und damit auf seine Echtheit zu prüfen.From DE 198 02 781 A1, a measuring arrangement for identifying valuable objects by digital image analysis is known. A narrow-band excitation light source, e.g. B. a tunable laser, the object is irradiated with light of a narrow frequency range in a selected location, with light reflected from the object or an emission induced in the object by its irradiation z. B. captured by a multitude of pixels, photometrically calibrated CCD camera, digitized and sent to a computer as a data set identifying each pixel and stored in a memory, whereby the photographically recorded object can also be measured so that the data set contains information Using a geometrical arrangement of different objects, their distance from each other or a depth of their relief structure can be added. The data set created from this image acquisition can, for. B. can be made available over the Internet for a comparison of this data record with a data record created by another object, in order to check the other object elsewhere for a match with the first object, i. H. with the original, and thus to check its authenticity.
Durch die WO 01/50236 A1 ist bekannt, eine Druckeinrichtung unter Verwendung einer als FPGA ausgebildeten Logikeinheit zu steuern.From WO 01/50236 A1 it is known to control a printing device using a logic unit designed as an FPGA.
Durch die US 5,946,422 A ist bekannt, einen Vergleich von einem aktuell aufgenommenen Bild mit einem Referenzbild in einer als FPGA ausgebildeten Logikeinheit auszuführen. Durch die EP 1 158 403 B1 ist bekannt, einen FPGA mit konfigurierbaren Taktleitungen auszubilden.It is known from US Pat. No. 5,946,422 A to carry out a comparison of a currently recorded image with a reference image in a logic unit designed as an FPGA. From EP 1 158 403 B1 it is known to design an FPGA with configurable clock lines.
Durch die CH 684 222 A5 ist eine Einrichtung zur Klassifizierung eines Musters, insbesondere von einer Banknote oder von einer Münze, bekannt, wobei ein mehrstufiges lernendes Klassifizierungssystem am Muster sequentiell mindestens drei Prüfungen durch einen Vergleich von Merkmalvektoren mit vektoriellen Sollgrößen durchführt, wobei eine Lichtquelle das Muster anstrahlt und ein Sensor die vom Muster reflektierte Strahlung an diskreten Zeitpunkten misst.CH 684 222 A5 discloses a device for classifying a pattern, in particular a banknote or a coin, whereby a multi-stage learning classification system on the pattern sequentially carries out at least three tests by comparing feature vectors with vector nominal values, a light source doing this Illuminates the pattern and a sensor measures the radiation reflected from the pattern at discrete times.
Üblicherweise bestimmen Verfahren zur Mustererkennung Gleichartigkeiten, wie beispielsweise Abstandsmaße für segmentierte Objekte, oder sie berechnen globale Schwellenverteilungen. Diese Verfahren beruhen auf translationsinvarianten Ausgangsspektren. In Realität treten aber oftmals Situationen auf, wie beispielsweise Objektverschiebungen unter dem Aufnahmesystem, verschiedene Untergründe bei der Aufnahme oder Aliasing-Effekte, sodass ein direkter Vergleich dieser Ausgangsspektren mit hinterlegten Sollwerten in vielen Fällen nicht durchgeführt werden kann.Typically, methods for pattern recognition determine similarities, such as distance measurements for segmented objects, or they calculate global threshold distributions. These methods are based on translation-invariant output spectra. In reality, however, situations often occur, such as object shifts under the recording system, different substrates during the recording or aliasing effects, so that in many cases a direct comparison of these output spectra with stored target values cannot be carried out.
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren zum -Vergleich eines Bildes mit mindestens einem Referenzbild zu schaffen, wobei eine komplexe Beurteilung einer Qualität einer Drucksache, insbesondere in Echtzeit im laufenden Druckprozess einer Druckmaschine, durchführbar ist.The invention is based on the object of providing a method for comparing an image with at least one reference image, it being possible to carry out a complex assessment of the quality of a printed matter, in particular in real time in the ongoing printing process of a printing press.
Die Aufgabe wird erfindungsgemäß durch die Merkmale des Anspruchs 1 gelöst.The object is achieved by the features of claim 1.
Die mit der Erfindung erzielbaren Vorteile bestehen insbesondere darin, dass die den Bildvergleich ausführende Logikeinheit des Bildverarbeitungssystems trotz der von ihm zu leistenden komplexen Prüfvorgänge platzsparend und mit einem niedrigen Energieverbrauch in einem einzigen Chip aufgebaut ist, wodurch die Logikeinheit an einer Druckmaschine auf einfache Weise adaptierbar ist. Überdies ist die Logikeinheit des Bildverarbeitungssystems bedarfsgerecht auf die unterschiedlichsten Gegebenheiten im Druckprozess flexibel einstellbar, was für unterschiedliche Applikationen zu einer kostengünstigen Lösung führt. Das Bildverarbeitungssystem bietet trotz einer hohen Integrationsdichte seiner Funktionseinheiten eine zur Verarbeitung von Videosignalen ausreichend hohe Bandbreite, insbesondere auch zur schnellen Kommunikation mit anderen, mit dem Bildverarbeitungssystem zusammenwirkenden Systemen.The advantages that can be achieved with the invention are, in particular, that the logic unit of the image processing system that carries out the image comparison, despite the complex inspection processes to be performed by it, is constructed in a space-saving manner and with low energy consumption in a single chip, which means that the logic unit is connected to one Printing machine is easily adaptable. In addition, the logic unit of the image processing system can be flexibly adjusted to the different conditions in the printing process, which leads to a cost-effective solution for different applications. Despite a high integration density of its functional units, the image processing system offers a sufficiently high bandwidth for processing video signals, in particular also for fast communication with other systems interacting with the image processing system.
Weitere Vorteile bestehen darin, dass Material, vorzugsweise eine Drucksache, insbesondere bedrucktes Material mit mindestens einem Erkennungsmerkmal, auch dann zuverlässig qualitativ beurteilt wird, wenn das vom Material aufgenommene Farbbild, insbesondere das Erkennungsmerkmal über optische Eigenschaften verfügt, die allein mit spektralfotometrischen Verfahren nicht ausreichend zuverlässig zu identifizieren sind. Da die hier bevorzugt anzuwendenden Verfahren nicht voraussetzen, dass das qualitativ zu beurteilende Material ein ausgeprägtes Reflexvermögen aufweist, kann praktisch jede beliebige, optisch wahrnehmbare Eigenschaft oder Beschaffenheit des Materials als dessen Erkennungsmerkmal festgelegt werden, wodurch sich für das Verfahren ein deutlich erweiterter Anwendungsbereich ergibt. Über die Festlegung, worin das Erkennungsmerkmal bestehen soll, kann demnach anwendungsbezogen entschieden werden. Die Prüfung ist allein darauf gerichtet, dass zwischen dem Erkennungsmerkmal und seiner Umgebung überhaupt ein optisch wahrnehmbarer Unterschied besteht. Dieser Unterschied wird herangezogen, um das Material qualitativ zu beurteilen, wozu auch gehören kann, es z. B. zu identifizieren oder auf seine Echtheit zu prüfen.Further advantages are that material, preferably a printed matter, in particular printed material with at least one identification feature, is reliably and qualitatively assessed even if the color image recorded by the material, in particular the identification feature, has optical properties that are not sufficiently reliable with spectrophotometric methods alone are to be identified. Since the methods to be preferably used here do not presuppose that the material to be assessed qualitatively has a pronounced reflectivity, practically any optically perceptible property or nature of the material can be defined as its distinguishing feature, which results in a significantly expanded field of application for the method. The determination of what the identifying feature should consist of can therefore be decided based on the application. The test is aimed solely at the fact that there is an optically perceptible difference between the identification feature and its surroundings. This difference is used to assess the material qualitatively, which may also include z. B. to identify or to check its authenticity.
Trotz der Komplexität der hier bevorzugt angewendeten Verfahren zur Beurteilung der Qualität einer von einer Druckmaschine produzierten Drucksache ist deren jeweilige Durchführung aufgrund der hier vorgeschlagenen Ausbildung des Bildverarbeitungssystems im laufenden Produktionsprozess der Druckmaschine möglich, denn die Logikeinheit des Bildverarbeitungssystems ist aufgrund einer Berücksichtigung von Laufzeiteffekten bei dem die Logikeinheit taktenden Taktsignal für eine schnelle Auswertung von Bilddaten optimiert.Despite the complexity of the methods preferably used here for assessing the quality of a printed matter produced by a printing press, their implementation is possible due to the design of the image processing system proposed here in the ongoing production process of the printing press, because the logic unit of the image processing system is based on a consideration of runtime effects in which the logic unit clocking clock signal is optimized for rapid evaluation of image data.
Die Druckmaschine ist vorzugsweise als eine Rotationsdruckmaschine, insbesondere als eine in einem Offsetdruckverfahren, in einem Stahlstichverfahren, in einem Siebdruckverfahren oder in einem Heißprägeverfahren druckende Druckmaschine, ausgebildet. Wenn die Druckmaschine als eine Bogendruckmaschine ausgebildet ist, ist mit der vorgeschlagenen Ausbildung des Bildverarbeitungssystems sichergestellt, dass vorzugsweise der gesamte Bogen mit einer Maschinengeschwindigkeit von z. B. 18.000 Bogen/h inspiziert werden kann. Wenn es sich bei dem zu bedruckenden Material um eine Materialbahn handelt, ist das Bildverarbeitungssystem in der Lage, die Qualität von Drucksachen, die mit einer Maschinengeschwindigkeit von z. B. 15 m/s durch die Druckmaschine geführt werden, einer Einzelstückkontrolle zu unterziehen.The printing press is preferably designed as a rotary printing press, in particular as a printing press printing in an offset printing process, in a steel engraving process, in a screen printing process or in a hot stamping process. If the printing press is designed as a sheet-fed printing press, the proposed design of the image processing system ensures that the entire sheet is preferably driven at a machine speed of e.g. B. 18,000 sheets / h can be inspected. If the material to be printed is a web of material, the image processing system is able to determine the quality of printed matter which is processed at a machine speed of e.g. B. 15 m / s through the printing press to be subjected to a single piece control.
Die nachfolgend beispielhaft beschriebenen Verfahren zur Beurteilung der Qualität einer von einer Druckmaschine produzierten Drucksache können trotz ihrer beachtlichen Komplexität in einem FPGA (Field Programmable Gate Array) implementiert und dort ausgeführt werden. Die Implementierung des Bildverarbeitungssystems in einen FPGA miniaturisiert dessen apparativen Aufbau und erleichtert dadurch dessen Einbau in bzw. Anbau an der Druckmaschine. Ein Zugang z. B. zu Zylindern oder anderen Einrichtungen des Druckwerks wird durch das an der Druckmaschine angebrachte Bildverarbeitungssystem nicht behindert oder störend eingeschränkt, was aufgrund des engen, begrenzten Bauraums in einem Druckwerk der Druckmaschine ein wichtiger Vorteil für eine Akzeptanz des Bildverarbeitungssystems ist.The methods described below, by way of example, for assessing the quality of a printed matter produced by a printing press, despite their considerable complexity, can be implemented in an FPGA (Field Programmable Gate Array) and executed there. The implementation of the image processing system in an FPGA miniaturizes its apparatus structure and thereby facilitates its installation in or attachment to the printing press. An access e.g. B. cylinders or other devices of the printing unit is not impeded or restricted by the image processing system attached to the printing machine, which is an important advantage for acceptance of the image processing system due to the narrow, limited installation space in a printing unit of the printing machine.
Die zur Beurteilung der Qualität der Drucksache auszuführenden Verfahren führen aufgrund ihrer Ausgestaltung selbst dann noch zu guten Ergebnissen, wenn außerdem davon auszugehen ist, dass die Position des Erkennungsmerkmals innerhalb eines durch Toleranzgrenzen bestimmten Erwartungsbereiches variiert. Überdies werden die vom Bildsensor erfassten Farben hinsichtlich Farbton, Sättigung und Helligkeit ausreichend genau in einem Farbraum eingeordnet, der dem Farbempfinden des menschlichen Auges entspricht, sodass das Material von einer Anzeigevorrichtung, z. B. einem Farbmonitor in Form eines Farbbildes so farbgetreu wiedergegeben wird, als würde das Material unmittelbar vom menschlichen Auge inspiziert, sodass anhand des Farbbildes eine zuverlässige qualitative Beurteilung des Materials und damit auch insbesondere seines Erkennungsmerkmals möglich ist.Due to their design, the methods to be performed to assess the quality of the printed matter still lead to good results even if it can also be assumed that the position of the identification feature varies within an expected range determined by tolerance limits. In addition, those of Image sensor detected colors in terms of hue, saturation and brightness arranged sufficiently precisely in a color space that corresponds to the color perception of the human eye, so that the material from a display device, for. B. a color monitor in the form of a color image is reproduced as true to color as if the material was inspected directly by the human eye, so that a reliable qualitative assessment of the material and thus, in particular, of its identification feature is possible on the basis of the color image.
Als Farbraum eignet sich dabei z. B. besonders der sogenannte ClELAB-Farbraum, der in der Drucktechnik weite Verbreitung gefunden hat. Eine wichtige Kenngröße für eine Farbabweichung ist im ClELAB-Farbraum durch den Farbabstand ΔE zwischen den Soll- und Istwerten von den ClELAB-Farbraum charakterisierenden Parametern L, a und b gegeben, wobei der Parameter L für die Helligkeit, a für den Rot-Grün-Wert und b für den Gelb-Blau-Wert steht. Diese Parameter werden auch CIE-Werte genannt. Weitere Kenngrößen sind die Farbtondifferenz ΔH und die Sättigungsdifferenz ΔC, wobei im Mehrfarbendruck insbesondere die Farbtondifferenz ΔH als Kenngröße wichtig ist, weil ein Farbstich subjektiv störender empfunden wird als eine einen Helligkeitsunterschied anzeigende Sättigungsdifferenz ΔC. So bedeutet ein Farbabstand ΔE mit einem Wert z. B. bis 1 einen nicht sichtbaren Farbunterschied, von 2 einen geringen Unterschied, von 3 einen erkennbaren Unterschied, von 4 einen deutlichen Unterschied und ab 5 einen starken Unterschied. Der Wertebereich der CIE-Werte a und b reicht jeweils von -100 für Grün oder Blau bis +100 für Rot oder Gelb, der Wertebereich für die Helligkeit L von 0 (Schwarz; totale Absorption) bis 100 (Weiß; totale Reflexion). Das Wertetripel L=50, a=0, b=0 bezeichnet ein neutrales, mittleres Grau.As a color space is z. B. especially the so-called ClELAB color space, which has found widespread use in printing technology. An important parameter for a color deviation is given in the ClELAB color space by the color difference ΔE between the target and actual values of the parameters L, a and b characterizing the ClELAB color space, the parameter L for the brightness, a for the red-green Value and b stands for the yellow-blue value. These parameters are also called CIE values. Further parameters are the hue difference ΔH and the saturation difference ΔC, whereby in multicolor printing in particular the hue difference ΔH is important as a parameter because a color cast is subjectively more disturbing than a saturation difference ΔC that indicates a difference in brightness. A color difference ΔE with a value z. B. up to 1 an invisible color difference, from 2 a slight difference, from 3 a recognizable difference, from 4 a clear difference and from 5 a strong difference. The range of values for the CIE values a and b ranges from -100 for green or blue to +100 for red or yellow, the range for brightness L from 0 (black; total absorption) to 100 (white; total reflection). The triplet L = 50, a = 0, b = 0 denotes a neutral, medium gray.
Im menschlichen Auge existieren auf der Retina drei Zapfentypen (S; M; L), die in unterschiedlichen Spektralbereichen einfallendes Licht absorbieren. Die maximale Absorption des S-Zapfentyps liegt im blauen Bereich, und zwar bei 420 nm. Der M- Zapfentyp absorbiert maximal im grünen Spektralbereich, und zwar bei 534 nm. Der L- Zapfentyp hat sein Absorptionsmaximum bei 564 nm im gelb/roten Spektralbereich. Man nennt das Sehen mit drei Zapfentypen trichromatisches Sehen. Die einzelnen Farbeindrücke werden durch unterschiedlich starke Reize der einzelnen Zapfentypen ausgelöst. Ein gleich starker Reiz aller Zapfentypen führt zum Eindruck der Farbe Weiß.In the human eye there are three types of cones (S; M; L) on the retina, which absorb incident light in different spectral ranges. The maximum absorption of the S-cone type is in the blue range, namely at 420 nm. The M-cone type maximally absorbs in the green spectral range, namely at 534 nm. The L- The cone type has its absorption maximum at 564 nm in the yellow / red spectral range. Three-pin vision is called trichromatic vision. The individual color impressions are triggered by differently strong stimuli of the individual cone types. An equally strong attraction of all cone types leads to the impression of the color white.
Mit dem trichromatischen Sehmodell können jedoch Farbempfindungsphänomene, wie z. B. der Farbantagonismus und die Farbkonstanz nicht erklärt werden. Farbantagonismus bedeutet, dass bestimmte Farben nie in Übergängen gesehen werden können, dass also kein Farbübergang zwischen diesen Farben möglich ist. Farben die den Farbantagonismus zeigen nennt man Gegen- oder Komplementärfarben. Zu nennen sind hier die Farbpaare Rot/Grün und Blau/Gelb sowie Schwarz/Weiß. Bei der Farbkonstanz wird die unterschiedliche spektrale Verteilung des Lichts ausgeglichen, die beispielsweise abhängig von Wetter oder Tageslichtverhältnissen ist.With the trichromatic visual model, however, color sensation phenomena such as e.g. B. the color antagonism and color constancy are not explained. Color antagonism means that certain colors can never be seen in transitions, so that no color transition between these colors is possible. Colors that show the color antagonism are called counter or complementary colors. The color pairs red / green and blue / yellow and black / white are worth mentioning here. The color constancy compensates for the different spectral distribution of the light, which is dependent, for example, on weather or daylight conditions.
1920 entwickelte Hering die Gegenfarbentheorie, um diese Farbempfindungsphänomene abweichend vom klassischen trichromatischen Farbmodell zu erklären. Das Gegenfarbmodell geht davon aus, dass die Zapfen in rezeptiven Feldern, nämlich in Blau/Gelb-Feldern und Rot/Grün-Feldern angeordnet sind. Unter rezeptiven Feldern sind hier Neuronen zu verstehen sowie die Art und Weise, wie die Reize der Zapfen durch die Neuronen weiter verarbeitet werden. Für das Farbensehen sind im Wesentlichen zwei Arten von rezeptiven Feldern verantwortlich. Das erste rezeptive Feld bezieht seinen Input aus den L- und M-Zapfen, das zweite rezeptive Feld aus den S-Zapfen zusammen mit unterschiedlich gewichteten Reizen der L- und M-Zapfen. Man geht davon aus, dass in der Ebene der Neuronen oder rezeptiven Felder eine subtraktive Farbmischung zur Reizung der Zapfen vorgenommen wird.In 1920 Hering developed the counter-color theory to explain these color sensation phenomena differently from the classic trichromatic color model. The counter-color model assumes that the cones are arranged in receptive fields, namely in blue / yellow fields and red / green fields. Receptive fields are to be understood here as neurons and the way in which the stimuli of the cones are processed further by the neurons. Two types of receptive fields are essentially responsible for color vision. The first receptive field gets its input from the L and M cones, the second receptive field from the S cones together with differently weighted stimuli from the L and M cones. It is assumed that at the level of the neurons or receptive fields, a subtractive color mixture is used to stimulate the cones.
Das in der Technik meist verwendete trichromatische Modell zur Beschreibung von additiven Farbbildern ist das RGB-Modell. Im RGB-Modell wird der Farbraum durch die drei Grundfarben Rot, Grün und Blau beschrieben. Nachteilig an diesem Modell ist insbesondere, dass die durch das RGB-Modell vorgenommene Beschreibung nicht dem Empfinden des menschlichen Auges entspricht, da insbesondere das Verhalten der menschlichen Perzeption, also die Wahrnehmung durch die Sinnesorgane keine Berücksichtigung findet.The trichromatic model most commonly used in technology to describe additive color images is the RGB model. In the RGB model, the color space is described by the three primary colors red, green and blue. The disadvantage of this model is in particular that the description made by the RGB model does not correspond to the sensation of the human eye, since in particular the behavior of human perception, that is to say the perception by the sensory organs, is not taken into account.
Elektronische Bildsensoren, insbesondere CCD-Chips für Farbkameras weisen i. d. R. eine Vielzahl von z. B. matrixförmig angeordneten lichtempfindlichen Pixel, d. h. einzelne Bildpunkte auf, z. B. eine Millionen oder weit mehr, von denen i. d. R. ein jedes entsprechend des im Beobachtungsbereich aufgenommenen farbigen Lichts ein mit dem Farbbild korrelierendes erstes elektrisches Signal liefert, das z. B. auf drei voneinander getrennte Signalkanäle aufgeteilt wird, wobei jeder Signalkanal zum Betrachtungszeitpunkt zumeist einen den Grundfarben Rot, Grün und Blau entsprechenden Teil des ersten elektrischen Signals bereitstellt. Man bezeichnet ein solches Signal als ein RGB-Signal. Vorzugsweise wird eine spektrale Empfindlichkeit jedes Signalkanals (R; G; B) auf die spektrale Empfindlichkeit des menschlichen Auges eingestellt, so z. B. R = Rot auf 564 nm, G = Grün auf 534 nm und B = Blau auf 420 nm. Auch wird das erste elektrische Signal in seiner Gesamtheit hinsichtlich Farbton, Sättigung und Helligkeit an das Farbempfinden des menschlichen Auges angepasst. Ein mit einer derartigen Farbkamera aufgenommenes Farbbild setzt sich folglich aus einer Vielzahl von Bildpunkten zusammen.Electronic image sensors, in particular CCD chips for color cameras, have i. d. R. a variety of z. B. arrayed photosensitive pixels, d. H. individual pixels on, e.g. B. a million or more, of which i. d. R. each provides a first electrical signal that correlates with the color image in accordance with the colored light recorded in the observation area. B. is divided into three separate signal channels, each signal channel at the time of viewing usually provides a part of the first electrical signal corresponding to the primary colors red, green and blue. Such a signal is referred to as an RGB signal. Preferably, a spectral sensitivity of each signal channel (R; G; B) is set to the spectral sensitivity of the human eye. B. R = red at 564 nm, G = green at 534 nm and B = blue at 420 nm. The first electrical signal as a whole is also adapted to the color perception of the human eye with regard to hue, saturation and brightness. A color image recorded with such a color camera is consequently composed of a large number of pixels.
Das Verfahren zur Beurteilung einer Qualität einer von einer Druckmaschine produzierten Drucksache zeichnet sich nun dadurch aus, dass aus zumindest einem Referenzbild ein zweites elektrisches Signal gewonnen und in einem Datenspeicher gespeichert wird, wobei das zweite elektrische Signal zumindest einen Sollwert für das erste elektrische Signal bildet, dass zumindest das Farbbild des Erkennungsmerkmals auf eine Farbabweichung von dem Referenzbild und/oder das Erkennungsmerkmal auf eine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen und/oder auf eine bestimmte geometrische Kontur und/oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials jeweils durch einen Vergleich des ersten Signals mit dem zweiten Signal auf ein Erreichen des Sollwerts oder eine Übereinstimmung mit demselben geprüft wird. Zur Erhöhung der Prüfsicherheit wird das Material und/oder sein Erkennungsmerkmal vorzugsweise gleichzeitig stets hinsichtlich mindestens zwei der zuvor genannten Kriterien geprüft. Dazu erfolgen zumindest zwei der Prüfungen des Farbbildes, insbesondere die Prüfung des Erkennungsmerkmals auf eine Farbabweichung von einem Referenzbild und die Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen oder auf eine bestimmte geometrische Kontur oder auf eine relative Anordnung zu weiteren Erkennungsmerkmalen des Materials vorzugsweise zeitgleich in parallel und unabhängig voneinander verlaufenden Prüfvorgängen. Mit diesem Verfahren ist aufgrund der sich ergebenden Prüfsicherheit und aufgrund der Prüfgeschwindigkeit, mit der die Durchführung des Verfahrens erfolgt, auch eine Beurteilung von bedrucktem Material in einem laufenden Druckprozess einer Druckmaschine oder in einem laufenden Arbeitsprozess einer das bedruckte Material weiter verarbeitenden Maschine zur Qualitätskontrolle dieses Materials möglich. Beim Material handelt es sich insbesondere um hochwertige Druckerzeugnisse, die z. B. aus Sicherheitsgründen eine sehr sorgfältige Prüfung erfordern und an die z. B. hinsichtlich der Stabilität ihrer drucktechnischen Beschaffenheit hohe Anforderungen gestellt werden, insbesondere also um Banknoten oder Wertmarken.The method for assessing the quality of a printed matter produced by a printing press is characterized in that a second electrical signal is obtained from at least one reference image and is stored in a data memory, the second electrical signal forming at least one desired value for the first electrical signal, that at least the color image of the identifying feature indicates a color deviation from the reference image and / or the identifying feature indicates that it belongs to a specific class of identifying features and / or to a specific geometric contour and / or to a relative arrangement at least a further identification feature of the material is checked in each case by comparing the first signal with the second signal for reaching the target value or for a correspondence with the same. To increase the reliability of the test, the material and / or its identification feature is preferably always checked simultaneously with respect to at least two of the aforementioned criteria. For this purpose, at least two of the checks of the color image are carried out, in particular the checking of the identification feature for a color deviation from a reference image and the checking of the identification feature for its belonging to a specific class of identification features or for a specific geometric contour or for a relative arrangement to other identification features of the material preferably at the same time in parallel and independent test processes. With this method, due to the resultant test reliability and due to the test speed with which the method is carried out, an assessment of printed material in an ongoing printing process of a printing press or in an ongoing work process of a machine that further processes the printed material for quality control of this material possible. The material is, in particular, high-quality printed products which, for. B. require a very careful examination for security reasons and to the z. B. high demands are made with regard to the stability of their printing properties, in particular, therefore, banknotes or tokens.
Die Prüfung des Farbbildes auf eine Farbabweichung von dem Referenzbild erfolgt vorzugsweise dadurch, dass der im ersten Signalkanal bereitgestellte Teil des zu dem Farbbild gehörenden ersten Signals mit dem im zweiten Signalkanal bereitgestellten Teil mittels einer ersten Berechnungsvorschrift verknüpft wird, wodurch ein Ausgangssignal eines ersten Gegenfarbkanals generiert wird, dass der im dritten Signalkanal bereitgestellte Teil des zu dem Farbbild gehörenden ersten Signals mit dem Teil in dem ersten und dem zweiten Signalkanal mittels einer zweiten Berechnungsvorschrift verknüpft wird, wodurch ein Ausgangssignal eines zweiten Gegenfarbkanals generiert wird, und dass die Ausgangssignale der Gegenfarbkanäle durch einen Vergleich mit Sollwerten klassifiziert werden.The color image is preferably checked for a color deviation from the reference image in that the part of the first signal belonging to the color image provided in the first signal channel is linked to the part provided in the second signal channel by means of a first calculation rule, thereby generating an output signal of a first counter-color channel that the part of the first signal belonging to the color image provided in the third signal channel is linked to the part in the first and the second signal channel by means of a second calculation rule, thereby generating an output signal of a second counter-color channel and that the output signals of the counter-color channels are classified by a comparison with target values.
Die Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen erfolgt vorzugsweise dadurch, dass das vom Bildsensor bereitgestellte erste elektrische Signal mittels zumindest einer Rechenvorschrift in ein translationsinvariantes Signal mit zumindest einem Merkmalswert umgewandelt wird, dass der Merkmalswert mit zumindest einer unscharfen Zugehörigkeitsfunktion gewichtet wird, dass eine übergeordnete unscharfe Zugehörigkeitsfunktion durch Verknüpfung aller Zugehörigkeitsfunktionen mittels einer aus zumindest einer Regel bestehenden Berechnungsvorschrift generiert wird, dass ein Sympathiewert aus der übergeordneten unscharfen Zugehörigkeitsfunktion ermittelt wird, dass der Sympathiewert mit einem Schwellwert verglichen wird und dass in Abhängigkeit vom Ergebnis dieses Vergleichs über eine Zugehörigkeit des Erkennungsmerkmals zu einer bestimmten Klasse von Erkennungsmerkmalen entschieden wird.The checking of the recognition feature for its belonging to a certain class of recognition features is preferably carried out by converting the first electrical signal provided by the image sensor into a translation-invariant signal with at least one feature value by means of at least one calculation rule, by weighting the feature value with at least one fuzzy membership function that a superordinate fuzzy membership function is generated by linking all membership functions using a calculation rule consisting of at least one rule, that a sympathy value is determined from the superordinate fuzzy membership function, that the sympathy value is compared with a threshold value and that depending on the result of this comparison via a Belonging to the identifier to a certain class of identifiers is decided.
Die Prüfung des Erkennungsmerkmals auf eine bestimmte geometrische Kontur und/oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials erfolgt vorzugsweise dadurch, dass zumindest ein Untergrundsollwert und zumindest ein Maskensollwert in dem Datenspeicher hinterlegt werden, wobei der Untergrundsollwert zumindest eine Eigenschaft des zu beurteilenden Materials in zumindest einem Teil eines das Erkennungsmerkmal umgebenden Umgebungsbereichs repräsentiert und wobei der Maskensollwert die geometrische Kontur des Erkennungsmerkmals oder die relative Anordnung mehrerer Erkennungsmerkmale untereinander repräsentiert, dass bei der Prüfung des Materials aus dem vom Bildsensor bereitgestellten ersten elektrischen Signal und dem Untergrundsollwert ein Differenzwert zumindest für den Erwartungsbereich gebildet wird, dass aus einem Vergleich des Differenzwertes mit dem Maskensollwert die aktuelle Position des Erkennungsmerkmals abgeleitet wird und dass zur qualitativen Beurteilung des Materials der Bereich des zu beurteilenden Materials, der sich aus der aktuellen Position des Erkennungsmerkmals ergibt, ausgeblendet wird.The checking of the recognition feature for a specific geometric contour and / or for a relative arrangement to at least one further recognition feature of the material is preferably carried out by storing at least one background setpoint and at least one mask setpoint in the data memory, the background setpoint at least one property of the one to be assessed Material in at least part of a surrounding area surrounding the identification feature and wherein the mask setpoint represents the geometric contour of the identification feature or the relative arrangement of a number of identification features with respect to one another, that when testing the material from the first electrical signal provided by the image sensor and the background setpoint a difference value at least for the expectation range is formed that the current position of the recognition feature is derived from a comparison of the difference value with the mask setpoint and that the qualitative assessment of the material the area of the assessing material, which results from the current position of the identifier, is hidden.
Die Anpassung des ersten elektrischen Signals an das Farbempfinden des menschlichen Auges erfolgt dadurch, dass das vom Bildsensor zu jedem Betrachtungszeitpunkt bereitgestellte RGB-Signal als ein vektorielles Ausgangssignal aufgefasst wird, wobei die Koeffizienten des RGB-Signal-Vektors mit einer insbesondere quadratischen Korrekturmatrix multipliziert werden, sodass alle einen Signalkanal repräsentierenden Teile des ersten elektrischen Signals dem Farbempfinden des menschlichen Auges angenähert werden. Durch die Multiplikation des RGB-Signal-Vektors mit einer Korrekturmatrix gelingt zum einen eine relativ genaue Einordnung aller Druckfarben in einen grundsätzlich beliebigen Farbraum. Außerdem ist eine Anpassung des RGB-Signal- Vektors mittels der Multiplikation mit der Korrekturmatrix datentechnisch einfach zu realisieren, sodass auch bei großen Mengen von RGB-Signalen, die von einer Vielzahl von Pixel des Bildsensors gleichzeitig bereitgestellt werden, eine Implementierung in ein reales System möglich ist.The adaptation of the first electrical signal to the color perception of the human eye takes place in that the RGB signal provided by the image sensor at every point in time is interpreted as a vectorial output signal, the coefficients of the RGB signal vector being multiplied by a square correction correction in particular, so that all parts of the first electrical signal representing a signal channel are approximated to the color perception of the human eye. By multiplying the RGB signal vector by a correction matrix, on the one hand, it is possible to classify all printing inks relatively precisely into any color space. In addition, an adaptation of the RGB signal vector by means of multiplication with the correction matrix is easy to implement in terms of data technology, so that an implementation in a real system is possible even with large amounts of RGB signals that are provided by a plurality of pixels of the image sensor at the same time is.
Von entscheidender Bedeutung für die Qualität der vorgeschlagenen Korrektur der RGB- Signale sind selbstverständlich die Koeffizienten derKorrekturmatrix, da je nach Wahl dieser Koeffizienten die RGB-Signal-Vektoren in unterschiedlicher Weise transformiert werden. Die Koeffizienten der Korrekturmatrix können beispielsweise aus Erfahrungswerten bestehen. Sie werden in einem Datenspeicher gespeichert.Of course, the coefficients of the correction matrix are of crucial importance for the quality of the proposed correction of the RGB signals, since the RGB signal vectors are transformed in different ways depending on the choice of these coefficients. The coefficients of the correction matrix can consist, for example, of empirical values. They are stored in a data store.
Um die Koeffizienten der Korrekturmatrix variabel an unterschiedliche Randbedingungen, beispielsweise hinsichtlich der verwendeten Farbkamera, der Beleuchtungsverhältnisse oder der verwendeten Optiken anzupassen, wird ein iterativer Näherungsalgorithmus vorgeschlagen. Zur Durchführung dieses Näherungsalgorithmus wird eine Referenzfarbtafel, beispielsweise ein IT8-Chart mit 288 Farbfeldern vorgegeben. In den Farbfeldern sind die unterschiedlichen Referenzfarben dargestellt. Außerdem ist die Einordnung der verschiedenen Referenzfarben in einem geeigneten Farbraum, beispielsweise dem ClELAB-Farbraum bekannt. Durch bekannte Transformationen lassen sich aus diesen vorgegebenen CIELAB-Werten für die verschiedenen Referenzfarben der Referenzfarbtafel entsprechende Sollwerte für die drei Signalkanäle berechnen. Im Ergebnis wird also für den Näherungsalgorithmus eine Referenzfarbtafel als Eingangsgröße und für jede Referenzfarbe ein Vektor mit einem Sollwert für jeden Signalkanal als gewünschtes Ergebnis der Umrechnung vorgegeben. Bei der Durchführung des Näherungsalgorithmus zur Bestimmung der Koeffizienten der Korrektormatrix wird die Referenzfarbtafel mit dem Bildsensor der Farbkamera aufgenommen und für jedes Farbfeld der RGB-Signal-Vektor ermittelt. Die Differenz zwischen diesen RGB-Signal-Vektoren der Farbkamera und dem Vektor mit den vorgegebenen Sollwerten entspricht der Differenz zwischen dem Farbempfinden des menschlichen Auges und der Empfindlichkeitsverteilung der Farbkamera.In order to variably adapt the coefficients of the correction matrix to different boundary conditions, for example with regard to the color camera used, the lighting conditions or the optics used, an iterative approximation algorithm is proposed. A reference color chart, for example an IT8 chart with 288 color patches, is specified to carry out this approximation algorithm. The different reference colors are shown in the color fields. Besides, that is Classification of the different reference colors in a suitable color space, for example the ClELAB color space. Known transformations can be used to calculate corresponding target values for the three signal channels from these predetermined CIELAB values for the different reference colors of the reference color chart. As a result, a reference color chart is thus specified as the input variable for the approximation algorithm and a vector for each reference color with a target value for each signal channel as the desired result of the conversion. When the approximation algorithm for determining the coefficients of the corrector matrix is carried out, the reference color table is recorded with the image sensor of the color camera and the RGB signal vector is determined for each color field. The difference between these RGB signal vectors of the color camera and the vector with the predetermined target values corresponds to the difference between the color perception of the human eye and the sensitivity distribution of the color camera.
Um die Beleuchtungsquelle bei Einsatz entsprechender Kamerasysteme nicht auf eine Normlichtquelle kalibrieren zu müssen, kann ein weiterer Korrekturschritt durchgeführt werden. In diesem Korrekturschritt werden die Koeffizienten der RGB-Signal-Vektoren derart umgerechnet, dass das Ergebnis denjenigen RGB-Signal-Vektoren entspricht, die bei Ausleuchtung des Beobachtungsbereichs mit einem Normlicht erhalten würden. Die Farbkorrekturwerte zur Anpassung der RGB-Signal-Vektoren an verschiedene Beleuchtungsquellen und Änderungen derselben können vorteilhaft wie folgt berechnet werden.In order not to have to calibrate the lighting source to a standard light source when using corresponding camera systems, a further correction step can be carried out. In this correction step, the coefficients of the RGB signal vectors are converted in such a way that the result corresponds to those RGB signal vectors that would be obtained by illuminating the observation area with a standard light. The color correction values for adapting the RGB signal vectors to different illumination sources and changes thereof can advantageously be calculated as follows.
In der Drucktechnik wird z. Zt. noch das Normlicht D50 verwendet. Durch Vorgabe des Weißpunktes D50 ist es möglich, die Rec. 709 durch eine Umrechnung auf das D50- Normlicht anzupassen, sodass sich die nichtlinearen RGB-Signal-Vektoren verhalten, als ob das zu untersuchende Objekt mit einer D50-Beleuchtung angestrahlt worden sei. Durch das vorgeschlagene Verfahren ist es möglich, die RGB-Signal-Vektoren iterativ an den ClELAB-Farbraum anzupassen, ohne dass eine reale Normbeleuchtung notwendig ist. Dieses Verfahren hat den Vorteil, dass bei einer zu erwartenden Änderung der Normlichtvorgabe sofort eine Anpassung vorgenommen werden kann.In printing technology, for. Currently the standard light D50 is still used. By specifying the white point D50, it is possible to adapt the Rec. 709 by converting it to the D50 standard light, so that the non-linear RGB signal vectors behave as if the object to be examined had been illuminated with D50 lighting. The proposed method makes it possible to iteratively adapt the RGB signal vectors to the ClELAB color space without the need for real standard lighting is. This method has the advantage that an adjustment can be made immediately if the standard light specification is expected to change.
Ausgangspunkt der Iteration ist eine Korrekturmatrix, deren Koeffizienten als Ausgangswerte vorgegeben sind. Diese Ausgangswerte können entweder rein zufällig oder entsprechend bestimmter Erf ah rungs werte gewählt sein. Im ersten Iterationsschritt wird nun diese Korrekturmatrix mit allen vom Bildsensor bereitgestellten RGB-Signal- Vektoren multipliziert und die dadurch erhaltenen korrigierten RGB-Signal-Vektoren in einem Datenspeicher zwischengespeichert. Anschließend werden die Koeffizienten der Korrekturmatrix leicht verändert und die Multiplikation erneut durchgeführt. Die Änderung der Koeffizienten der Korrekturmatrix wird dabei jeweils nur dann angenommen, wenn sich die korrigierten RGB-Signal-Vektoren an die Vektoren mit den vorgegebenen Sollwerten annähern.The starting point of the iteration is a correction matrix, the coefficients of which are specified as output values. These initial values can either be selected purely by chance or selected according to certain empirical values. In the first iteration step, this correction matrix is then multiplied by all the RGB signal vectors provided by the image sensor and the corrected RGB signal vectors thus obtained are temporarily stored in a data memory. Then the coefficients of the correction matrix are changed slightly and the multiplication is carried out again. The change in the coefficients of the correction matrix is only accepted if the corrected RGB signal vectors approach the vectors with the specified target values.
Die Annäherung der korrigierten RGB-Signal-Vektoren an die Vektoren mit den vorgegebenen Sollwerten wird für jeden Iterationsschritt bewertet, um anhand dieser Bewertung entscheiden zu können, ob die in diesem Iterationsschritt vorgenommene Änderung der Koeffizienten der Korrekturmatrix übernommen oder verworfen werden soll. Ein vorteilhaftes Bewertungsverfahren sieht vor, dass für jedes Farbfeld der Referenzfarbtafel der Differenzwert zwischen dem korrigierten RGB-Signal-Vektor und dem Vektor mit den vorgegebenen Sollwerten für dieses Farbfeld ermittelt und die Summe aller dieser Differenzwerte aufaddiert wird. Die Änderung der Korrekturkoeffizienten der Korrekturmatrix im aktuellen Iterationsschritt wird nur dann übernommen, wenn die Summe aller Differenzwerte in diesem aktuellen Iterationsschritt im Vergleich zur Summe aller Differenzwerte im vorangegangenen Iterationsschritt kleiner geworden ist. Ist dagegen die Summe aller Differenzwerte durch die Änderung der Koeffizienten der Korrekturmatrix im vorangegangenen Iterationsschritt größer geworden, wird die Änderung der Koeffizienten verworfen. Durch diese summarische Betrachtung der Differenzwerte über alle Referenzfarben ist es durchaus möglich, dass sich die Differenz für einzelne Referenzfarben während eines Iterationsschrittes vergrößert. Insgesamt wird jedoch zuverlässig die Minimierung der Differenzwerte über alle Signalkanäle hinweg sichergestellt.The approximation of the corrected RGB signal vectors to the vectors with the specified target values is evaluated for each iteration step in order to be able to decide on the basis of this evaluation whether the change in the coefficients of the correction matrix made in this iteration step should be adopted or rejected. An advantageous evaluation method provides that for each color field of the reference color table, the difference value between the corrected RGB signal vector and the vector with the specified target values for this color field is determined and the sum of all these difference values is added up. The change in the correction coefficients of the correction matrix in the current iteration step is only adopted if the sum of all difference values in this current iteration step has become smaller compared to the sum of all difference values in the previous iteration step. If, on the other hand, the sum of all difference values has become larger due to the change in the coefficients of the correction matrix in the previous iteration step, the change in the coefficients is rejected. Through this summary consideration of the difference values across all reference colors, it is quite possible that the Difference for individual reference colors increased during an iteration step. Overall, however, the minimization of the difference values across all signal channels is reliably ensured.
Ein weiteres Problem bei Kamerasystemen ist die richtige Einstellung der Farbbalance, d. h. die richtige Gewichtung der verschiedenen Signalkanäle zueinander. Um die Farbbalance der einzelnen Signalkanäle relativ zueinander einzustellen, können die Koeffizienten jedes RGB-Signal-Vektors jeweils mit einem signalkanalabhängigen Korrketurfaktor multipliziert werden. Zugleich wird zu jedem RGB-Signal-Vektor ein Korrekturvektor hinzuaddiert. Diese Korrektur der drei Signalkanäle jedes RGB-Signal- Vektors entspricht einer linearen Verschiebung der einzelnen Koeffizienten der RGB- Signal-Vektoren.Another problem with camera systems is the correct adjustment of the color balance, i. H. the correct weighting of the different signal channels to each other. In order to adjust the color balance of the individual signal channels relative to one another, the coefficients of each RGB signal vector can each be multiplied by a correction channel-dependent correction factor. At the same time, a correction vector is added to each RGB signal vector. This correction of the three signal channels of each RGB signal vector corresponds to a linear shift of the individual coefficients of the RGB signal vectors.
Eine besonders gute Farbbalance wird erreicht, wenn der Korrekturvektor und die signalkanalabhängigen Korrekturfaktoren derart gewählt werden, dass die durch Anwendung der Korrektur mit dem Korrekturvektor und den Korrekturfaktoren erhaltenen korrigierten RGB-Signal-Vektoren für die beiden Felder mit den Referenzgrauwerten Schwarz und Weiß im Wesentlichen exakt den für diese beiden Farbfelder Vektoren mit den vorgegebenen Sollwerten entsprechen. D. h. mit anderen Worten, die lineare Verschiebung der RGB-Signal-Vektoren wird so gewählt, dass sich für die beiden Referenzgrauwerte Schwarz und Weiß korrigierte Ergebnisse ergeben, die dem Kontrastempfinden des menschlichen Auges entsprechen. Diese lineare Verschiebung wird vorzugsweise auf alle RGB-Signal-Vektoren angewendet, wodurch Helligkeit und Kontrast im gesamten Farbspektrum automatisch mitkorrigiert werden.A particularly good color balance is achieved if the correction vector and the signal channel-dependent correction factors are selected such that the corrected RGB signal vectors obtained by applying the correction with the correction vector and the correction factors are essentially exact for the two fields with the reference gray values black and white correspond to the vectors with the specified target values for these two color fields. I.e. in other words, the linear shift of the RGB signal vectors is selected such that corrected results are obtained for the two reference gray values black and white, which correspond to the contrast perception of the human eye. This linear shift is preferably applied to all RGB signal vectors, as a result of which brightness and contrast in the entire color spectrum are automatically corrected as well.
Bei der Verwendung von Farbkameras kann es zu Farbverfälschungen und einem Abfall der Intensität insbesondere an den Rändern der Kamerabilder kommen. Diese Verfälschungen werden von den verwendeten Optiken, z. B. den verwendeten Linsen erzeugt. Zur Korrektur dieses Intensitätsabfalls kann eine sogenannte Shading-Korrektur eingesetzt werden. Dazu werden für jeden Pixel des Bildsensors signalkanalabhängige Korrekturfaktoren vorgegeben. Durch Multiplikation dieser pixelabhängigen Korrekturfaktoren mit den Koeffizienten der RGB-Signal-Vektoren können die pixelspezifischen Farbverfälschungen oder ein bauartbedingter Intensitätsabfall in den unterschiedlichen Bereichen des Bildsensors ausgeglichen werden.When using color cameras, there may be color distortions and a decrease in intensity, especially at the edges of the camera images. These falsifications are caused by the optics used, e.g. B. the lenses used. A so-called shading correction can be used to correct this drop in intensity be used. For this purpose, signal channel-dependent correction factors are specified for each pixel of the image sensor. By multiplying these pixel-dependent correction factors by the coefficients of the RGB signal vectors, the pixel-specific color distortions or a design-related drop in intensity in the different areas of the image sensor can be compensated.
Diese pixelspezifischen, signalkanalabhängigen Korrekturfaktoren können beispielsweise in einfacher Weise experimentell dadurch ermittelt werden, dass der Beobachtungsbereich der Farbkamera mit einem homogenen Material, insbesondere mit einem homogen weißem Material ausgelegt und mit der Kamera für jeden Pixel ein RGB- Signal-Vektor ermittelt wird. Aus all diesen RGB-Signal-Vektoren wird dann derjenige RGB-Signal-Vektor herausgefiltert, der die werthöchsten Koeffizienten aufweist und somit die hellste Stelle im Beobachtungsbereich repräsentiert. Da der Beobachtungsbereich aber mit einem homogen farbigen Material ausgelegt ist, müssten alle Pixel im Wesentlichen identisch miteinander übereinstimmende RGB-Signal-Vektoren liefern. Die jeweiligen Differenzen beruhen also auf Farbverfälschungen oder einem bauartbedingten Intensitätsabfall. Um dies auszugleichen, werden nun für jeden Signalkanal jedes einzelnen Pixel Korrekturfaktoren gewählt, die dafür sorgen, dass bei Aufnahme des homogen farbigen Materials alle RGB-Signal-Vektoren dem RGB-Signal-Vektor an der hellsten Stelle im Beobachtungsbereich entsprechen.These pixel-specific, signal channel-dependent correction factors can be determined experimentally in a simple manner, for example, by designing the observation area of the color camera with a homogeneous material, in particular with a homogeneous white material, and determining an RGB signal vector for each pixel with the camera. The RGB signal vector which has the highest value coefficients and thus represents the brightest point in the observation area is then filtered out of all these RGB signal vectors. However, since the observation area is designed with a homogeneously colored material, all pixels would have to deliver RGB signal vectors that are essentially identical to one another. The respective differences are based on color distortions or a design-related drop in intensity. To compensate for this, correction factors are now selected for each signal channel of each individual pixel, which ensure that when the homogeneously colored material is recorded, all RGB signal vectors correspond to the RGB signal vector at the brightest point in the observation area.
Insbesondere Farbverfälschungen hängen stark von den Beleuchtungsverhältnissen im Beobachtungsbereich ab. Um Fehlerquellen durch einen Wechsel der Beleuchtungsverhältnisse auszuschließen, sollte deshalb die Beleuchtung bei der experimentellen Bestimmung der pixelspezifischen, signalkanalabhängigen Korrekturfaktoren der Beleuchtung während des späteren Einsatzes des Kamerasystems entsprechen.Color distortions in particular depend heavily on the lighting conditions in the observation area. In order to rule out sources of error due to a change in the lighting conditions, the lighting should therefore correspond to the experimental determination of the pixel-specific, signal channel-dependent correction factors of the lighting during the later use of the camera system.
Bei vielen Anwendungsfällen des Verfahrens zur Anpassung des ersten elektrischen Signals an das Farbempfinden des menschlichen Auges werden die korrigierten RGB- Signal-Vektoren, die durch Korrektur der ursprünglich von der Farbkamera bereitgestellten RGB-Signal-Vektoren erhalten werden, zur Ansteuerung der getrennten Signalkanäle eines Farbmonitors eingesetzt. Die Darstellung der Farben an einem Farbmonitor wirft dabei ebenfalls das Problem auf, dass die Darstellungscharakteristik der meisten Farbmonitore nicht dem Farbempfinden des menschlichen Auges entspricht. Dies beruht insbesondere darauf, dass das Helligkeitsverhalten der Farbmonitore in der Regel nicht linear ist, d. h. die Intensität des Lichts, das am Farbmonitor reproduziert wird, ist eine nichtlineare Funktion der am Farbmonitor anstehenden elektrischen Eingangssignale, hier der RGB-Signal-Vektoren. Dies bedeutet mit anderen Worten, dass für den Fall, dass die entsprechend dem Farbempfinden des menschlichen Auges korrigierten RGB-Signal-Vektoren einfach an den Farbmonitor übertragen und dort ohne Berücksichtigung der Nichtlinearität seines Helligkeitsverhaltens angezeigt werden, am Farbmonitor unerwünschte Verfälschungen im Farbbild auftreten. Eine verlässliche qualitative Beurteilung eines am Farbmonitor dargestellten Materials, insbesondere eines Materials mit einem Erkennungsmerkmal ist dann objektiv nicht möglich.In many applications of the method for adapting the first electrical Signals to the color perception of the human eye, the corrected RGB signal vectors, which are obtained by correcting the RGB signal vectors originally provided by the color camera, are used to control the separate signal channels of a color monitor. The display of colors on a color monitor also poses the problem that the display characteristics of most color monitors do not correspond to the color perception of the human eye. This is based in particular on the fact that the brightness behavior of the color monitors is generally not linear, ie the intensity of the light that is reproduced on the color monitor is a non-linear function of the electrical input signals present on the color monitor, here the RGB signal vectors. In other words, this means that in the event that the RGB signal vectors corrected according to the color perception of the human eye are simply transmitted to the color monitor and displayed there without taking into account the non-linearity of its brightness behavior, undesirable falsifications in the color image occur on the color monitor. A reliable qualitative assessment of a material displayed on the color monitor, in particular a material with a distinguishing feature, is then not objectively possible.
Um derartige Farbverfälschungen bei der Darstellung an einem Farbmonitor zu verhindern, können die als Basis genommenen Koeffizienten des korrigierten RGB- Signal-Vektors jeweils mit einem Faktor γ potenziert werden. Durch diese nichtlineare Umrechnung der Koeffizienten der korrigierten RGB-Signal-Vektoren kann die Nichtlinearität des Helligkeitsverhaltens der meisten Farbmonitore ausgeglichen werden. Für die meisten Farbmonitore muss für den Faktor γ ein Wert im Bereich zwischen 0,3 und 0,5, insbesondere ungefähr zu 0,45 gewählt werden.In order to prevent such color falsifications when displayed on a color monitor, the coefficients of the corrected RGB signal vector taken as the basis can each be potentiated by a factor γ. The nonlinearity of the brightness behavior of most color monitors can be compensated for by this nonlinear conversion of the coefficients of the corrected RGB signal vectors. For most color monitors, a value in the range between 0.3 and 0.5, in particular approximately 0.45, must be selected for the factor γ.
Beim Verfahren zur Prüfung des Farbbildes auf eine Farbabweichung von dem Referenzbild wird die Verarbeitung der Reize beim menschlichen Farbensehen simuliert. Um die drei Zapfentypen des menschlichen Auges mit ihrer unterschiedlichen spektralen Empfindlichkeit nachzubilden, wird - wie bereits erwähnt - für das vom Bildsensor aufgenommene Farbbild von jedem Pixel ein Signal-Vektor bereitgestellt, dessen Koeffizienten vorzugsweise drei voneinander getrennte Signalkanäle repräsentieren. Jeder der drei Signalkanäle besitzt eine charakteristische spektrale Empfindlichkeit. Die beiden rezeptiven Felder, welche die zweite Stufe der Farbverarbeitung beim menschlichen Sehen darstellen, werden durch eine entsprechende Verknüpfung der drei voneinander getrennten Signalkanäle simuliert. Das Rot/Grün-Feld der menschlichen Farbwahrnehmung stellt im technischen Modell den ersten Gegenfarbkanal dar. Das Ausgangssignal des ersten Gegenfarbkanals wird durch Verknüpfung des Teils des Signal-Vektors im ersten Signalkanal mit dem Teil des Signal-Vektors im zweiten Signalkanal generiert. Die Verknüpfung geschieht mittels einer Berechnungsvorschrift, welche aus zumindest einer Rechenregel besteht. Das Blau/Gelb-Feld wird im technischen Modell durch Verknüpfung des Teils des Signal-Vektors im dritten Signalkanal mit einer Kombination aus den Teilen des ersten und des zweiten Signalkanals erzeugt. Das Blau/Gelb-Feld entspricht im technischen Modell dem zweiten Gegenfarbkanal. Das Ausgangssignal des zweiten Gegenfarbkanals wird durch die vorgehend beschriebene Verknüpfung generiert. Die Verknüpfung geschieht mittels einer zweiten Berechnungsvorschrift, welche aus zumindest einer Rechenregel besteht. Um den Signal-Vektor des untersuchten Pixel zu bewerten, findet im nächsten Schritt eine Klassifikation der Ausgangssignale der beiden Gegenfarbkanäle statt. Dadurch wird - entschieden, ob der Signal-Vektor des untersuchten Pixel und damit letztlich auch das Farbbild einer bestimmten Klasse entspricht, wodurch eine gut/schlecht Klassifikation getroffen werden kann.In the method for checking the color image for a color deviation from the reference image, the processing of the stimuli in human color vision is simulated. In order to emulate the three cone types of the human eye with their different spectral sensitivity, we use - as already mentioned - for that from the image sensor recorded color image of each pixel, a signal vector is provided, the coefficients of which preferably represent three separate signal channels. Each of the three signal channels has a characteristic spectral sensitivity. The two receptive fields, which represent the second stage of color processing in human vision, are simulated by correspondingly linking the three separate signal channels. The red / green field of human color perception represents the first counter-color channel in the technical model. The output signal of the first counter-color channel is generated by linking the part of the signal vector in the first signal channel with the part of the signal vector in the second signal channel. The link is made by means of a calculation rule which consists of at least one calculation rule. The blue / yellow field is generated in the technical model by linking the part of the signal vector in the third signal channel with a combination of the parts of the first and the second signal channel. In the technical model, the blue / yellow field corresponds to the second counter-color channel. The output signal of the second counter-color channel is generated by the link described above. The link is made by means of a second calculation rule, which consists of at least one calculation rule. In order to evaluate the signal vector of the examined pixel, the output signals of the two counter-color channels are classified in the next step. In this way it is decided whether the signal vector of the examined pixel and thus ultimately also the color image corresponds to a certain class, whereby a good / bad classification can be made.
In welchem spektralen Bereich die Signalkanäle des Verfahrens arbeiten, ist für das Prinzip des Verfahrens ohne wesentlichen Belang, solange es sich um Signalkanäle mit unterschiedlicher spektraler Empfindlichkeit handelt. Es ist vorteilhaft, wenn die Signalkanäle den drei Grundfarben des RGB-Modells, nämlich Rot, Grün und Blau entsprechen, weil damit auf ein weit verbreitetes Farbmodell zurückgegriffen wird. Vorteilhafterweise wird jeder Signalkanal in seiner spektralen Empfindlichkeit an die spektrale Empfindlichkeit der Zapfentypen der Retina des menschlichen Auges angepasst.The spectral range in which the signal channels of the method operate is of no essential importance for the principle of the method, as long as it concerns signal channels with different spectral sensitivity. It is advantageous if the signal channels correspond to the three primary colors of the RGB model, namely red, green and blue, because this makes use of a widely used color model. Each signal channel is advantageously spectrally sensitive to the spectral sensitivity of the cone types of the retina of the human eye adjusted.
In welcher Art und Weise die beiden Ausgangssignale der Gegenfarbkanäle generiert werden, ist für das Prinzip der Erfindung von untergeordneter Bedeutung. Eine Möglichkeit besteht darin, dass eine Rechenregel der ersten Berechnungsvorschrift eine gewichtete Differenzbildung des Teils des Signal- Vektors im zweiten Signalkanal vom Teil des Signal-Vektors im ersten Signalkanal und / oder eine Rechenregel der zweiten Berechnungsvorschrift eine gewichtete Differenzbildung der gewichteten Summe der Teile des ersten und zweiten Signalkanals vom Teil des dritten Signalkanals vorsieht.The manner in which the two output signals of the counter-color channels are generated is of secondary importance for the principle of the invention. One possibility is that a calculation rule of the first calculation rule a weighted difference formation of the part of the signal vector in the second signal channel from the part of the signal vector in the first signal channel and / or a calculation rule of the second calculation rule a weighted difference formation of the weighted sum of the parts of the first and the second signal channel from the part of the third signal channel.
Vorzugsweise wird zumindest ein Signal in zumindest einem Gegenfarbkanal nach und / oder vor der Verknüpfung einer Transformationsvorschrift unterzogen, insbesondere einer nichtlinearen Transformationsvorschrift. Eine Transformation hat insbesondere den Vorteil, dass der digitale Charakter von elektronisch erzeugten Farbbildern Berücksichtigung finden kann. Ebenfalls ist es durch Transformationsvorschriften möglich, ein Signal aus dem Farbraum in einen Raum zu transformieren, in welchem die Reizung der Zapfen beschrieben werden kann. Vorzugsweise werden die Signale in beiden Gegenfarbkanälen einer Transformation unterzogen.At least one signal in at least one counter-color channel is preferably subjected to a transformation rule after and / or before the linkage, in particular a non-linear transformation rule. A transformation has the particular advantage that the digital character of electronically generated color images can be taken into account. It is also possible through transformation regulations to transform a signal from the color space into a space in which the irritation of the cones can be described. The signals are preferably subjected to a transformation in both counter-color channels.
Da die rezeptiven Felder beim menschlichen Sehen durch ein Tiefpassverhalten charakterisiert sind, ist es sinnvoll, wenn zumindest ein Signal in zumindest einem Gegenfarbkanal mittels eines Tiefpassfilters gefiltert wird. Vorzugsweise wird das Ausgangssignal jedes Gegenfarbkanals mittels eines Tiefpassfilters gefiltert.Since the receptive fields in human vision are characterized by a low-pass behavior, it makes sense if at least one signal in at least one counter-color channel is filtered using a low-pass filter. The output signal of each counter-color channel is preferably filtered by means of a low-pass filter.
Das Verfahren weist vorzugsweise einen Lernmodus und einen Arbeitsmodus auf. Insbesondere ist eine die Signale des Bildsensors verarbeitende Auswertevorrichtung zwischen diesen beiden Betriebsarten, d. h. dem Lernmodus und dem Arbeitsmodus, umschaltbar. Während des Lernmodus wird zumindest ein Referenzbild, z. B. die Aufnahme zumindest von einem einzelnen Druckbogen, pixelweise geprüft und die durch das Referenzbild erzeugten Ausgangssignale der beiden Gegenfarbkanäle als ein einen Sollwert bildendes zweites elektrisches Signal in einem Datenspeicher gespeichert. Konkret bedeutet das, dass ein Signal-Vektor des Referenzbildes in z. B. drei Signalkanälen bereitgestellt wird, dass die in jedem Signalkanal bereitgestellten Teile des Signal- Vektors empfindungsgemäß angepasst werden und dass diese Teile anschließend entsprechend dem Gegenfarbmodell miteinander verknüpft werden. Die Ausgangssignale jedes Gegenfarbkanals werden dann pixelweise im Datenspeicher gespeichert. Im nachfolgenden Arbeitsmodus werden dann die durch ein zu prüfendes Farbbild erzeugten Ausgangssignale des entsprechenden Pixel mit den entsprechenden im Datenspeicher jeweils als Sollwert gespeicherten Werten verglichen und sodann wird eine Klassifikationsentscheidung getroffen.The method preferably has a learning mode and a working mode. In particular, an evaluation device processing the signals of the image sensor can be switched between these two operating modes, ie the learning mode and the working mode. At least one reference image, e.g. B. the Recording of at least one individual printed sheet, checked pixel by pixel and the output signals of the two counter-color channels generated by the reference image are stored in a data memory as a second electrical signal forming a setpoint. Specifically, this means that a signal vector of the reference image in z. B. three signal channels is provided, that the parts of the signal vector provided in each signal channel are adjusted according to the sensation and that these parts are then linked to one another in accordance with the counter-color model. The output signals of each counter color channel are then stored pixel by pixel in the data memory. In the subsequent working mode, the output signals of the corresponding pixel generated by a color image to be checked are then compared with the corresponding values stored in the data memory as the desired value, and a classification decision is then made.
Um zulässige Farbschwankungen des Farbbildes wie auch Schwankungen der Bedingungen bei der Bildaufnahme zu berücksichtigen, ist es sinnvoll, wenn die im Datenspeicher gespeicherten Werte durch mehrere Referenzdatensätze gebildet werden, sodass für jeden Wert im Datenspeicher ein zulässiges Toleranzfenster festgelegt wird, innerhalb dessen ein bei der Bildprüfung erzeugter Ausgangssignalwert eines Gegenfarbkanals schwanken darf. Der Sollwert des Ausgangssignals eines Gegenfarbkanals kann hierbei beispielsweise durch arithmetische Mittelwertbildung der Einzelwerte ermittelt werden, wobei sich die Einzelwerte aus den Referenzdatensätzen ergeben. Das Toleranzfenster kann beispielsweise durch die Minimal- und Maximalwerte oder durch die Standardabweichung der durch die untersuchten Referenzbilder erzeugten Ausgangssignale der Gegenfarbkanäle jedes Pixel festgelegt werden.In order to take into account permissible color fluctuations in the color image as well as fluctuations in the conditions during image acquisition, it makes sense if the values stored in the data memory are formed by several reference data records, so that an allowable tolerance window is defined for each value in the data memory, within which one is used during image verification generated output signal value of a counter color channel may fluctuate. The target value of the output signal of a counter-color channel can be determined, for example, by arithmetic averaging of the individual values, the individual values resulting from the reference data sets. The tolerance window can be determined, for example, by the minimum and maximum values or by the standard deviation of the output signals of the counter-color channels of each pixel generated by the examined reference images.
Das Verfahren zur Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen verläuft vorzugsweise in folgenden wesentlichen Verfahrensschritten: Merkmalsbildung, Fuzzyfizierung, Interferenz, Defuzzyfizierung und Entscheidung über eine Klassenzugehörigkeit. Bei der Merkmalsbildung wird das vom Bildsensor bereitgestellte erste elektrische Signal mittels zumindest einer Rechenvorschrift in ein translationsinvariantes Signal in einem Merkmalsraum überführt. Ziel der Merkmalsbildung ist es, solche Größen zu bestimmen, durch welche typische Signaleigenschaften des Farbbildes charakterisiert werden. Die typischen Signaleigenschaften des Farbbildes werden durch sogenannte Merkmale repräsentiert. Die Merkmale können hierbei durch Werte im Merkmalsraum oder durch linguistische Variablen repräsentiert werden. Durch Überführung des ersten elektrischen Signals in den Merkmalsraum entsteht ein Signal, welches aus einem Merkmalswert oder aus mehreren Merkmalswerten besteht.The method for checking the identification feature for its belonging to a specific class of identification features preferably proceeds in the following essential procedural steps: feature formation, fuzzification, interference, defuzzification and decision about a class affiliation. During the feature formation, the first electrical signal provided by the image sensor is converted into a translation-invariant signal in a feature space by means of at least one calculation rule. The aim of the feature formation is to determine such quantities by which typical signal properties of the color image are characterized. The typical signal properties of the color image are represented by so-called features. The characteristics can be represented by values in the characteristics space or by linguistic variables. By transferring the first electrical signal into the feature space, a signal is created which consists of one or more feature values.
Die Zugehörigkeit eines Merkmalswerts zu einem Merkmal wird durch zumindest eine unscharfe Zugehörigkeitsfunktion beschrieben. Hierbei handelt es sich um eine weiche oder auch unscharfe Zuordnung, wobei abhängig vom Wert des Merkmalswerts die Zugehörigkeit des Merkmalswerts zum Merkmal in einem normierten Intervall zwischen 0 und 1 vorliegt Das Konzept der Zugehörigkeitsfunktion führt dazu, dass ein Merkmalswert nicht mehr entweder ganz oder gar nicht einem Merkmal zuordenbar ist, sondern vielmehr eine Fuzzyzugehörigkeit annehmen kann, welche zwischen den Bool'schen Wahrheitswerten 1 und 0 liegt. Den eben beschriebenen Schritt nennt man Fuzzyfizierung. Bei der Fuzzyfizierung findet also im Wesentlichen eine Umwandlung eines scharfen Merkmalswerts in eine oder mehrere unscharfe Zugehörigkeiten statt.The affiliation of a feature value to a feature is described by at least one fuzzy affiliation function. This is a soft or fuzzy assignment, whereby depending on the value of the characteristic value, the characteristic value belongs to the characteristic in a standardized interval between 0 and 1. The concept of the membership function means that a characteristic value is no longer either completely or not at all can be assigned to a characteristic, but rather can assume a fuzzy membership which lies between the Boolean truth values 1 and 0. The step just described is called fuzzification. In fuzzification, therefore, a sharp feature value is essentially converted into one or more fuzzy affiliations.
Bei der Interferenz wird mittels einer Berechnungsvorschrift, welche zumindest aus einer Regel besteht, eine übergeordnete Zugehörigkeitsfunktion generiert, wobei alle Zugehörigkeitsfunktionen miteinander verknüpft werden. Im Ergebnis erhält man somit für jedes Fenster eine übergeordnete Zugehörigkeitsfunktion.In the case of interference, a superordinate membership function is generated by means of a calculation rule which consists of at least one rule, all membership functions being linked to one another. The result is a higher-level membership function for each window.
Bei der Defuzzyfizierung wird aus der in der Interferenz gebildeten übergeordneten Zugehörigkeitsfunktion ein Zahlenwert ermittelt, der auch Sympathiewert genannt wird. Bei der Entscheidung über die Klassenzugehörigkeit findet ein Vergleich des Sympathiewertes mit einem vorher festgelegten Schwellwert statt, anhand dessen die Zugehörigkeit des Fensters zu einer bestimmten Klasse entschieden wird. In diesem Fall bildet der Schwellwert einen weiteren, im zweiten elektrischen Signal enthaltenen Sollwert.In defuzzification, a numerical value is determined from the superordinate membership function formed in the interference, which is also called the sympathy value. When deciding on the class affiliation, a comparison of the sympathy value with a predetermined threshold takes place, on the basis of which the affiliation of the window to a particular class is decided. In this case, the threshold value forms a further setpoint contained in the second electrical signal.
Welcher Art die Merkmalswerte im Merkmalsraum sind, ist für den prinzipiellen Ablauf des Verfahrens von untergeordneter Bedeutung. So können beispielsweise bei Zeitsignalen deren Mittelwert oder Varianz als Merkmalswerte bestimmt werden. Wird an das Verfahren zur Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen die Anforderung gestellt, dass es die Farbbilder unabhängig von der jeweils vorherrschenden Signalintensität fehlerfrei bearbeiten soll und sollen des Weiteren kleine, aber zulässige Schwankungen des Farbbildes nicht zu Störungen führen, so ist es sinnvoll, wenn die Umwandlung des ersten elektrischen Signals aus dem zweidimensionalen Ortsraum mittels einer zweidimensionalen Spektraltransformation durchgeführt wird. Beispiele für eine geeignete Spektraltransformation sind eine jeweils zweidimensionale Fourier-, Walsh-, Hadamard- oder Zirkulartransformation. Durch die zweidimensionale Spektraltransformation erhält man translationsinvariante Merkmalswerte. Vorzugsweise wird der Betrag der durch eine Spektraltransformation gewonnenen Spektralkoeffizienten als Merkmalswert verwendet.The type of the characteristic values in the characteristic space is of minor importance for the basic sequence of the procedure. In the case of time signals, for example, their mean value or variance can be determined as characteristic values. If the method for checking the identification feature for its belonging to a certain class of identification features is subject to the requirement that it should process the color images without errors, regardless of the prevailing signal intensity, and furthermore small but permissible fluctuations in the color image should not lead to interference, it makes sense if the conversion of the first electrical signal from the two-dimensional space is carried out by means of a two-dimensional spectral transformation. Examples of a suitable spectral transformation are a two-dimensional Fourier, Walsh, Hadamard or circular transformation. The two-dimensional spectral transformation gives translationally invariant feature values. The amount of the spectral coefficients obtained by a spectral transformation is preferably used as the feature value.
Vorzugsweise sind die Zugehörigkeitsfunktionen unimodale Potentialfunktionen. Die übergeordnete Zugehörigkeitsfunktion ist vorzugsweise eine multimodale Potentialfunktion.The membership functions are preferably unimodal potential functions. The higher-level membership function is preferably a multimodal potential function.
Es ist vorteilhaft, zumindest eine Zugehörigkeitsfunktion zu parametrisieren. Weist die Zugehörigkeitsfunktion positive und negative Steigungen auf, so ist es vorteilhaft, wenn die Parameter der positiven und negativen Steigung getrennt bestimmt werden können. Dadurch wird eine bessere Anpassung der Parameter an die zu untersuchenden Datensätze gewährleistet.It is advantageous to parameterize at least one membership function. If the membership function has positive and negative slopes, it is advantageous if the parameters of the positive and negative slopes can be determined separately. This will result in a better adaptation of the parameters to those to be examined Guaranteed records.
Vorzugsweise wird auch das Verfahren zur Prüfung eines Erkennungsmerkmals der Drucksache auf eine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen wiederum in zwei unterschiedliche Betriebsarten unterteilt, nämlich in einen Lernmodus und einen Arbeitsmodus. Sind die Zugehörigkeitsfunktionen parametrisiert, so können im Lernmodus aus gemessenen Datensätzen die Parameter der Zugehörigkeitsfunktion ermittelt werden. Im Lernmodus werden die Parameter der Zugehörigkeitsfunktionen an sogenannte Referenzbilder angeglichen, d. h. im Lernmodus wird eine Zugehörigkeit der Merkmalswerte, die sich aus den Referenzbildern ergeben, zu den entsprechenden Merkmalen mittels der Zugehörigkeitsfunktionen und deren Parametern hergeleitet. Im nachfolgenden Arbeitsmodus werden die Merkmalswerte, die sich aus den anschließend gemessenen Datensätzen ergeben, mit den Zugehörigkeitsfunktionen, deren Parameter im Lernmodus ermittelt wurden, gewichtet, wodurch eine Zugehörigkeit der Merkmalswerte der nun gemessenen Datensätze zu den entsprechenden Merkmalen hergestellt wird. Durch die Unterteilung des Verfahrens in einen Lernmodus und einen Arbeitsmodus werden also die Parameter der Zugehörigkeitsfunktionen anhand von gemessenen Referenzdatensätzen ermittelt. Im Arbeitsmodus werden die zu prüfenden Datensätze mit den -im Lernmodus festgelegten Zugehörigkeitsfunktionen gewichtet und bewertet.Preferably, the method for checking a recognition feature of the printed matter for belonging to a certain class of recognition features is again subdivided into two different operating modes, namely a learning mode and a working mode. If the membership functions are parameterized, the parameters of the membership function can be determined in the learning mode from measured data records. In the learning mode, the parameters of the membership functions are matched to so-called reference images. H. In the learning mode, an association of the feature values, which result from the reference images, with the corresponding features is derived by means of the membership functions and their parameters. In the subsequent working mode, the characteristic values that result from the subsequently measured data sets are weighted with the membership functions, the parameters of which were determined in the learning mode, whereby the characteristic values of the now measured data sets are associated with the corresponding characteristics. By dividing the method into a learning mode and a working mode, the parameters of the membership functions are determined on the basis of measured reference data records. In the working mode, the data records to be checked are weighted and evaluated with the membership functions defined in the learning mode.
Des Weiteren ist vorzugsweise zumindest eine Regel, mittels der die Zugehörigkeitsfunktionen miteinander verknüpft werden, eine konjunktive Regel im Sinne einer WENN ... DANN-Verknüpfung.Furthermore, at least one rule by means of which the membership functions are linked to one another is preferably a conjunctive rule in the sense of an IF ... THEN link.
Vorzugsweise ist die Generierung der übergeordneten unscharfen Zugehörigkeitsfunktion in folgende Teilschritte unterteilt: Prämissenauswertung, Aktivierung und Aggregation. Bei der Prämissenauswertung wird für jeden WENN-Teil einer Regel ein Zugehörigkeitswert bestimmt und bei der Aktivierung eine Zugehörigkeitsfunktion für jede WENN ... DANN- Regel festgelegt. Nachfolgend wird bei der Aggregation die übergeordnete Zugehörigkeitsfunktion durch Überlagerung aller bei der Aktivierung erzeugten Zugehörigkeitsfunktionen generiert.The generation of the higher-level fuzzy membership function is preferably divided into the following sub-steps: premise evaluation, activation and aggregation. In the premise evaluation, a membership value is determined for each IF part of a rule and, when activated, a membership function for each IF ... THEN- Rule set. Subsequently, the superordinate membership function is generated during the aggregation by superimposing all membership functions generated during activation.
Es ist vorteilhaft, die Sympathiewertermittlung insbesondere nach einer Schwerpunktsund/oder Maximum methode durchzuführen.It is advantageous to carry out the sympathy assessment in particular according to a focus and / or maximum method.
Die Prüfung des Erkennungsmerkmals auf eine bestimmte geometrische Kontur und/oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials beruht auf dem Grundgedanken, bei der Auswertung eines positionsvarianten Erkennungsmerkmals, bei dem die optischen Eigenschaften, beispielsweise das Reflektionsvermögen, zur ausreichend zuverlässigen Identifizierung nicht ausreicht, zusätzlich bekannte Informationen über dieses Erkennungsmerkmal in die Auswertung einfließen zu lassen. Als Prämisse wird dabei angenommen, dass sich das Positionsvariante Erkennungsmerkmal, beispielsweise ein farbiger Fensterfaden, zumindest in Teilbereichen in den optischen Eigenschaften, beispielsweise im Grauwert, so weit vom sonstigen zu inspizierenden Material, z. B. dem das Erkennungsmerkmal umgebenden Druckbild unterscheidet, dass zumindest keine vollständige Übereinstimmung zwischen dem Erkennungsmerkmal und dem Druckbild besteht. Somit werden zur Positionsbestimmung des positionsvarianten Erkennungsmerkmals zusätzliche Informationen über die an sich bekannte geometrische Kontur des Erkennungsmerkmals oder die relative Anordnung mehrerer im Druckbild vorhandener Erkennungsmerkmale ausgewertet. Diese zusätzlichen Informationen werden dabei in einer zu jedem auszuwertenden Material im Datenspeicher als Maskensollwerte gespeicherten Masken referenz hinterlegt, die die geometrischen Daten in geeigneter Form repräsentiert.The testing of the recognition feature for a specific geometric contour and / or for a relative arrangement to at least one further recognition feature of the material is based on the basic idea when evaluating a position-variant recognition feature in which the optical properties, for example the reflectivity, do not provide sufficiently reliable identification is sufficient to include known information about this identifier in the evaluation. It is assumed as a premise that the position variant identification feature, for example a colored window thread, differs at least in partial areas in the optical properties, for example in the gray value, so far from the other material to be inspected, e.g. B. distinguishes the printed image surrounding the identification feature that there is at least no complete agreement between the identification feature and the printed image. In order to determine the position of the position-variant identification feature, additional information about the known geometric contour of the identification feature or the relative arrangement of several identification features present in the printed image is thus evaluated. This additional information is stored in a mask reference stored as mask setpoints for each material to be evaluated, which mask mask represents the geometric data in a suitable form.
Des Weiteren ist in dem Datenspeicher als Referenz ein Untergrundsollwert hinterlegt, der die optischen Eigenschaften des Druckbildes in zumindest einem Teil eines Umgebungsbereichs, der das Erkennungsmerkmal umgibt, repräsentiert. Der Untergrundsollwert muss sich in seinen optischen Eigenschaften zumindest geringfügig von den optischen Eigenschaften des zu identifizierenden Erkennungsmerkmals unterscheiden. Bei der Prüfung des Materials wird dann aus dem vom Bildsensor bereitgestellten aktuellen ersten elektrischen Signal und dem Untergrundsollwert ein ein Differenzbild darstellender Differenzwert zumindest für den Erwartungsbereich gebildet. Im Differenzbild werden im Wesentlichen alle Merkmale des Druckbildes durch Differenzbildung ausgeblendet, die in ihren optischen Eigenschaften dem Untergrundsollwert entsprechen. Nur positionsvariante Bereiche des Erkennungsmerkmals und auch anderer Elemente, wie Druckfehler oder Kantenabweichungen, werden aufgrund ihrer Abweichung gegenüber dem Hintergrundreferenzwert im Differenzbild abgebildet, wobei die Bereiche des positionsvarianten Erkennungsmerkmals besonders hohe Amplituden aufweisen.Furthermore, a background setpoint is stored in the data memory as a reference, which sets the optical properties of the print image in at least part of one Surrounding area, which surrounds the identifier, represents. In terms of its optical properties, the background setpoint must differ at least slightly from the optical properties of the identification feature to be identified. When the material is checked, the current first electrical signal provided by the image sensor and the background setpoint are then used to form a difference value representing a difference image, at least for the expected range. In the difference image, essentially all features of the print image are faded out, the optical properties of which correspond to the background setpoint. Due to their deviation from the background reference value, only position-variant regions of the identification feature and also other elements, such as printing errors or edge deviations, are depicted in the difference image, the regions of the position-variant identification feature having particularly high amplitudes.
Sobald die Differenzwerte vorliegen, werden die Differenzwerte mit den Maskensollwerten der Maskenreferenz verglichen und aus dem Ergebnis des Vergleichs auf die aktuelle Position des Erkennungsmerkmals zurückgeschlossen. Diesem Verfahrensschritt liegt die Überlegung zugrunde, dass das Differenzbild im Wesentlichen durch die Abbildung des positionsvarianten Erkennungsmerkmals bestimmt ist, sodass aus einer weitgehenden Überdeckung zwischen Masken referenz und Differenzbild auf die tatsächliche Position des positionsvarianten Erkennungsmerkmals zurückgeschlossen werden kann. Lässt sich aufgrund anderer Fehlereinflüsse keine ausreichende Überdeckung zwischen Maskensollwerten und Differenzwerten ermitteln, so ist dies unschädlich, da dies z. B. lediglich zu einer Fehleranzeige bei der Druckbildkontrolle und zur Ausschleusung des entsprechenden Druckbogens führt.As soon as the difference values are available, the difference values are compared with the mask setpoints of the mask reference and the current position of the identification feature is inferred from the result of the comparison. This method step is based on the consideration that the difference image is essentially determined by the depiction of the position-variant identification feature, so that the actual position of the position-variant identification characteristic can be inferred from extensive overlap between mask reference and difference image. If it is not possible to determine sufficient overlap between mask setpoints and difference values due to other error influences, this is harmless. B. only leads to an error display in the print image control and to the removal of the corresponding printed sheet.
Vorzugsweise werden die Bereiche des Druckbildes, die sich aus der aktuellen Position des Erkennungsmerkmals ergeben, bei der nachfolgenden qualitativen Beurteilung des Materials ausgeblendet, sodass Störungen in der Prüfung des Druckbildes durch die Positionsvariante Anordnung des Erkennungsmerkmals ausgeschlossen sind.The areas of the printed image that result from the current position of the identification feature are preferably hidden during the subsequent qualitative assessment of the material, so that interference in the examination of the printed image by the Position variant arrangement of the identifier are excluded.
Die Erkennung des positionsvarianten Erkennungsmerkmals kann bei der Durchführung dieses Verfahrens noch dadurch verbessert werden, dass im Datenspeicher eine Binarisierungsschwelle hinterlegt ist. Nachdem aus dem aktuellen ersten elektrischen Signal und dem Untergrundsollwert das Differenzbild gebildet wurde, können aus dem Differenzbild alle Bilddaten ausgefiltert werden, deren Werte unterhalb der Binarisierungsschwelle liegen. D. h. im Differenzbild bleiben nur solche Bildpunkte erhalten, die sich ausreichend signifikant vom übrigen Druckbild unterscheiden, sodass die meist anderen Abweichungen, beispielsweise Druckfehler oder Kantenabweichungen, aus dem Differenzbild ausgeblendet werden können.The recognition of the position-variant recognition feature can be improved when this method is carried out by storing a binarization threshold in the data memory. After the difference image has been formed from the current first electrical signal and the background setpoint, all image data whose values are below the binarization threshold can be filtered out from the difference image. I.e. Only those image points are preserved in the difference image that differ sufficiently significantly from the rest of the print image so that the usually other deviations, for example printing errors or edge deviations, can be hidden from the difference image.
Bei der Positionsfindung des positionsvarianten Erkennungsmerkmals im aktuellen Druckbild kann derart vorgegangen werden, dass die Maskenreferenz so lange verschoben wird, bis sich eine maximale Überdeckung zwischen Maskenreferenz und Differenzbild ergibt. Dabei können verschiedene mathematische Bewertungsverfahren eingesetzt werden, um die Überdeckung zwischen Maskenreferenz und Differenzbild zu bewerten und um das entsprechende Überdeckungsmaximum zu finden. Selbstverständlich ist es möglich, die Überdeckung durch optische Betrachtung eines ausreichend geschulten Prüfpersonal beurteilen zu lassen, was jedoch aufgrund der hohen Personal kosten und der geringen Verarbeitungsgeschwindigkeit in den meisten Fällen nicht ausreichend wirtschaftlich ist. Deshalb soll die Berechnung der Überdeckung zwischen Differenzbild und Maskenreferenz unter Verwendung geeigneter mathematischer Operationen möglichst mit Methoden der elektronischen Datenverarbeitung erfolgen.When determining the position of the position-variant identification feature in the current print image, the procedure can be such that the mask reference is shifted until a maximum overlap between the mask reference and the difference image results. Various mathematical evaluation methods can be used to evaluate the coverage between the mask reference and the difference image and to find the corresponding coverage maximum. Of course, it is possible to have the overlap assessed by visual inspection of a sufficiently trained test staff, but this is in most cases not economical due to the high personnel costs and the low processing speed. For this reason, the overlap between the difference image and the mask reference should be calculated using suitable mathematical operations, if possible using electronic data processing methods.
Eine Möglichkeit zur Bewertung der Überdeckung zwischen der Maskenreferenz und dem Differenzbild besteht darin, dass entsprechend der optischen Verteilung der Bildpunkte im Differenzbild Schwerpunkte berechnet werden und diese Schwerpunkte mit dem Schwerpunkt der Maskenreferenz verglichen werden. Eine maximale Überdeckung ergibt sich dann, wenn die Summe der Schwerpunktdifferenzen zwischen Maskenreferenz und Differenzbild minimiert ist.One way of evaluating the overlap between the mask reference and the difference image consists in calculating centers of gravity in accordance with the optical distribution of the pixels in the difference image and these centers of gravity with the Focus of the mask reference. A maximum coverage occurs when the sum of the center of gravity differences between the mask reference and the difference image is minimized.
Voraussetzung für die Durchführung des Verfahrens zur Prüfung des Erkennungsmerkmals auf eine bestimmte geometrische Kontur und/oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials ist die Hinterlegung eines geeigneten Untergrundsollwertes im Datenspeicher. Grundsätzlich kann der Untergrundsollwert einfach als ein Verfahrensparameter vorgegeben werden, beispielsweise ausgehend von einem oder mehreren Erfahrungswerten. Es ist jedoch vorteilhaft, wenn der Untergrundsollwert abhängig vom jeweiligen Druckbild des zu prüfenden Materials spezifisch in einem Lernmodus festgelegt wird. Dazu werden nachfolgend zwei Alternativen angegeben.A prerequisite for carrying out the method for checking the identification feature for a specific geometric contour and / or for a relative arrangement to at least one other identification feature of the material is the storage of a suitable background setpoint in the data memory. In principle, the underground setpoint can simply be specified as a process parameter, for example based on one or more empirical values. However, it is advantageous if the background setpoint is specifically determined in a learning mode depending on the respective print image of the material to be tested. Two alternatives are given below.
Nach der ersten Alternative zur Festlegung des Untergrundsollwertes wird im Lernmodus Referenzmaterial verwendet, das das positionsvariante Erkennungsmerkmal nicht enthält. Beispielsweise können dazu mit Banknoten oder Wertmarken bedruckte Druckbogen verwendet werden, bei denen der Fensterfaden nicht vorhanden ist. Durch Auswertung dieses Referenzmaterials ohne Erkennungsmerkmal kann der Untergrundsollwert abgeleitet werden.After the first alternative for determining the underground setpoint, reference material is used in the learning mode that does not contain the position-variant identification feature. For example, printed sheets with banknotes or tokens can be used for which the window thread is not present. The underground setpoint can be derived by evaluating this reference material without a distinguishing feature.
Steht ein Referenzmaterial ohne Erkennungsmerkmal nicht zur Verfügung, kann der Lernmodus auch mit Referenzmaterial, das das positionsvarianten Erkennungsmerkmal enthält, durchgeführt werden. Treten bei der Auswertung des Druckbildes des Referenzmaterials die positionsvarianten Erkennungsmerkmale im Vergleich zum Umgebungsbereich hell hervor, so wird als Untergrundsollwert ein Schwellwert gewählt, der den Werten der dunkelsten Bildpunkte des Erkennungsmerkmals entspricht. Bei der späteren Prüfung des Materials wird dann ausgehend von dem Schwellwert angenommen, dass zumindest im Erwartungsbereich alle Bildpunkte, die dunkler als der Untergrundsollwert sind, nicht zum positionsvarianten Erkennungsmerkmal gehören. Tritt das Erkennungsmerkmal dagegen im Vergleich zum Umgebungsbereich dunkel hervor, wird als Untergrundsollwert ein Schwellwert gewählt, dessen Wert den hellsten Bildpunkten des Erkennungsmerkmals entspricht.If a reference material without an identification feature is not available, the learning mode can also be carried out with reference material that contains the position-variant identification feature. If, when evaluating the printed image of the reference material, the position-variant identification features appear bright in comparison to the surrounding area, then a threshold value is selected as the background setpoint which corresponds to the values of the darkest pixels of the identification feature. When the material is subsequently checked, it is then assumed, based on the threshold value, that at least in the expected range, all pixels that are darker than the Are setpoint value, do not belong to the position-variant identification feature. If, on the other hand, the identification feature appears dark in comparison to the surrounding area, a threshold value is selected as the background setpoint, the value of which corresponds to the brightest pixels of the identification feature.
Soweit aufgrund der optischen Eigenschaften des Druckbildes erforderlich, ist es selbstverständlich möglich, für unterschiedliche Bereiche des Materials unterschiedliche Untergrundsollwerte zu definieren, damit das positionsvariante Erkennungsmerkmal im Differenzbild ausreichend signifikant abgebildet wird.Insofar as this is necessary due to the optical properties of the print image, it is of course possible to define different background setpoints for different areas of the material, so that the position-variant identification feature is represented sufficiently significantly in the difference image.
Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und werden im Folgenden näher beschrieben.Exemplary embodiments of the invention are shown in the drawings and are described in more detail below.
Es zeigen:Show it:
Fig. 1 ein Blockdiagramm mit für das Verfahren relevanten Funktionseinheiten;1 shows a block diagram with functional units relevant to the method;
Fig. 2 ein Blockdiagramm der Logikeinheit des Bildverarbeitungssystems;2 is a block diagram of the logic unit of the image processing system;
Fig. 3 Verfahrensschritte bei der Durchführung des Verfahrens zur Prüfung des Farbbildes auf eine Farbabweichung von einem Referenzbild;3 method steps in the implementation of the method for checking the color image for a color deviation from a reference image;
Fig. 4 schematische Darstellung des Verfahrens zur Prüfung von Farbabweichungen im aufgenommenen Farbbild mit einem Gegenfarbenmodell;4 shows a schematic representation of the method for checking color deviations in the recorded color image with a counter-color model;
Fig. 5 einen Ablaufplan des Lern- und Arbeitsmodus sowie der Klassifikation;5 shows a flow chart of the learning and working mode as well as the classification;
Fig. 6 ein Flussdiagramm des Verfahrens zur Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen; Fig. 7 ein schematisch dargestelltes Differenzbild in Ansicht von oben;6 shows a flowchart of the method for checking the identification feature for its belonging to a specific class of identification features; 7 shows a schematically represented difference image in a view from above;
Fig. 8 das Differenzbild gemäß Fig. 7 nach Durchführung einer Binarisierung;FIG. 8 shows the difference image according to FIG. 7 after binarization has been carried out;
Fig. 9 die Maskenreferenz zur Positionsbestimmung des positionsvarianten Erkennungsmerkmals im Differenzbild gemäß Fig. 8;9 shows the mask reference for determining the position of the position-variant identification feature in the difference image according to FIG. 8;
Fig. 10 die Überdeckung zwischen Differenzbild gemäß Fig. 8 und Maskenreferenz gemäß Fig. 9;FIG. 10 the overlap between the difference image according to FIG. 8 and the mask reference according to FIG. 9;
Fig. 11 eine zweite Maskenreferenz in schematisch dargestellter seitlicher Ansicht;11 shows a second mask reference in a schematically represented side view;
Fig. 12 ein zweites Differenzbild in schematisch dargestellter seitlicher Ansicht.12 shows a second difference image in a schematically represented side view.
Fig. 1 zeigt ein Blockdiagramm mit den Funktionseinheiten 06; 07; 08, die für das Verfahren zur qualitativen Beurteilung eines bedruckten Materials 19 mit mindestens einem Erkennungsmerkmal relevant sind. Eine Bildaufnahmeeinheit 01 , vorzugsweise eine Farbkamera 01 , die z. B. in oder an einer Druckmaschine oder einer eine Drucksache bearbeitenden Maschine ortsfest angebracht ist, sodass sie mit ihrem Bildsensor 02 Farbbilder des an der Farbkamera 01 vorbeibewegten, zu beurteilenden Materials 19 vorzugsweise im laufenden Druckprozess aufnehmen kann, ist an eine Auswertevorrichtung 03, d. h. einem Bildverarbeitungssystem 03, angeschlossen. Die von der Farbkamera 01 aufgenommenen, in der Auswertevorrichtung 03 ausgewerteten Bilddaten können bedarfsweise auf einem Farbmonitor 04 dargestellt werden, wobei der Farbmonitor 04 in oder an einem zur Druckmaschine gehörenden Leitstand angeordnet sein kann. Zur Eingabe von Parametern sowie zur Einstellung und Bedienung des Bildverarbeitungssystems 03 kann der Farbmonitor 04 Bedienelemente aufweisen oder mit solchen in Wirkverbindung stehen, indem der Farbmonitor 04 z. B. als ein sogenannter touchscreen ausgebildet ist und entsprechende Bedienmasken aufweist.1 shows a block diagram with the functional units 06; 07; 08, which are relevant for the method for the qualitative assessment of a printed material 19 with at least one identification feature. An image recording unit 01, preferably a color camera 01, the z. B. in or on a printing press or a machine processing a printed matter is fixed so that it can take color images of the material 19 moving past the color camera 01 to be assessed, preferably in the running printing process, with its image sensor 02, is to an evaluation device 03, ie one Image processing system 03, connected. If necessary, the image data recorded by the color camera 01 and evaluated in the evaluation device 03 can be displayed on a color monitor 04, the color monitor 04 being able to be arranged in or on a control station belonging to the printing press. The color monitor 04 can have control elements for entering parameters and for setting and operating the image processing system 03 are in active connection with them by the color monitor 04 z. B. is designed as a so-called touchscreen and has corresponding operating masks.
Die zur qualitativen Beurteilung des bedruckten Materials 19 durchgeführten Prüfverfahren sind, insbesondere wenn die Beurteilung zur Erhöhung der Prüfsicherheit auf einer Prüfung mehrerer Kriterien beruhen soll, in Verbindung mit der Auswertevorrichtung 03 in z. B. drei parallelen Signalpfaden dargestellt, wobei die Prüfvorgänge in den jeweiligen Signalpfaden vorzugsweise in derselben Auswertevorrichtung 03 unabhängig voneinander ablaufen. Die Prüfungen laufen vorzugsweise zumindest in etwa zeitgleich ab, d. h. die Prüfvorgänge starten zumindest zum selben Zeitpunkt. Die Prüfvorgänge können beginnen, nachdem die mindestens zwei Betriebsarten aufweisende Auswertevorrichtung 03 von ihrem Lernmodus 48 (Fig. 5) in ihren Arbeitsmodus 49 (Fig. 5) gewechselt ist. Je ein Signalpfad betrifft in dem hier beschriebenen Beispiel eine Funktionseinheit 06 zur Prüfung zumindest des Farbbildes vom Erkennungsmerkmal auf eine Farbabweichung vom Referenzbild, eine Funktionseinheit 07 zur Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen und eine Funktionseinheit 08 zur Prüfung des Erkennungsmerkmals auf eine bestimmte geometrische Kontur oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials 19, wobei jede Prüfung einen an einer im jeweiligen Signalpfad vorgesehenen Vergleichsstelle 11 ; 12; 13 durchgeführten Vergleich des vom Bildsensor 02 der Farbkamera 01 bereitgestellten und geeignet aufbereiteten ersten Signals 09 mit einem jeweils geeignet festgelegten Sollwert 16; 17; 18 einschließt, wobei die Sollwerte 16; 17; 18 in einem zur Auswertevorrichtung 03 gehörenden Datenspeicher 14 gespeichert sind. Die jeweiligen Prüfungsergebnisse in den einzelnen Signalpfaden werden wieder an die Auswertevorrichtung 03 zwecks dortiger Speicherung gemeldet.The test methods carried out for the qualitative assessment of the printed material 19 are, in particular if the assessment to increase the reliability of the test is to be based on a test of several criteria, in connection with the evaluation device 03 in e.g. B. three parallel signal paths are shown, the test processes in the respective signal paths preferably taking place independently of one another in the same evaluation device 03. The tests preferably run at least approximately at the same time, i. H. the test processes start at least at the same time. The test processes can begin after the evaluation device 03 having at least two operating modes has changed from its learning mode 48 (FIG. 5) to its working mode 49 (FIG. 5). In the example described here, each signal path relates to a functional unit 06 for checking at least the color image of the identification feature for a color deviation from the reference image, a functional unit 07 for checking the identification feature for its belonging to a specific class of identification features and a functional unit 08 for checking the identification feature a specific geometric contour or a relative arrangement to at least one further identification feature of the material 19, with each test using a comparison point 11 provided in the respective signal path; 12; 13 carried out comparison of the first signal 09 provided and suitably prepared by the image sensor 02 of the color camera 01 with a respectively suitably defined target value 16; 17; 18 includes, the setpoints 16; 17; 18 are stored in a data memory 14 belonging to the evaluation device 03. The respective test results in the individual signal paths are again reported to the evaluation device 03 for the purpose of storage there.
Die für das Verfahren zur qualitativen Beurteilung eines bedruckten Materials 19 mit mindestens einem Erkennungsmerkmal relevanten Funktionseinheiten 06; 07; 08 können auch in einer das Material 19 verarbeitenden Maschine implementiert sein, wobei diese Maschine z. B. einer Druckmaschine, vorzugsweise einer Bogendruckmaschine, insbesondere einer Bogenrotationsdruckmaschine, vorzugsweise nachgeordnet, aber auch vorgeordnet sein kann. Das Material 19, d. h. ein z. B. mehrere Erkennungsmerkmale aufweisender Druckbogen 19, wird in der Bogendruckmaschine mit einer Geschwindigkeit von z. B. 18.000 oder mehr Bogen pro Stunde bedruckt und/oder anschließend mit dieser Geschwindigkeit in der die Druckbogen 19 verarbeitenden Maschine weiter verarbeitet. Im Fall der Ausbildung des Materials 19 als eine Materialbahn 19 kann die Druckgeschwindigkeit oder die Weiterverarbeitungsgeschwindigkeit z. B. 15 m/s oder mehr betragen.The functional units 06; relevant for the method for the qualitative assessment of a printed material 19 with at least one identification feature; 07; 08 can can also be implemented in a machine processing the material 19, this machine e.g. B. a printing press, preferably a sheet-fed printing press, in particular a sheet-fed rotary printing press, preferably arranged downstream, but can also be arranged upstream. The material 19, ie a z. B. multiple identification features printed sheet 19 is in the sheet printing machine at a speed of z. B. printed 18,000 or more sheets per hour and / or then further processed at this speed in the printing sheet 19 processing machine. In the case of the formation of the material 19 as a material web 19, the printing speed or the further processing speed z. B. 15 m / s or more.
Obwohl die Prüfvorgänge zur Beurteilung der Qualität des durch die Druckmaschine oder die das Material 19 verarbeitenden Maschine rechenintensiv und die Bewegungsgeschwindigkeit des Materials 19 hoch sind, wird mit dem vorgeschlagenen Verfahren eine zuverlässige Beurteilung erzielt. Da die für das Verfahren zur qualitativen Beurteilung eines bedruckten Materials 19 mit mindestens einem Erkennungsmerkmal relevanten Funktionseinheiten 06; 07; 08 in oder an der Druckmaschine oder der das Material 19 verarbeitenden Maschine angeordnet sind, sind der Ort der Bereitstellung des Referenzsignals und der Ort der Prüfung identisch. Das Farbbild und sein Referenzbild können mit denselben Funktionseinheiten 06: 07: 08, insbesondere mit derselben Farbkamera 01 , am selben Ort aufgenommen und in derselben Auswertevorrichtung 03 ausgewertet werden.Although the testing processes for assessing the quality of the printing machine or the machine processing the material 19 are computationally intensive and the speed of movement of the material 19 are high, a reliable assessment is achieved with the proposed method. Since the functional units 06; relevant for the method for the qualitative assessment of a printed material 19 with at least one identification feature; 07; 08 are arranged in or on the printing press or the machine processing the material 19, the location of the provision of the reference signal and the location of the test are identical. The color image and its reference image can be recorded with the same functional units 06: 07: 08, in particular with the same color camera 01, at the same location and evaluated in the same evaluation device 03.
Fig. 2 zeigt in einem vereinfachten Blockdiagramm ein Beispiel für die elektronische Logikeinheit des Bildverarbeitungssystems 03. Die z. B. mit nur 1 ,8 V oder 3,3 V spannungsversorgte Logikeinheit ist als ein einziger feldprogrammierbarer Logikschaltkreis mit mehreren konfigurierbaren Logikblöcken ausgebildet, wobei die Logikeinheit in ihren Logikblöcken den gesamten Bildvergleich ausführt und die Qualität der Drucksache beurteilt. Derartige feldprogrammierbare Logikschaltkreise werden auch gemäß ihrer englischsprachigen Benennung als Field Prograrrfmable Gate Array mit der Abkürzung FPGA bezeichnet. Ein FPGA weist vorzugsweise eine Matrixstruktur aus Logikblöcken auf, wobei in dem FPGA z. B. 20.000 oder sogar 50.000 Logikblöcke jeweils mit frei konfigurierbaren Gattersystemen vorgesehen sind. Ein FPGA kann z. B. insgesamt mehr als 2 Millionen Gattersysteme aufweisen. Die Erstellung einer für die Konfiguration der Logikblöcke erforderlichen Software kann anhand einer Hardware- Beschreibungssprache, z. B. mit VHDL (very high speed integrated circuit hardware description language), erfolgen. Das FPGA hat eine innere Strukturbreite vorzugsweise von 0,25 μm oder weniger, z. B. 0,18 μm oder 0,15 μm, sodass sich dessen Strukturen im Bereich von weit unter 1 μm befinden. Das FPGA ist vorzugsweise mehrmals neu programmierbar, sodass das FPGA z. B. auch in der Lage ist, seine den Bildvergleich ausführende und die Qualität der Drucksache beurteilende Programmierung selbstkonfigurierend anzupassen. Aufgrund der Schnelligkeit des Ablaufs des Druckprozesses in der Druckmaschine muss das FPGA die zur Beurteilung der Qualität der Drucksache erforderlichen Prüfvorgänge innerhalb von weniger als 100 ms durchführen, um inline, d. h. im laufenden Druckprozess, zu einer qualifizierten Beurteilung zu kommen. Die im FPGA ablaufenden Prüfvorgänge sind vorzugsweise derart ausgestaltet, dass das FPGA bei einem Bildformat von 2048 x 1536 Pixel (d. h. mehr als 3 Mio. Pixel) für den gesamten Bildvergleich eine maximale Rechenzeit von weniger als 80 ms benötigt, wobei einzelne Prüfvorgänge wesentlich schneller ausgeführt werden. Auch wenn die Druckmaschine sequentiell eine Vielzahl von Exemplaren einer Drucksache produziert, beurteilt das FPGA die Qualität vorzugsweise jedes einzelnen im laufenden Produktionsprozess der Druckmaschine produzierten Exemplars. Die vom FPGA durchgeführte Beurteilung der Qualität des im laufenden Produktionsprozess der Druckmaschine produzierten Exemplars schließt ein, die Drucksache hinsichtlich mehrerer Kriterien zu prüfen, wobei die verschiedenen Prüfungen vorzugsweise in parallel verlaufenden Prüfvorgängen quasi gleichzeitig durchführt werden, wobei jeder der Prüfvorgänge die Drucksache hinsichtlich mindestens eines anderen Kriteriums beurteilt. Wie erwähnt, weist die Bildaufnahmeeinheit 01 einen Bildsensor 02 mit einer Vielzahl von einzelnen Bildpunkten (Pixel) auf, z. B. mehr als vier Millionen Pixel, wobei die Bildaufnahmeeinheit 01 die mit ihrem Bildsensor 02 aufgenommenen Bilddaten vorzugsweise bildpunktweise als digitale Daten z. B. mit einer Taktrate von 40 MHz oder mehr an das FPGA übergibt. Das FPGA weist zur Kommunikation mit der Bildaufnahmeeinheit 01 oder mit einer anderen Steuereinheit, z. B. einem zur Druckmaschine gehörenden Leitstand, die dafür erforderlichen Komponenten und Schnittstellen auf. So ist z. B. als Schnittstelle zu einer anderen Steuereinheit eine VME- Bus-Schnittstelle vorgesehen. Ein Eingang und Ausgang für einen Systembus ermöglicht z. B. den Austausch z. B. 32-Bit-breiter Daten mit der Bildaufnahmeeinheit 01. Über eine am FPGA ausgebildete Verbindungsschnittstelle können z. B. zwei FPGA's miteinander verschaltet werden. Überdies weist das FPGA einen Eingang zum Einlesen z. B. 32-Bit- breiter Daten aus einem Datenspeicher, z. B. einem SDRAM-Speicher, auf sowie einen Ausgang, um z. B. 32-Bit-breite Daten dort in diesem Datenspeicher ablegen zu können. Gleichfalls besitzt das FPGA jeweils mindestens einen SDRAM-Controller, einen SRAM- Controller und einen FIFO-Controller. Ein an das FPGA angeschlossener, vom FIFO- Controller gesteuerter FIFO-Speicher (first-in-first-out) wird z. B. zu einer Verzögerung oder Zwischenspeicherung einzelner von der Bildaufnahmeeinheit 01 aufgenommener Bildzeilen genutzt. Der FIFO-Speicher speichert z. B. 32 Zeilen mit einer Länge von 2048 Bildpunkten bei einer 8-Bit-Quantisierung. Ein an das FPGA angeschlossener, vom SRAM-Controller gesteuerter SRAM-Speicher dient zu einer Speicherung von Parametern, die zur Durchführung mindestens eines der Verfahren zur Beurteilung der Qualität der von der Druckmaschine produzierten Drucksache benötigt werden. Ein an das FPGA angeschlossener, vom SDRAM-Controller gesteuerter SDRAM-Speicher dient zu einer lokalen Bildspeicherung und Ablage von geometrischen Objekten, z. B. von ortsbezogenen Symbolen für eine Fehleranzeige. Das FPGA kann z. B. mit unterschiedlichen Eingangstakten betrieben werden. Vorzugsweise wird das FPGA jedoch derart betrieben, dass das Ergebnis aus mindestens einem der Verfahren zur Beurteilung der Qualität der von der Druckmaschine produzierten Drucksache nach insgesamt weniger als 10 μs, vorzugsweise nach etwa 6 μs, vorliegt.Fig. 2 shows a simplified block diagram of an example of the electronic logic unit of the image processing system 03. The z. B. with only 1, 8 V or 3.3 V voltage-supplied logic unit is designed as a single field-programmable logic circuit with several configurable logic blocks, the logic unit executing the entire image comparison in its logic blocks and assessing the quality of the printed matter. Such field programmable logic circuits are also referred to as the field programmable gate array with the abbreviation FPGA according to its English-language name. An FPGA preferably has a matrix structure made up of logic blocks. B. 20,000 or even 50,000 logic blocks are each provided with freely configurable gate systems. An FPGA can e.g. B. have a total of more than 2 million gate systems. The creation of a software required for the configuration of the logic blocks can be based on a hardware description language, eg. B. with VHDL (very high speed integrated circuit hardware description language). The FPGA has an internal structure width, preferably 0.25 μm or less, e.g. B. 0.18 μm or 0.15 μm, so that its structures are in the range of well below 1 μm. The FPGA is preferably reprogrammable several times, so that the FPGA z. B. is also able to self-configure its programming, which carries out the image comparison and assesses the quality of the printed matter. Due to the speed of the printing process in the printing press, the FPGA has to carry out the test processes required to assess the quality of the printed matter within less than 100 ms in order to arrive at a qualified assessment inline, ie during the printing process. The test processes running in the FPGA are preferably designed in such a way that the FPGA with a picture format of 2048 x 1536 pixels (ie more than 3 million pixels) requires a maximum computing time of less than 80 ms for the entire picture comparison, individual test processes being carried out much faster become. Even if the printing press sequentially produces a large number of copies of a printed matter, the FPGA preferably assesses the quality of each individual copy produced in the current production process of the printing press. The FPGA's assessment of the quality of the copy produced in the current production process of the printing press includes checking the printed matter with regard to several criteria, the various tests preferably being carried out simultaneously in quasi-parallel test processes, each of the test processes relating to the printed matter with respect to at least one other Criterion assessed. As mentioned, the image recording unit 01 has an image sensor 02 with a large number of individual pixels (z. B. more than four million pixels, the image recording unit 01, the image data recorded with its image sensor 02 preferably pixel by pixel as digital data z. B. with a clock rate of 40 MHz or more to the FPGA. The FPGA has for communication with the image acquisition unit 01 or with another control unit, for. B. a control station belonging to the printing press, the components and interfaces required for this. So z. B. a VME bus interface is provided as an interface to another control unit. An input and output for a system bus enables e.g. B. the exchange z. B. 32-bit-wide data with the image acquisition unit 01. Via a connection interface formed on the FPGA, for. B. two FPGAs are interconnected. In addition, the FPGA has an input for reading z. B. 32-bit-wide data from a data memory, for. B. an SDRAM memory, and an output to z. B. 32-bit data can be stored there in this data memory. Likewise, the FPGA each has at least one SDRAM controller, one SRAM controller and one FIFO controller. A connected to the FPGA, controlled by the FIFO controller FIFO memory (first-in-first-out) z. B. used to delay or temporarily store individual image lines captured by the image recording unit 01. The FIFO memory stores e.g. B. 32 lines with a length of 2048 pixels with an 8-bit quantization. An SRAM memory, which is connected to the FPGA and is controlled by the SRAM controller, serves to store parameters which are required to carry out at least one of the methods for assessing the quality of the printed matter produced by the printing press. A SDRAM memory connected to the FPGA and controlled by the SDRAM controller is used for local image storage and storage of geometric objects, e.g. B. location-based symbols for an error display. The FPGA can e.g. B. be operated with different input clocks. However, the FPGA is preferably operated in such a way that the result from at least one of the methods for Assessment of the quality of the printed matter produced by the printing press after a total of less than 10 μs, preferably after about 6 μs, is present.
Die schnelle Abarbeitung der Verfahrensschritte zur Beurteilung der Qualität der von der Druckmaschine produzierten Drucksache wird dadurch erreicht, dass das Verfahren in mehrere Verfahreπseinheiten unterteilt und jede Verfahrenseinheit als ein Makro, d. h. als ein aus einem zusammenhängenden Befehlssatz bestehender Programmteil, in einer zusammenhängenden Gruppe von Logikblöcken im FPGA programmiert wird, wobei die zu einer Gruppe zusammengefassten Logikblöcke jeweils von einem in einem Phasenregelkreis (PLL - phase-locked loop) stabilisierten Taktsignal getaktet werden. Beispielsweise wird das Verfahren zur Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen in die in Verbindung mit der Fig. 6 erläuterten Verfahrenseinheiten gegliedert, wobei jeder Verfahrenseinheit mindestens ein im Verfahren abzuarbeitender Verfahrensschritt zugeordnet ist. Durch die Implementierung von Verfahrenseinheiten jeweils in einer mit einem stabilisierten Taktsignal getakteten Gruppe von zusammengefassten Logikblöcken werden Zeitverzögerungen vermieden, die sonst durch eine Verteilung des Taktsignals an die vielen tausend Logikblöcke im FPGA entstehen, weil sich die Laufzeiten für das Taktsignal zu den einzelnen Logikblöcken infolge unterschiedlicher Leitungslängen unterscheiden. Innerhalb jedes Logikblockes weisen alle Leitungen für das Taktsignal vorzugsweise dieselbe Länge auf, sodass Laufzeitver∑ögerungen innerhalb eines Logikblockes vermieden werden. An einer Schnittstelle zwischen zwei Gruppen jeweils zusammengefasster Logikblöcke werden die Taktsignale der beiden Gruppen miteinander synchronisiert, z. B. mit Registern, die in den Signalfluss zwischen den beiden Gruppen zwischengeschaltet werden. In einem FPGA können z. B. mehr als 100 oder auch mehr als 1000 Gruppen von zusammengefassten Logikblöcken vorgesehen sein. Die zu einer Gruppe zusammengefassten Logikblöcke sind vorzugsweise miteinander verbunden. Weil das Verfahren zur Beurteilung der Qualität der von der Druckmaschine produzierten Drucksache innerhalb des FPGA in mindestens zwei Verfahrenseinheiten gegliedert und jede Verfahrenseinheit jeweils in zu einer Gruppe zusammengefassten Logikblöcken als ein Makro implementiert ist sowie alle Logikblöcke jeder Gruppe jeweils mit einem in einem Phasenregelkreis stabilisierten Taktsignal getaktet sind, entfällt die Notwendigkeit zur Aufstellung eines ansonsten sehr komplexen Signalflussplans für das Zeitverhalten des den FPGA taktenden Taktsignals. Das Taktsignal wird üblicherweise von einem im oder am FPGA angeordneten Oszillator erzeugt.The rapid processing of the process steps for assessing the quality of the printed matter produced by the printing press is achieved in that the process is divided into several process units and each process unit as a macro, ie as a program part consisting of a coherent instruction set, in a coherent group of logic blocks in the FPGA is programmed, the logic blocks combined into a group each being clocked by a clock signal stabilized in a phase locked loop (PLL - phase-locked loop). For example, the method for checking the identification feature for its belonging to a specific class of identification features is divided into the method units explained in connection with FIG. 6, with each method unit being assigned at least one method step to be processed in the method. The implementation of procedural units in each case in a group of combined logic blocks clocked with a stabilized clock signal avoids time delays that would otherwise occur due to a distribution of the clock signal to the many thousands of logic blocks in the FPGA, because the run times for the clock signal to the individual logic blocks differ as a result Differentiate cable lengths. Within each logic block, all lines for the clock signal preferably have the same length, so that delay delays within a logic block are avoided. At an interface between two groups of combined logic blocks, the clock signals of the two groups are synchronized with each other, e.g. B. with registers, which are interposed in the signal flow between the two groups. In an FPGA, e.g. B. more than 100 or more than 1000 groups of combined logic blocks can be provided. The logic blocks combined into a group are preferably connected to one another. Because the process for assessing the quality of the printed matter produced by the printing press within the FPGA is divided into at least two process units and Each process unit is implemented as a macro in logic blocks combined into a group and all logic blocks of each group are clocked with a clock signal stabilized in a phase-locked loop. This eliminates the need to set up an otherwise very complex signal flow diagram for the timing of the clock signal clocking the FPGA. The clock signal is usually generated by an oscillator arranged in or on the FPGA.
Zur qualitativen Beurteilung des bedruckten Materials 19 laufen im FPGA z. B. folgende Verfahrensschritte ab, die nun beispielhaft anhand der Fig. 3 bis 12 beschrieben werden.For the qualitative assessment of the printed material 19 run in the FPGA z. B. from the following process steps, which are now described by way of example with reference to FIGS. 3 to 12.
Mit der Farbkamera 01 wird ein Farbbild eines im Beobachtungsbereich 21 angeordneten, farbig bedruckten Materials 19 aufgenommen. Die Farbkamera 01 weist einen vorzugsweise als ein CCD-Chip 02 ausgebildeten Bildsensor 02 auf, der die im Beobachtungsbereich 21 erfassten Bildinformationen in elektronische Bilddaten umsetzt, die ein von der Farbkamera 01 bzw. dessen Bildsensor 02 bereitgestelltes erstes elektrisches, vorzugsweise digitales Signal 09 bilden. Bei dieser Umsetzung wird von jedem lichtempfindlichen Pixel des CCD-Chips 02 ein Signal-Vektor 22 generiert. Entsprechend der Anzahl der Pixel des CCD-Chips 02 werden von der Farbkamera 01 entsprechend viele, mit einem Zählindex kenntlich gemachte Signal-Vektoren 22 der Auswertevorrichtung 03 zur Weiterverarbeitung zur Verfügung gestellt.With the color camera 01, a color image of a color printed material 19 arranged in the observation area 21 is recorded. The color camera 01 has an image sensor 02, preferably designed as a CCD chip 02, which converts the image information acquired in the observation area 21 into electronic image data, which form a first electrical, preferably digital signal 09 provided by the color camera 01 or its image sensor 02. In this implementation, a signal vector 22 is generated from each light-sensitive pixel of the CCD chip 02. Corresponding to the number of pixels of the CCD chip 02, the color camera 01 provides a corresponding number of signal vectors 22, identified by a counting index, to the evaluation device 03 for further processing.
Jeder Signal-Vektor 22 weist vorzugsweise drei Koeffizienten R, G und B auf. Die Koeffizienten R, G und B entsprechen den Farbwerten der drei Signalkanäle Rot, Grün und Blau, wobei das von einem Pixel abgegebene vektorielle erste elektrische Signal 09 mit der aufgenommenen Farbe des bedruckten Materials 19 an der entsprechenden Position im Beobachtungsbereich 21 korreliert.Each signal vector 22 preferably has three coefficients R, G and B. The coefficients R, G and B correspond to the color values of the three signal channels red, green and blue, the vectorial first electrical signal 09 emitted by a pixel correlating with the recorded color of the printed material 19 at the corresponding position in the observation area 21.
Die Signal-Vektoren 22, deren Zählindex zur Beschreibung der Anordnung des jeweiligen Pixel auf dem CCD-Chip 02 dient, bilden Rohdaten für ein erstes Korrekturmodul 23 zur Anpassung der Farbbalance, der Helligkeit und des Kontrastes. Dazu wird jeder Koeffizient R; G; B des Signal-Vektors 22 mit einem signalkanalabhängigen Korrekturfaktor K^ K2, K3 multipliziert. Überdies wird zu dem daraus resultierenden Ergebnisvektor ein Korrekturvektor 24 mit den Festwertkoeffizienten a-i, a2 und a3 addiert. Durch diese Rechenoperation werden erste korrigierte Signal-Vektoren 26 erzeugt, die die Farbbalance, die Helligkeit und den Kontrast der Bilddaten verbessern. Dieses Ziel wird dadurch erreicht, dass die signalkanalabhängigen Korrekturfaktoren K^ K2 und K3 sowie die Koeffizienten a-i, a2 und a3 des Korrekturvektors 24 derart gewählt sind, dass bei Aufnahme der Referenzgrauwerte Schwarz und Weiß die dabei von der Farbkamera 01 erzeugten Signal-Vektoren 22 derart transformiert werden, dass die erhaltenen korrigierten Signal-Vektoren 26 solchen Sollwerten entsprechen, wie sie sich in Vektoren aus der Umrechnung der bekannten CIELAB-Farbwerte ergeben.The signal vectors 22, the counting index of which serves to describe the arrangement of the respective pixel on the CCD chip 02, form raw data for a first correction module 23 Adjustment of color balance, brightness and contrast. Each coefficient R; G; B of the signal vector 22 multiplied by a signal channel-dependent correction factor K ^ K 2 , K 3 . In addition, a correction vector 24 with the fixed value coefficients ai, a 2 and a 3 is added to the resulting result vector. This arithmetic operation generates first corrected signal vectors 26 which improve the color balance, the brightness and the contrast of the image data. This goal is achieved in that the signal channel-dependent correction factors K ^ K 2 and K 3 and the coefficients ai, a 2 and a 3 of the correction vector 24 are selected such that when the reference gray values black and white are recorded, the signal generated by the color camera 01 -Vectors 22 are transformed in such a way that the corrected signal vectors 26 obtained correspond to such target values as result in vectors from the conversion of the known CIELAB color values.
Anschließend werden die ersten korrigierten Signal-Vektoren 26 einem zweiten Korrekturmodul 27 zugeführt. Im zweiten Korrekturmodul 27 wird jeder erste korrigierte Signal-Vektor 26 mit einer quadratischen i x i - Korrekturmatrix 28 multipliziert, wobei i der Zahl der Koeffizienten des korrigierten Signal-Vektoren 26 entspricht und in diesem Fall i = 3 ist. Aus dieser Multiplikation ergeben sich die zweiten korrigierten Signal-Vektoren 29. Die Koeffizienten K4 bis K12 der Korrekturmatrix 28 wurden dabei zuvor in einem geeigneten Iterationsprozess derart ermittelt, dass die in den ersten korrigierten Signal- Vektoren 26 enthaltenen Bildinformationen an das Farbempfinden des menschlichen Auges angenähert werden.The first corrected signal vectors 26 are then fed to a second correction module 27. In the second correction module 27, each first corrected signal vector 26 is multiplied by a quadratic ixi correction matrix 28, where i corresponds to the number of coefficients of the corrected signal vector 26 and in this case i = 3. The second corrected signal vectors 29 result from this multiplication. The coefficients K 4 to K 12 of the correction matrix 28 were previously determined in a suitable iteration process in such a way that the image information contained in the first corrected signal vectors 26 relates to the color perception of the human being Eye to be approximated.
Anschließend werden die zweiten korrigierten Signal- Vektoren 29 an ein drittes Korrekturmodul 31 weitergeleitet. Im dritten Korrekturmodul 31 sind in einem Datenspeicher 14 zu jedem Pixel signalkanalabhängige Korrekturfaktoren gespeichert, die zur Anpassung der von der Position der jeweiligen Pixel abhängigen Intensitätswerte mit den Koeffizienten R, G und B multipliziert werden. Im Ergebnis werden also die zweiten korrigierten Signal-Vektoren 29 des ersten Pixel mit den Korrekturfaktoren K13, K14 und K15 multipliziert, um daraus für den ersten Pixel einen dritten korrigierten Signal-Vektor 32 zu errechnen. Diese Korrektur der zweiten korrigierten Signal-Vektoren 29 wird vorzugsweise für alle Pixel des Bildsensors 02 durchgeführt.The second corrected signal vectors 29 are then forwarded to a third correction module 31. In the third correction module 31, signal channel-dependent correction factors are stored in a data memory 14 for each pixel, which are multiplied by the coefficients R, G and B to adapt the intensity values depending on the position of the respective pixels. As a result, the second corrected signal vectors 29 of the first pixel with the correction factors K 13 , K 14 and K 15 multiplied in order to calculate a third corrected signal vector 32 for the first pixel. This correction of the second corrected signal vectors 29 is preferably carried out for all pixels of the image sensor 02.
Die dritten korrigierten Signal-Vektoren 32 werden dann an ein viertes Korrekturmodul 33 weitergeleitet. Im vierten Korrekturmodul 33 werden die Koeffizienten R; G; B der dritten korrigierten Signal-Vektoren 32 mit einem Faktor γ potenziert und daraus die vierten korrigierten Signal-Vektoren 34 errechnet. Durch die Potenzierung mit dem Faktor γ wird die nichtlineare Helligkeitsübertragungsfunktion eines Farbmonitors 04 berücksichtigt, an den die vierten korrigierten Signal-Vektoren 34 zur Anzeige übertragen werden.The third corrected signal vectors 32 are then forwarded to a fourth correction module 33. In the fourth correction module 33, the coefficients R; G; B of the third corrected signal vectors 32 is potentiated by a factor γ and the fourth corrected signal vectors 34 are calculated therefrom. The potentiation by the factor γ takes into account the non-linear brightness transfer function of a color monitor 04, to which the fourth corrected signal vectors 34 are transferred for display.
Im Ergebnis wird durch die Korrektur der Signal- Vektoren 22 in den Korrekturmodulen 23, 27, 31 und 33 erreicht, dass die am Farbmonitor 04 angezeigten Farbbilder dem Farbempfinden des menschlichen Auges so angepasst sind, dass der Seheindruck bei Betrachtung der Anzeige am Farbmonitor 04 gut dem Farbempfinden entspricht, das bei unmittelbarer Betrachtung des bedruckten Materials 19 entstehen würde.The result of the correction of the signal vectors 22 in the correction modules 23, 27, 31 and 33 is that the color images displayed on the color monitor 04 are adapted to the color perception of the human eye in such a way that the visual impression when viewing the display on the color monitor 04 is good corresponds to the perception of color that would arise if the printed material 19 were viewed directly.
Wie erwähnt, erfolgt die Aufnahme des Bildsignals durch einen Bildsensor 02 in voneinander getrennten Signalkanälen R; G; B. Im vorliegenden Ausführungsbeispiel handelt es sich bei den Signalkanälen R; G; B um die drei Signalkanäle Rot R, Grün G und Blau B. Jeder der Signalkanäle R; G; B weist eine einstellbare spektrale Empfindlichkeit auf. Dies hat den Vorteil, dass jeder Signalkanal R; G; B in seiner spektralen Empfindlichkeit an die spektrale Empfindlichkeit des jeweiligen Zapfens der Retina des menschlichen Auges angepasst werden kann.As mentioned, the image signal is recorded by an image sensor 02 in separate signal channels R; G; B. In the present embodiment, the signal channels R; G; B around the three signal channels red R, green G and blue B. Each of the signal channels R; G; B has an adjustable spectral sensitivity. This has the advantage that each signal channel R; G; B can be adapted in its spectral sensitivity to the spectral sensitivity of the respective cone of the retina of the human eye.
Beim Verfahren zur Prüfung des Farbbildes auf eine Farbabweichung von einem Referenzbild wird der Spektralgehalt eines Bildes pixelweise analysiert. Zur Modellierung der beiden rezeptiven Felder Rot/Grün und Blau/Gelb des menschlichen Auges werden gemäß der Fig. 4 in diesem Verfahren die Bildsensorsignale der Signalkanäle R; G; B miteinander verknüpft. Vor der eigentlichen Verknüpfung mit den Berechnungsvorschriften 36; 37 wird jedes Bildsensorsignal im Gegenfarbkanal 38; 39 einer nicht linearen Transformation 41 unterzogen. Dadurch wird dem digitalen Charakter der elektronisch erzeugten Aufnahmen Rechnung getragen. Anschließend wird jedes Signal mit einem Koeffizienten K-, (i = 1 ... 4) 42 gewichtet. Dadurch wird erreicht, dass eine reine Intensitätsänderung des Ausgangsbildes keinen Beitrag zu einem der Ausgangssignale 43; 44 der Gegenfarbkanäle 38; 39 liefert. Die Generierung der Ausgangssignale 43; 44 der Gegenfarbkanäle 38; 39 erfolgt analog der Generierung der Signale der rezeptiven Felder bei der menschlichen Retina. Das heißt, es wird eine Verknüpfung mittels der Berechnungsvorschriften 36; 37 der Signalkanäle R; G; B entsprechend der Verknüpfung der Zapfen der menschlichen Retina durchgeführt. Zur Schaffung des Ausgangssignals 43 des Rot/Grünen-Gegenfarbkanals 38 werden die Bildsensorsignale des roten Signalkanals R und des grünen Signalkanals G miteinander mittels der ersten Berechnungsvorschrift 36 verknüpft. Zur Generierung des Ausgangssignals 44 des Blau/Gelben-Gegenfarbkanals 39 wird im vorliegenden Ausführungsbeispiel das Bildsensorsignal des blauen Signalkanals B mit dem Minimum 46 der Bildsensorsignale des roten Signalkanals R und des grünen Signalkanals G mittels der Berechnungsvorschrift 37 verknüpft. Die rezeptiven Felder der menschlichen Retina sind durch ein Tiefpassverhalten charakterisiert. Dementsprechend werden im vorliegenden Ausführungsbeispiel die durch Verknüpfung erhaltenen Signale einer Tiefpassfilterung 47, z. B. mit einem Gauss-Tiefpassfilter, unterzogen.In the method for checking the color image for a color deviation from a reference image, the spectral content of an image is analyzed pixel by pixel. To model the two receptive fields red / green and blue / yellow of the human eye, the image sensor signals of the signal channels R; G; B linked together. Before the actual link with the calculation rules 36; 37 each image sensor signal in the counter color channel 38; 39 subjected to a non-linear transformation 41. This takes into account the digital character of the electronically generated recordings. Each signal is then weighted with a coefficient K-, (i = 1 ... 4) 42. This ensures that a pure change in the intensity of the output image does not contribute to one of the output signals 43; 44 of the counter-color channels 38; 39 supplies. The generation of the output signals 43; 44 of the counter-color channels 38; 39 is carried out analogously to the generation of the signals of the receptive fields in the human retina. That is, a link is created using the calculation rules 36; 37 of the signal channels R; G; B performed according to the linkage of the cones of the human retina. To create the output signal 43 of the red / green counter-color channel 38, the image sensor signals of the red signal channel R and the green signal channel G are linked to one another by means of the first calculation rule 36. To generate the output signal 44 of the blue / yellow counter-color channel 39, in the present exemplary embodiment the image sensor signal of the blue signal channel B is linked to the minimum 46 of the image sensor signals of the red signal channel R and the green signal channel G by means of the calculation rule 37. The receptive fields of the human retina are characterized by a low-pass behavior. Accordingly, in the present exemplary embodiment, the signals of a low-pass filtering 47, e.g. B. with a Gauss low-pass filter.
Die Fig. 5 zeigt die eigentliche Prüfung des bedruckten Materials 19, welche zweistufig erfolgt, nämlich in einem Lernmodus 48 und einem nachgeschalteten Arbeitsmodus 49. Der Lernmodus 48 hat das Ziel der pixelweisen Generation von Sollwerten als Referenzdatenwerten, die im nachfolgenden Arbeitsmodus 49 mit den Ausgangssignalen 43; 44 der Gegenfarbkanäle 38; 39 der entsprechenden Pixel verglichen werden. Beim Lernmodus 48 werden die Bildinhalte von einem Referenzbild 52 oder von mehreren Referenzbildern 52 dadurch analysiert, dass die Bildinhalte jedes Pixels in drei Signalkanälen R; G; B aufgenommen werden und eine anschließende wahrnehmungsgemäße Anpassung der Bildsignale jedes Signalkanals R; G; B vorgenommen wird und nachfolgend eine Weiterverarbeitung der Bildsensorsignale nach der zuvor beschriebenen Gegenfarbmethode durchgeführt wird. Die für jedes Pixel erhaltenen Ausgangssignale 43; 44 der Gegenfarbkanäle 38; 39 werden dann in einem Datenspeicher 14 gespeichert. Um zulässige Schwankungen der Referenzbilder 52 mit zu berücksichtigen, ist es sinnvoll, wenn mehrere Referenzbiider 52 im Lernmodus 48 Berücksichtigung finden. Dadurch ist es möglich, dass die gespeicherten Sollwerte jedes Pixels eine gewisse zulässige Schwankungstoleranz aufweisen. Die Schwankungstoleranz kann entweder durch die Minimal-/ Maximalwerte oder die Standardabweichung aus den erhaltenen Daten der Bildinhalte der Referenzbilder 52 jedes Pixels festgelegt werden.5 shows the actual checking of the printed material 19, which is carried out in two stages, namely in a learning mode 48 and a subsequent working mode 49. The learning mode 48 has the aim of the pixel-by-pixel generation of target values as reference data values, which in the subsequent working mode 49 with the output signals 43; 44 of the counter-color channels 38; 39 of the corresponding pixels are compared. In the learning mode 48, the image contents of one reference image 52 or of a plurality of reference images 52 are analyzed in that the image contents of each pixel are divided into three Signal channels R; G; B are recorded and a subsequent perceptual adaptation of the image signals of each signal channel R; G; B is carried out and subsequently further processing of the image sensor signals is carried out according to the previously described counter-color method. The output signals 43; 44 of the counter-color channels 38; 39 are then stored in a data memory 14. In order to take account of permissible fluctuations in the reference images 52, it is useful if several reference images 52 are taken into account in the learning mode 48. This makes it possible for the stored target values of each pixel to have a certain permissible fluctuation tolerance. The fluctuation tolerance can be determined either by the minimum / maximum values or the standard deviation from the data obtained from the image contents of the reference images 52 of each pixel.
Im Arbeitsmodus 49 findet dann ein pixelweiser Vergleich der Ausgangswerte 43; 44 der Gegenfarbkanäle 38; 39 eines Inspektionsbildes 53 mit den Sollwerten aus dem Datenspeicher 14 statt. Der Vergleich kann mittels eines linearen oder nichtlinearen Klassifikators 54, insbesondere mittels Schwellwertklassifikatoren, Euklidische - Abstands - Klassifikatoren, Bayes - Klassifikatoren, Fuzzy-Klassifikatoren oder künstliche neuronale Netze durchgeführt werden. Anschließend findet eine gut/ schlecht - Entscheidung statt.In the working mode 49 there is then a pixel-by-pixel comparison of the output values 43; 44 of the counter-color channels 38; 39 of an inspection image 53 with the target values from the data memory 14. The comparison can be carried out using a linear or non-linear classifier 54, in particular using threshold value classifiers, Euclidean - distance classifiers, Bayesian classifiers, fuzzy classifiers or artificial neural networks. Then a good / bad decision is made.
Fig. 6 zeigt ein Flussdiagramm zur Signalauswertung beim Verfahren zur Prüfung des Erkennungsmerkmals auf seine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen.6 shows a flowchart for signal evaluation in the method for checking the identification feature for its belonging to a specific class of identification features.
Zunächst wird über das gesamte zu prüfende Farbbild ein Raster aus M x N Fenstern 56 gelegt, wobei M, N >1 ist. Jedes Fenster 56 besteht vorteilhafterweise aus m x n Pixel mit m; n > 1. Vorzugsweise wird ein quadratisches Raster aus N x N Fenstern 56 gewählt, wobei jedes Fenster 56 aus n x n Pixel besteht, Im Prüfvorgang wird das Signal jedes Fensters 56 getrennt geprüft. Durch eine oder mehrere Spektraltransformationen 58 wird das zweidimensionale Farbbild des Ortsraums in ein zweidimensionales Bild im Frequenzraum transformiert. Das erhaltene Spektrum nennt man Frequenzspektrum. Da es sich im vorliegenden Ausführungsbeispiel um ein diskretes Spektrum handelt, ist auch das Frequenzspektrum diskret. Das Frequenzspektrum wird durch die Spektralkoeffizienten 59 - auch Spektralwerte 59 genannt - gebildet.First, a grid of M x N windows 56 is placed over the entire color image to be checked, where M, N> 1. Each window 56 advantageously consists of mxn pixels with m; n> 1. A square grid of N x N windows 56 is preferably selected, each window 56 consisting of nxn pixels. The signal of each window 56 is checked separately in the test process. The two-dimensional color image of the spatial space is transformed into a two-dimensional image in the frequency space by one or more spectral transformations 58. The spectrum obtained is called the frequency spectrum. Since the present exemplary embodiment is a discrete spectrum, the frequency spectrum is also discrete. The frequency spectrum is formed by the spectral coefficients 59 - also called spectral values 59.
Im nächsten Verfahrensschritt findet die Betragsbildung 61 der Spektralwerte 59 statt. Der Betrag der Spektralwerte 59 wird Spektralamplitudenwert 62 genannt. Die Spektralamplitudenwerte 62 bilden im vorliegenden Ausführungsbeispiel die Merkmalswerte 62, d. h. sie sind identisch den Merkmalswerten 62.In the next method step, the amount 61 of the spectral values 59 is formed. The magnitude of the spectral values 59 is called the spectral amplitude value 62. In the present exemplary embodiment, the spectral amplitude values 62 form the feature values 62, i. H. they are identical to the feature values 62.
Als weiterer Verfahrensschritt folgt die Merkmalsauswahl 63. Ziel der Merkmalsauswahl 63 ist es, diejenigen Merkmale 64 auszuwählen, die charakteristisch für den Bildinhalt des zu prüfenden Farbbildes sind. Als Merkmale 64 sind sowohl charakteristische Spektralamplitudenwerte 62, welche durch ihre Position im Frequenzraum und durch ihre Amplitude das Merkmal 64 definieren, als auch linguistische Variablen wie beispielsweise „grau", „schwarz" oder „weiß" möglich.The feature selection 63 follows as a further method step. The aim of the feature selection 63 is to select those features 64 which are characteristic of the image content of the color image to be checked. Both characteristic spectral amplitude values 62, which define the characteristic 64 by their position in the frequency space and by their amplitude, and linguistic variables such as “gray”, “black” or “white” are possible as characteristics 64.
Im nun folgenden Verfahrensschritt, der Fuzzyfizierung 66, wird die Zugehörigkeit jedes Spektralamplitudenwerts 62 zu einem Merkmal 64 durch eine weiche oder unscharfe Zugehörigkeitsfunktion 67 festgelegt; d. h. es findet eine Gewichtung statt.In the now following method step, the fuzzification 66, the association of each spectral amplitude value 62 with a feature 64 is determined by a soft or unsharp membership function 67; d. H. a weighting takes place.
Sollen die Zugehörigkeitsfunktionen 67 in einem Lernmodus an als Referenzdatensätze gespeicherte Sollwerte angepasst werden können, ist es sinnvoll, wenn die Zugehörigkeitsfunktionen 67 als parametrisierte monomodale, d. h. eindimensionale Potentialfunktionen, ausgebildet sind, bei denen die Parameter der positiven und negativen Steigung getrennt an die zu untersuchenden Sollwerte angepasst werden können. In dem dem Lernmodus nachfolgenden Arbeitsmodus werden dann die Datensätze des Bildinhalts, aus welchen sich die Merkmalswerte 62 der zu prüfenden Farbbilder ergeben, mit den jeweiligen Zugehörigkeitsfunktionen 67 gewichtet, deren Parameter in dem vorangegangenen Lernmodus ermittelt wurden. D. h. es findet für jedes Merkmal 64 eine Art SOLL-IST-Vergleich zwischen einem Referenzdatensatz, der in den Parametern der Zugehörigkeitsfunktionen 67 zum Ausdruck kommt, und dem Datensatz des zu prüfenden Farbbildes statt. Durch die Zugehörigkeitsfunktionen 67 wird eine weiche oder unscharfe Zuordnung zwischen dem jeweiligen Merkmalswert 62 und dem Merkmal 64 hergestellt.If the membership functions 67 can be adapted in a learning mode to target values stored as reference data records, it makes sense if the membership functions 67 are designed as parameterized monomodal, that is to say one-dimensional potential functions, in which the parameters of the positive and negative slope are separated from the target values to be examined be adjusted can. In the working mode following the learning mode, the data records of the image content, from which the feature values 62 of the color images to be checked result, are weighted with the respective membership functions 67, the parameters of which were determined in the previous learning mode. I.e. for each feature 64 there is a kind of TARGET-ACTUAL comparison between a reference data record, which is expressed in the parameters of the membership functions 67, and the data record of the color image to be checked. The membership functions 67 create a soft or fuzzy association between the respective feature value 62 and the feature 64.
Im nächsten Verfahrensschritt, der Interferenz 68, findet im Wesentlichen eine konjunktive Verknüpfung 69 - auch Aggregation 69 genannt - aller Zugehörigkeitsfunktionen 67 der Merkmale 64 statt, wodurch eine übergeordnete Zugehörigkeitsfunktion 71 erzeugt wird.In the next method step, interference 68, there is essentially a conjunctive link 69 - also called aggregation 69 - of all membership functions 67 of features 64, as a result of which a superordinate membership function 71 is generated.
Der nächste Verfahrensschritt, die Defuzzyfizierung 72, ermittelt aus der übergeordneten Zugehörigkeitsfunktion 71 einen konkreten Zugehörigkeitswert 73 oder Sympathiewert 73. Dieser Sympathiewert 73 wird bei der Klassifikation 74 mit einem vorher eingestellten Schwellwert 76 verglichen, wodurch eine Klassifikationsaussage getroffen werden kann. Der Schwellwert 76 wird entweder manuell oder automatisch eingestellt. Die Einstellung des Schwellwerts 76 erfolgt ebenfalls im Lernmodus.The next method step, the defuzzification 72, determines a specific membership value 73 or sympathy value 73 from the superordinate membership function 71. In the classification 74, this sympathy value 73 is compared with a previously set threshold value 76, whereby a classification statement can be made. The threshold value 76 is set either manually or automatically. The threshold value 76 is also set in the learning mode.
Das Verfahren zur Prüfung des Erkennungsmerkmals auf eine bestimmte geometrische Kontur und/oder auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal des Materials vollzieht sich im Wesentlichen in folgenden Schritten.The method for checking the identification feature for a specific geometric contour and / or for a relative arrangement to at least one further identification feature of the material essentially takes place in the following steps.
Gemäß Fig. 7 wurde bei der Prüfung z. B. von mit Banknoten 19 bedruckten Druckbogen ein Differenzbild 77 gebildet, wobei in Fig. 7 lediglich ein Ausschnitt aus dem Differenzbild 77 im Bereich einer Banknote 19 dargestellt ist. Man erkennt in Fig. 7, dass im Differenzbild 77 das normale Druckbild der Banknote 19 ausgeblendet ist und lediglich die Bereiche des Druckbildes, die sich signifikant vom Untergrundreferenzwert unterscheiden, als Dunkelfelder im Differenzbild abgebildet werden. In einem strichliniert angedeuteten, streif enförm igen Erwartungsbereich 78 kann die Position z. B. eines im Druckbogen eingebrachten Erkennungsmerkmals 79, insbesondere eines eingearbeiteten Fensterfadens 79, der sich im Differenzbild 77 entsprechend seinen Durchbrüchen in fünf Dunkeifeldern 79 abbildet, variieren.7 was z. For example, a difference image 77 is formed from printed sheets printed with banknotes 19, only a section of the difference image 77 being shown in the area of a banknote 19 in FIG. 7. 7 that the normal printed image of the bank note 19 is hidden in the difference image 77 and only that Areas of the printed image that differ significantly from the background reference value are depicted as dark fields in the differential image. In a dashed, strip-shaped expectation area 78, the position z. B. a recognition feature 79 introduced in the printed sheet, in particular an incorporated window thread 79, which is shown in the difference image 77 according to its openings in five dark areas 79, vary.
Neben den fünf Dunkelfeldern 79, die sich aus der Abbildung des Fensterfadens 79 ergeben, bilden sich im Differenzbild 77 noch weitere Druckbildmerkmale als irrelevante Dunkelfelder 81 ab, die z. B. durch Druckfehler 81 generiert sind.In addition to the five dark fields 79, which result from the image of the window thread 79, further printed image features are shown in the difference image 77 as irrelevant dark fields 81, which e.g. B. are generated by printing errors 81.
Fig. 8 stellt das Differenzbild 77 nach einer geeigneten Binarisierung dar, durch die die irrelevanten Dunkelfelder 81 ausgefiltert wurden. Im Differenzbild 77 treten im Ergebnis nur noch die vom Fensterfaden 79 herrührenden Dunkelfelder 79 signifikant hervor.8 shows the difference image 77 after a suitable binarization, by means of which the irrelevant dark fields 81 have been filtered out. In the difference image 77, only the dark fields 79 originating from the window thread 79 emerge significantly.
Fig. 9 stellt eine Maskenreferenz 82 in ihrer geometrischen Form dar. In der Maskenreferenz 82 sind die Daten für die Breite 83 und die Länge 84 der Fensterfadendurchbrüche 79 hinterlegt. Weiter sind in der Maskenreferenz 82 die Werte für den Abstand 86 zwischen den Fensterfadendurchbrüchen 79-und die Anzahl von Fensterfadendurchbrüchen 79 je Banknote 19 hinterlegt.FIG. 9 shows a mask reference 82 in its geometric shape. The data for the width 83 and the length 84 of the window thread openings 79 are stored in the mask reference 82. The values for the distance 86 between the window thread openings 79 and the number of window thread openings 79 per bank note 19 are also stored in the mask reference 82.
Wie in Fig. 10 schematisch angedeutet, wird die Maskenreferenz 82 bei der Auswertung durch datentechnische Operationen so lange relativ zum Differenzbild 77 verschoben, bis sich eine maximale Überdeckung zwischen der Masken referenz 82 und den Dunkelfeldern 79 im Differenzbild 77 ergibt. Ist dieses Maximum an Überdeckung erreicht, kann aus den Abständen 87; 88, die sich z. B. aus den aktuellen Positionen in X- und Y- Richtung der Maskenreferenz 82 relativ zu den Kanten der Banknote 19 ergeben, auf die aktuelle Position des Fensterfadens 79 im Druckbild geschlossen werden, sodass bei einer nachfolgenden Prüfung des Druckbildes die Bereiche der Fensterfadendurchbrüche 79 ausgeblendet werden können.As indicated schematically in FIG. 10, the mask reference 82 is shifted relative to the difference image 77 during evaluation by data technology operations until there is a maximum overlap between the mask reference 82 and the dark fields 79 in the difference image 77. If this maximum coverage is reached, the distances 87; 88, which z. B. from the current positions in the X and Y directions of the mask reference 82 relative to the edges of the bank note 19, the current position of the window thread 79 in the printed image can be concluded, so that the areas of the window thread openings during a subsequent check of the printed image 79 can be hidden.
Fig. 11 zeigt eine zweite Maskenreferenz 89, die acht Fensterfadendurchbrüchen 91 entsprechende Dunkelfelder 91 bei der Prüfung einer Banknote 19 an einer konkav gekrümmten Anlagefläche repräsentiert.11 shows a second mask reference 89, which represents dark fields 91 corresponding to eight window thread openings 91 when checking a bank note 19 on a concavely curved contact surface.
Fig. 12 stellt ein Differenzbild 92 schematisch dar, bei dem sich die Fensterfadendurchbrüche 91 in Dunkelfeldern 93, z. B. in Fensterfäden 93, abgebildet haben. Das Dunkelfeld 94 wurde dabei von einem Druckfehler 94 und nicht von einem Fensterfadendurchbruch 91 verursacht. Außerdem hat sich ein Fensterfadendurchbruch 91 in der Mitte aufgrund der nicht ausreichenden Farbdifferenz zwischen Untergrund und Fensterfaden 93 nicht im Differenzbild 92 abgebildet.Fig. 12 schematically shows a difference image 92, in which the window thread openings 91 in dark fields 93, z. B. in window threads 93 have shown. The dark field 94 was caused by a printing error 94 and not by a window thread opening 91. In addition, a window thread opening 91 in the middle did not appear in the difference image 92 due to the insufficient color difference between the background and window thread 93.
Um den Vergleich zwischen der Maskenreferenz 89 und dem Differenzbild 92 zur Positionsfindung zu vereinfachen, wird die Maskenreferenz 89 auf eine Projektionslinie 96 projiziert und die daraus entstehende Hell-Dunkel-Verteilung mit der aus der Projektion des Differenzbildes 92 auf eine Projektionslinie 97 entstehenden Hell-Dunkel-Verteilung verglichen. Durch diesen eindimensionalen Vergleich der Hell-Dunkel-Verteilung kann die Position des Fensterfadens 93 in einer Richtung festgestellt werden.In order to simplify the comparison between the mask reference 89 and the difference image 92 for finding the position, the mask reference 89 is projected onto a projection line 96 and the light-dark distribution resulting therefrom with the light-dark resulting from the projection of the difference image 92 onto a projection line 97 -Distribution compared. This one-dimensional comparison of the light-dark distribution enables the position of the window thread 93 to be determined in one direction.
Alle zuvor beschriebenen Funktionseinheiten, alle logischen sowie mathematischen Funktionen und Abläufe zur Durchführung der Verfahren zur Beurteilung der Qualität der von der Druckmaschine produzierten Drucksache werden in den Logikblöcken des FPGA durch deren Konfiguration realisiert. Durch die freie Programmierbarkeit des FPGA bleibt das Bildverarbeitungssystem 03 an unterschiedliche Gegebenheiten im Druckprozess anpassbar, sodass auf sich ändernde Erfordernisse flexibel reagiert werden kann. Nicht nur Randbedingungen und einzelne Parameter des Verfahrens können geändert werden, sondern auch der gesamte Verfahrensablauf kann, wenn nötig, geändert werden, ohne dass es dazu einer Änderung am z. B. in der Druckmaschine verbauten apparativen Systemaufbau bedarf. All the functional units described above, all logical and mathematical functions and processes for carrying out the methods for assessing the quality of the printed matter produced by the printing press are implemented in the logic blocks of the FPGA by their configuration. Due to the free programmability of the FPGA, the image processing system 03 remains adaptable to different circumstances in the printing process, so that it can react flexibly to changing requirements. Not only boundary conditions and individual parameters of the process can be changed, but also the entire process flow can be changed, if necessary, without that there is a change to the z. B. in the printing press built apparatus system structure.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
01 Bildaufnahmeeinheit, Farbkamera01 image acquisition unit, color camera
02 Bildsensor, CCD-Chip02 Image sensor, CCD chip
03 Auswertevorrichtung, Bildverarbeitungssystem03 Evaluation device, image processing system
04 Farbmonitor04 color monitor
05 -05 -
06 Funktionseinheit06 functional unit
07 Funktionseinheit07 functional unit
08 Funktionseinheit08 functional unit
09 Signal, elektrisches, erstes; Signal, digitales09 signal, electrical, first; Signal, digital
10 -10 -
11 Vergleichsstelle11 reference junction
12 Vergleichsstelle12 reference junction
13 Vergleichsstelle13 cold junction
14 Datenspeicher14 data memories
15 -15 -
16 Sollwert16 setpoint
17- Sollwert17- setpoint
18 Sollwert18 setpoint
19 Material, Banknote, Druckbogen, Materialbahn19 Material, banknote, printed sheet, material web
20 -20 -
21 Beobachtungsbereich 2 Signal-Vektor 3 Korrekturmodul, erstes 4 Korrekturvektor 5 - 6 Signal-Vektor, erster korrigierter 7 Korrekturmodul, zweites Korrekturmatrix21 observation area 2 signal vector 3 correction module, first 4 correction vector 5 - 6 signal vector, first corrected 7 correction module, second correction matrix
Signal-Vektoren, zweiter korrigierterSignal vectors, second corrected
--
Korrekturmodul, drittesCorrection module, third
Signal-Vektor, dritter korrigierterSignal vector, third corrected
Korrekturmodul, viertesCorrection module, fourth
Signal-Vektor, vierter korrigierterSignal vector, fourth corrected
--
Berechnungsvorschriftcalculation rule
Berechnungsvorschriftcalculation rule
GegenfarbkanalAgainst color channel
GegenfarbkanalAgainst color channel
--
Transformationtransformation
Koeffizient K, (i = 1 ... 4)Coefficient K, (i = 1 ... 4)
Ausgangssignal (38)Output signal (38)
Ausgangssignal (39)Output signal (39)
--
Minimumminimum
TiefpassfilterungLow-pass filtering
Lernmoduslearning mode
Arbeitsmoduswork mode
--
--
Referenzbildreference image
Inspektionsbildinspection image
Klassifikatorclassifier
--
Fenster, Bildfenster - Spektraltransformation Spektralkoeffizient, Spektralwert - Betragsbildung Spektralamplitudenwert, Merkmalswert Merkmalsauswahl Merkmal - Fuzzyfizierung Zugehörigkeitsfunktion Interferenz konjunktive Verknüpfung, Aggregation - übergeordnete Zugehörigkeitsfunktion Defuzzyfizierung Zugehörigkeitswert, Sympathiewert Klassifikation - Schwellwert Differenzbild Erwartungsbereich Dunkelfeld, Fensterfaden, Erkennungsmerkmal, Fensterfadendurchbruch - Dunkelfeld, Druckfehler Maskenreferenz Breite (79) Länge (79) - 86 AbstandWindow, picture window - Spectral transformation Spectral coefficient, spectral value - Amount formation spectral amplitude value, characteristic value Characteristic selection characteristic - Fuzzification membership function interference conjunctive linkage, aggregation - Superior membership function Defuzzification value, sympathy value classification - Threshold value difference image expectation range dark field, window thread, detection error length 79) - 86 distance
87 Abstand87 distance
88 Abstand88 distance
89 Maskenreferenz, zweite89 mask reference, second
90 -90 -
91 Fensterfadendurchbruch, Dunkelfeld91 Window thread breakthrough, dark field
92 Differenzbild92 difference image
93 Dunkelfeld, Fensterfaden93 dark field, window thread
94 Dunkelfeld, Druckfehler94 Dark field, misprints
95 -95 -
96 Projektionslinie96 projection line
97 Projektionslinie97 projection line
R, G, B Koeffizient, SignalkanalR, G, B coefficient, signal channel
Ki, K2, K3 KorrekturfaktorKi, K 2 , K 3 correction factor
K4 bis K12 KoeffizientK 4 to K 12 coefficient
3, K14, K-I5 Korrekturfaktor3 , K 14 , K-I5 correction factor
KIB, -I7, K18 Korrekturfaktor a-i, a2, a3 Festwertkoeffizient γ Potenzierungsfaktor K IB , -I7, K 18 correction factor ai, a 2 , a 3 fixed value coefficient γ potentiation factor

Claims

Ansprüche Expectations
1. Verfahren zum Vergleich eines Bildes mit mindestens einem Referenzbild unter Verwendung eines Systems zumindest mit einer Bildaufnahmeeinheit (01) und einem Bilddaten der Bildaufnahmeeinheit (01) auswertenden Bildverarbeitungssystem (03) mit einer Logikeinheit, wobei ein von der Bildaufnahmeeinheit (01) aufgenommenes Bild mit dem mindestens einen Referenzbild verglichen wird, wobei die als ein feldprogrammierbarer Logikschaltkreis mit mehreren konfigurierbaren Logikblöcken ausgebildete Logikeinheit in ihren Logikblöcken den Bildvergleich ausführt, dadurch gekennzeichnet, dass die den Bildvergleich ausführende Logikeinheit eine Qualität einer Drucksache hinsichtlich mehrerer Kriterien beurteilt, wobei die Beurteilung in parallel verlaufenden Prüfvorgängen durchgeführt wird, wobei jeder der Prüfvorgänge die Drucksache hinsichtlich mindestens eines anderen Kriteriums beurteilt.1. A method for comparing an image with at least one reference image using a system with at least one image acquisition unit (01) and image processing system (03) evaluating image data of the image acquisition unit (01) with a logic unit, with an image recorded by the image acquisition unit (01) the at least one reference image is compared, the logic unit designed as a field programmable logic circuit having a plurality of configurable logic blocks performing the image comparison in its logic blocks, characterized in that the logic unit performing the image comparison assesses a quality of a printed matter with regard to several criteria, the assessment being carried out in parallel Test processes is carried out, each of the test processes assesses the printed matter with respect to at least one other criterion.
2. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass mehrere Logikblöcke der Logikeinheit zu einer Gruppe von Logikblöcken zusammengefasst und in von der Logikeinheit mindestens zwei Gruppen von Logikblöcken ausgebildet werden.2. The method according to claim 1, characterized in that a plurality of logic blocks of the logic unit are combined to form a group of logic blocks and are formed in at least two groups of logic blocks by the logic unit.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Logikeinheit in den mindestens zwei Gruppen von Logikblöcken verschiedene Prüfungen durchführt.3. The method according to claim 2, characterized in that the logic unit carries out different tests in the at least two groups of logic blocks.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass alle Logikblöcke einer Gruppe mit einem Taktsignal getaktet werden.4. The method according to claim 2, characterized in that all logic blocks of a group are clocked with a clock signal.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass an einer Schnittstelle zwischen zwei Gruppen von Logikblöcken die Taktsignale dieser Gruppen miteinander synchronisiert werden. 5. The method according to claim 4, characterized in that the clock signals of these groups are synchronized with one another at an interface between two groups of logic blocks.
6. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass das die Logikblöcke einer Gruppe taktende Taktsignal in einem Phasenregelkreis stabilisiert wird.6. The method according to claim 1, characterized in that the clock blocks clocking the logic blocks of a group is stabilized in a phase locked loop.
7. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Beurteilung der Qualität der Drucksache mindestens in zwei Verfahrenseinheiten gegliedert wird, wobei jede Verfahrenseinheit jeweils in einer der Gruppen von Logikblöcken als ein Makro programmiert wird.7. The method according to claim 1, characterized in that the assessment of the quality of the printed matter is divided into at least two process units, each process unit being programmed in one of the groups of logic blocks as a macro.
8. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass ein in oder an von der Logikeinheit angeordneter Oszillator das Taktsignal erzeugt.8. The method according to claim 1, characterized in that an oscillator arranged in or on the logic unit generates the clock signal.
9. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass innerhalb jedes Logikblockes alle Leitungen für das Taktsignal mit derselben Länge ausgebildet werden.9. The method according to claim 1, characterized in that within each logic block all lines for the clock signal are formed with the same length.
10. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Taktsignale der zu synchronisierenden Gruppen mit in den Signalfluss zwischen diesen Gruppen zwischengeschalteten Registern synchronisiert werden.10. The method according to claim 1, characterized in that the clock signals of the groups to be synchronized are synchronized with registers interposed in the signal flow between these groups.
11. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit in Form einer aus Logikblöcken bestehenden Matrixstruktur ausgebildet wird.11. The method according to claim 1, characterized in that the logic unit is designed in the form of a matrix structure consisting of logic blocks.
12. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit mit einer inneren Strukturbreite von 0,25 μm oder weniger ausgebildet wird.12. The method according to claim 1, characterized in that the logic unit is formed with an internal structure width of 0.25 μm or less.
13. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit mit mindestens 20.000 Logikblöcken ausgebildet wird. 13. The method according to claim 1, characterized in that the logic unit is formed with at least 20,000 logic blocks.
14. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit mit mehr als 50.000 Logikblöcke ausgebildet wird.14. The method according to claim 1, characterized in that the logic unit is formed with more than 50,000 logic blocks.
15. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikblöcke der Logikeinheit in mehr als 100 Gruppen zusammengefasst werden.15. The method according to claim 1, characterized in that the logic blocks of the logic unit are combined in more than 100 groups.
16. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikblöcke der Logikeinheit in mehr als 1000 Gruppen zusammengefasst werden.16. The method according to claim 1, characterized in that the logic blocks of the logic unit are combined in more than 1000 groups.
17. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der gesamte Bildvergleich innerhalb der Logikeinheit in weniger als 100 ms abläuft.17. The method according to claim 1, characterized in that the entire image comparison within the logic unit takes place in less than 100 ms.
18. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit mehrmals neu programmierbar wird.18. The method according to claim 1, characterized in that the logic unit is reprogrammable several times.
19. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit in der Lage ist, ihre den Bildvergleich ausführende und die Qualität der Drucksache beurteilende Programmierung selbstkonfigurierend anzupassen.19. The method according to claim 1, characterized in that the logic unit is capable of self-configuring its programming which carries out the image comparison and evaluates the quality of the printed matter.
20. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (01) mit einem eine Vielzahl von einzelnen Bildpunkten aufweisenden Bildsensor (02) ausgebildet wird.20. The method according to claim 1, characterized in that the image recording unit (01) is formed with an image sensor (02) having a plurality of individual pixels.
21. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (01) mit einem mehr als vier Millionen einzelne Bildpunkte aufweisenden Bildsensor (02) ausgebildet wird.21. The method according to claim 1, characterized in that the image recording unit (01) is formed with an image sensor (02) having more than four million individual pixels.
22. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (01) die mit ihrem Bildsensor (02) aufgenommenen Bilddaten als digitale Daten an die Logikeinheit übergibt.22. The method according to claim 1, characterized in that the image recording unit (01) receives the image data recorded with its image sensor (02) as digital data the logic unit passes.
23. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (01 ) die mit ihrem Bildsensor (02) aufgenommenen Bilddaten mit einer Taktrate von 40 MHz oder mehr an die Logikeinheit übergibt.23. The method according to claim 1, characterized in that the image recording unit (01) transfers the image data recorded with its image sensor (02) to the logic unit at a clock rate of 40 MHz or more.
24. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Bildaufnahmeeinheit (01) die mit ihrem Bildsensor (02) aufgenommenen Bilddaten bildpunktweise an die Logikeinheit übergibt.24. The method according to claim 1, characterized in that the image recording unit (01) transfers the image data recorded with its image sensor (02) pixel by pixel to the logic unit.
25. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass aufeinanderfolgend eine Vielzahl von Exemplaren der Drucksache beurteilt wird.25. The method according to claim 1, characterized in that a plurality of copies of the printed matter is assessed successively.
26. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die von der Logikeinheit durchgeführte Beurteilung einschließt, zumindest einen Teil eines von der Drucksache aufgenommenes Farbbildes auf eine Farbabweichung von dem Referenzbild zu prüfen.26. The method according to claim 1, characterized in that the assessment carried out by the logic unit includes checking at least part of a color image recorded by the printed matter for a color deviation from the reference image.
27. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die von der Logikeinheit durchgeführte Beurteilung einschließt, ein Erkennungsmerkmal der Drucksache auf eine Zugehörigkeit zu einer bestimmten Klasse von Erkennungsmerkmalen zu prüfen.27. The method according to claim 1, characterized in that the assessment carried out by the logic unit includes checking a recognition feature of the printed matter for belonging to a certain class of recognition features.
28. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die von der Logikeinheit durchgeführte Beurteilung einschließt, ein Erkennungsmerkmal der Drucksache auf eine bestimmte geometrische Kontur zu prüfen.28. The method according to claim 1, characterized in that the assessment carried out by the logic unit includes checking a recognition feature of the printed matter for a specific geometric contour.
29. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die von der Logikeinheit durchgeführte Beurteilung einschließt, ein Erkennungsmerkmal der Drucksache auf eine relative Anordnung zu mindestens einem weiteren Erkennungsmerkmal der Drucksache zu prüfen.29. The method according to claim 1, characterized in that the assessment carried out by the logic unit includes a recognition feature of the printed matter to check a relative arrangement to at least one other identifying feature of the printed matter.
30. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass der Bildvergleich eine Qualität einer von einer Druckmaschine produzierten Drucksache beurteilt.30. The method according to claim 1, characterized in that the image comparison assesses a quality of a printed matter produced by a printing press.
31. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit die Qualität der Drucksache im laufenden Produktionsprozess der Druckmaschine beurteilt.31. The method according to claim 1, characterized in that the logic unit assesses the quality of the printed matter in the current production process of the printing press.
32. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, dass die Logikeinheit die Qualität jedes im laufenden Produktionsprozess der Druckmaschine produzierten Exemplars der Drucksache beurteilt. 32. The method according to claim 1, characterized in that the logic unit assesses the quality of each copy of the printed matter produced in the current production process of the printing press.
PCT/EP2005/051571 2004-04-29 2005-04-08 Method for comparing an image to at least one reference image WO2005106792A2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP05740075A EP1741060A2 (en) 2004-04-29 2005-04-08 Method for comparing an image to at least one reference image

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004021047A DE102004021047B3 (en) 2004-04-29 2004-04-29 Method for comparing an image with at least one reference image
DE102004021047.0 2004-04-29

Publications (2)

Publication Number Publication Date
WO2005106792A2 true WO2005106792A2 (en) 2005-11-10
WO2005106792A3 WO2005106792A3 (en) 2006-01-26

Family

ID=34966184

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/051571 WO2005106792A2 (en) 2004-04-29 2005-04-08 Method for comparing an image to at least one reference image

Country Status (3)

Country Link
EP (1) EP1741060A2 (en)
DE (1) DE102004021047B3 (en)
WO (1) WO2005106792A2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104582965A (en) * 2012-08-24 2015-04-29 柯尼格及包尔公开股份有限公司 Method for inspecting at least one copy of a printed product

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2939548B1 (en) * 2008-12-09 2010-12-10 Thales Sa DEVICE FOR DETECTING ANOMALY IN A DIGITAL IMAGE
DE102015203628A1 (en) 2014-03-31 2015-10-01 Heidelberger Druckmaschinen Ag Method for automatic test parameter selection of an image inspection system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659630A (en) * 1991-12-11 1997-08-19 International Business Machines Corporation Advanced manufacturing inspection system
US5946422A (en) * 1996-01-05 1999-08-31 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template
DE10132589A1 (en) * 2001-07-05 2003-01-23 Koenig & Bauer Ag Procedure for the qualitative assessment of material
DE10234086A1 (en) * 2002-07-26 2004-02-19 Koenig & Bauer Ag Procedure to evaluate signal of electronic image sensor during pattern recognition of image content of test piece, by forming characteristics, making fuzzy, interference, making defuzzy and deciding class membership
DE10234085A1 (en) * 2002-07-26 2004-02-19 Koenig & Bauer Ag Analysis of color deviations of images with image sensor involves combining image sensor signals of color channels using computer instructions to generate complementary color channel output signals
DE10314071B3 (en) * 2003-03-28 2004-09-30 Koenig & Bauer Ag Procedure for the qualitative assessment of a material with at least one identifier

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5894565A (en) * 1996-05-20 1999-04-13 Atmel Corporation Field programmable gate array with distributed RAM and increased cell utilization
WO2001050236A1 (en) * 2000-01-03 2001-07-12 Array Ab Publ. Printing device and method
US7073158B2 (en) * 2002-05-17 2006-07-04 Pixel Velocity, Inc. Automated system for designing and developing field programmable gate arrays

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5659630A (en) * 1991-12-11 1997-08-19 International Business Machines Corporation Advanced manufacturing inspection system
US5946422A (en) * 1996-01-05 1999-08-31 Mcdonnell Douglas Corporation Image processing method and apparatus for correlating a test image with a template
DE10132589A1 (en) * 2001-07-05 2003-01-23 Koenig & Bauer Ag Procedure for the qualitative assessment of material
DE10234086A1 (en) * 2002-07-26 2004-02-19 Koenig & Bauer Ag Procedure to evaluate signal of electronic image sensor during pattern recognition of image content of test piece, by forming characteristics, making fuzzy, interference, making defuzzy and deciding class membership
DE10234085A1 (en) * 2002-07-26 2004-02-19 Koenig & Bauer Ag Analysis of color deviations of images with image sensor involves combining image sensor signals of color channels using computer instructions to generate complementary color channel output signals
DE10314071B3 (en) * 2003-03-28 2004-09-30 Koenig & Bauer Ag Procedure for the qualitative assessment of a material with at least one identifier

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Electronic Design with FPGAs" TUTORIAL: INTRODUCTION TO FPGA TECHNOLOGY, 5. November 2001 (2001-11-05), Seiten 1-22, XP002350104 www.trenz-electronic.de *
ROYAL A, CHEUNG P Y K: "Globally Asynchronous Locally Synchronous FPGA Architectures" FIELD-PROGRAMMABLE LOGIC AND APPLICATIONS, 2003, Seiten 355-364, XP002350103 ISBN: 3-540-40822-3 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104582965A (en) * 2012-08-24 2015-04-29 柯尼格及包尔公开股份有限公司 Method for inspecting at least one copy of a printed product

Also Published As

Publication number Publication date
WO2005106792A3 (en) 2006-01-26
EP1741060A2 (en) 2007-01-10
DE102004021047B3 (en) 2005-10-06

Similar Documents

Publication Publication Date Title
DE10314071B3 (en) Procedure for the qualitative assessment of a material with at least one identifier
EP0012724B1 (en) Process for automatically judging the quality of a printed product and apparatus for its carrying out
DE102011106052B4 (en) Shadow removal in an image captured by a vehicle based camera using a nonlinear illumination invariant core
DE102011106050A1 (en) Shadow removal in an image captured by a vehicle-based camera for detection of a clear path
DE102011106072A1 (en) SHADOW REMOVAL IN A PICTURE BASED ON A VEHICLE-BASED CAMERA USING AN OPTIMIZED LINEAR AXIS
EP3289398B1 (en) Method for generating a reflection-reduced contrast image and corresponding devices
EP2625673A2 (en) Method for checking an optical security feature of a valuable document
EP0012723B1 (en) Process for mechanically assessing the print quality of a printed product and device for performing the same
DD274786A1 (en) METHOD AND ARRANGEMENT FOR MONITORING THE PRINT QUALITY OF MULTI-COLOR RASTER PRINTING TEMPLATES OF AN OFFSET PRINTING MACHINE
WO2005106792A2 (en) Method for comparing an image to at least one reference image
EP1291179A2 (en) Test means and method for controlling offset and digital printing
WO2011082792A1 (en) Method for testing value documents
DE19838806A1 (en) Method and device for detecting object colors
EP1024400B1 (en) Mask and method of varying the luminance profile of a photographic image for photographic or digital printing
DE10234085A1 (en) Analysis of color deviations of images with image sensor involves combining image sensor signals of color channels using computer instructions to generate complementary color channel output signals
EP1567982B1 (en) Method and device for compensating for shadows in digital images
DE202004020463U1 (en) Press output quality control system has camera and image processor using field programmable gate array to compare sample images
EP3482348A1 (en) Method and device for categorising a fracture surface of a component
DE4419395A1 (en) Image processing for identification of colour objects e.g. for robotics
EP3316216B1 (en) Method for checking an object
DE102019120938B4 (en) Print inspection device and method for optically inspecting a printed image of a printed object
DE102021130505A1 (en) Method for determining an illumination color, image processing device and recording system
DE102019207739B4 (en) SYSTEMS AND METHODS FOR COLOR CORRECTION FOR UNCALIBRATED MATERIALS
DE19742152A1 (en) Image system for medical diagnostic imaging device
DE102008033171A1 (en) Method and device for inline quality assurance on printing machines

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
DPEN Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2005740075

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2005740075

Country of ref document: EP