WO1998015919A1 - Procede et appareil de detection de defauts de raies sur des documents imprimes - Google Patents

Procede et appareil de detection de defauts de raies sur des documents imprimes Download PDF

Info

Publication number
WO1998015919A1
WO1998015919A1 PCT/JP1997/003611 JP9703611W WO9815919A1 WO 1998015919 A1 WO1998015919 A1 WO 1998015919A1 JP 9703611 W JP9703611 W JP 9703611W WO 9815919 A1 WO9815919 A1 WO 9815919A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
input
partial
inspection
pixels
Prior art date
Application number
PCT/JP1997/003611
Other languages
English (en)
French (fr)
Inventor
Hiroshi Satou
Hideto Sakata
Masahiko Soeda
Kenta Hayashi
Original Assignee
Dai Nippon Printing Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP26837596A external-priority patent/JP3816994B2/ja
Priority claimed from JP31923096A external-priority patent/JP3902823B2/ja
Priority claimed from JP9213212A external-priority patent/JPH1148457A/ja
Priority claimed from JP21321197A external-priority patent/JP3835898B2/ja
Priority claimed from JP21297697A external-priority patent/JP3865880B2/ja
Application filed by Dai Nippon Printing Co., Ltd. filed Critical Dai Nippon Printing Co., Ltd.
Priority to US09/077,553 priority Critical patent/US6366358B1/en
Priority to EP97943155A priority patent/EP0872810A4/en
Publication of WO1998015919A1 publication Critical patent/WO1998015919A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41FPRINTING MACHINES OR PRESSES
    • B41F33/00Indicating, counting, warning, control or safety devices
    • B41F33/0036Devices for scanning or checking the printed matter for quality control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30144Printing quality

Definitions

  • the present invention relates to a method and an apparatus for inspecting printed-sheet streak defects, a method and an apparatus for extracting an edge area for the inspection, a method and an apparatus for creating a binary image, an image input method and an apparatus for an inspection of a printed matter, and a method and an apparatus for selecting a plain area.
  • the present invention relates to a method and an apparatus for inspecting printed-sheet streaks, a method and an apparatus for extracting an edge area for the inspection, a method and an apparatus for creating a binary image, an image input method and an apparatus for an inspection of a printed matter, and a method for selecting a plain area.
  • the present invention relates to a method and an apparatus suitable for detecting fine streak defects occurring in a printed matter, and to a method and an apparatus suitable for detecting streak defects in a printed matter, and to an image processing for the inspection.
  • Suitable streak defect edge area extraction method and apparatus similarly binary image creation method and apparatus, and moving in the width direction of the raw material as a target to be inspected with a picture printed on a running raw material
  • An image input method and device for printed matter which is suitable to be applied when inspecting the printing state based on an image input with a possible camera ⁇ 3 ⁇ 4, select a plain area from the whole picture on printed matter,
  • the inspection device has the plain area Suitably applied by partial input power camera when you examine the printing state based on inspection image image input relates solid area selection method and apparatus for printed matter examination.
  • ink is supplied to the surface of a rotating plate cylinder, and excess ink is removed by a doctor blade.
  • FIG. 1 conceptually shows the test images input to test whether such doctor muscles are generated and their characteristics.
  • FIG. 1 (A) is described in detail later.
  • FIG. 3 shows an input image corresponding to an example of a vertical addition image.
  • a streak portion L which is continuous in the vertical direction exists in a substantially flat background, and a noise N also exists.
  • the distribution profiles of the gradation values (brightness values) in the scan lines (1), (11), and (III) in the ⁇ direction shown in FIG. 1 (A) are shown in FIGS. 1 (B), (C),
  • As shown in (D) peaks P 1 at almost the same position corresponding to the streaks are observed in all profiles, and peaks P n due to noise N are also observed at different positions. .
  • One of the image processes used for the above-described print defect detection is edge extraction for detecting an edge which is a boundary between light and shade of an image from an input image.
  • This edge extraction is performed by applying various differential operators to the image data consisting of the pixel values of the input image.
  • Such operators include, for example, Prewitt's Operators, Sobel operators, and Laplacian operators for second derivatives.
  • edges are extracted for all the picture portions in the input image, and therefore, the edge detection method is performed based on the input image.
  • the mask creation processing is performed as described above.
  • the inspection image includes a streak-like defect such as the above-mentioned streak, the defect is processed in the same way as a pattern. If is applied to the inspection image, the streak is masked together with the edge of the normal picture, so that a streak-like defect cannot be detected.
  • FIG. 2B shows the gray scale values of each pixel in the horizontal direction in FIG. 2A.
  • an edge is extracted by applying a Laplacian ⁇ operator or the like to the image as shown in (C), and the edge position is centered on the left and right by several pixels. Is the edge area.
  • FIG. 4 together with each edge region of the above (C) for noise removal and the like, expansion of these regions by several pixels on both sides of each region is performed as shown in FIG. State. Thereafter, a contraction process for returning to the same number of pixels as in the above (C) is performed, and this is used as a mask image.
  • FIG. 5 (E) shows a state in which the mask image created as described above is superimposed on the image of FIG. 2 (A).
  • P tile method which is used when an area ratio (pixel ratio) P occupied by an object to be binarized with respect to a background in an input image is known in advance, is known. .
  • a threshold value T is set for an input image having a distribution profile of gradation values for one line shown in FIG. 6A, the corresponding binary image As shown in Fig. 6 (B), the distribution of pixel values of 1 (ON) and 0 (OFF) for one line of Based on the premise, the threshold T is determined and binarized so that the mortar P becomes equal to the area ratio P of the target to be detected.
  • Still other methods include a moving average method that determines a threshold value for each pixel and a partial image division method that divides the entire image into a plurality of grid-like partial images and determines the threshold value for each partial image.
  • a method called is also known.
  • FIG. 7 conceptually illustrates this.From the input image similar to FIG. 1 (A) shown in FIG.
  • the threshold value is set lower than an appropriate value
  • the binary image is converted to the streak portion as shown in Fig. 7 (B).
  • the pixels in the figure are turned on. Many of the pixels in the noise are also turned on, making it difficult to distinguish between the two.
  • the pixels in the streak are turned on as shown in Fig. 7 (C). Instead, only the noise becomes a noticeable binary image.
  • the number of pixels for calculating the area for calculating the threshold is smaller than the actual streak portion by applying the P tile method. If the number is large, the threshold value is set low, so that a lot of noise is extracted as shown in Fig. 8 (B). Conversely, when the number of pixels for calculating the area is smaller than that of the streak, the threshold value is increased and the streak is not extracted as shown in Fig. 8 (C), and only noise N with a large gradation value is extracted. Will be.
  • the input image has higher gradation than the streak portion In this case, the pixels in the streaks cannot be correctly binarized.Therefore, in the case of an input image where such noise is unevenly distributed in a part of the image and locally concentrated, However, as shown by the circles in Fig. 8 (D), local noise and the like are extracted, and there is a problem that the target streak is not accurately extracted.
  • a high resolution test can be performed by inputting an image by limiting a certain range from among the patterns.
  • the moving average method that dynamically performs threshold processing requires a longer processing time than the fixed threshold processing method and the ⁇ tile method in order to determine a threshold value for each pixel.
  • the partial image segmentation method is not the same as the moving average method, the calculation is performed for each pixel included in each of the grid-like partial images, so that there is a problem that the processing time is similarly long.
  • the force shown in Fig. 10 shows the example set at the top.
  • the shooting point is registered at a specific fixed position (6 places in the width direction in the figure) for the entire picture, not just at the top. Move the camera in sequence to take pictures automatically.
  • the photographing point is determined at a random position with respect to the entire picture and photographing is performed.
  • the signal corresponding to the defect may be removed.
  • Prevention treatment may cause minor defects to be overlooked o Disclosure of invention
  • the present invention has been made to solve the above-mentioned conventional problems, and it is possible to reliably detect a low contrast and fine streak defect from an inspection image including a picture.
  • the first task is to propose a method and an apparatus for inspecting printed-sheet streaks that can perform the inspection.
  • the present invention also provides a method for processing an inspection image input as a blank image as a monochrome image of each of the R, G, and B frames. It is a second object of the present invention to provide a method and an apparatus for inspecting printed line defects that can be detected with high accuracy.
  • an edge is included in an edge area to be extracted only when a flat portion of an image signal corresponding to a pattern or the like is smaller than or equal to a predetermined width from an image obtained by inputting a print pattern or the like.
  • a third object is to provide a method and an apparatus for extracting an edge area for streak defect inspection, which can prevent the edge area from being removed.
  • the present invention also provides an image in which streaks are binarized easily and reliably even on a place where noise is included, from an image where muscle portions are continuous in substantially the same direction on a flat background.
  • a fourth object of the present invention is to provide a method and an apparatus for creating streak defect inspection, which can be created.
  • the present invention also provides a printed matter which utilizes the above-described binary image creation technology and has a low contrast and can reliably detect even fine streak defects from an inspection image including a picture.
  • a fifth object is to provide a line defect inspection method and apparatus.
  • Another object of the present invention is to provide an image input method and apparatus for inspecting printed matter, which can easily and surely input a picture portion of a point even when there are many photographing points to be input on the picture. This is the sixth issue.
  • a seventh object is to provide a method and an apparatus for selecting a solid area for printed matter inspection, which can perform the inspection.
  • the present invention relates to a streak defect inspection method for a printed matter which detects a streak defect occurring on a printed matter from an inspection image into which a printed matter is input, and a pattern exclusion step for removing a pattern part from the inspection image.
  • the present invention also relates to a streak defect inspection apparatus for a printed matter, which detects a streak defect occurring on a printed matter from an inspection image into which the printed matter has been input, wherein a pattern for removing a pattern part from the inspection image is provided.
  • the present invention has solved the first problem.
  • the present invention provides a method for inspecting a printed material for streak defects that detects a streak defect generated on a printed material from a test image obtained by inputting a color image of the printed material.
  • the present invention is also a print defect inspection apparatus for detecting a streak defect generated on a printed material from an inspection image obtained by inputting a printed image of a printed image, wherein the input inspection image is Means for separating the R, G, and B frames into monochrome images, means for performing predetermined image processing on each monochrome image, and combining each monochrome image after image processing to form a combined image
  • the second problem is likewise solved by providing means for creating and means for judging the presence or absence of a streak defect based on the composite image.
  • the present invention relates to an edge area extracting method for extracting an edge area based on an edge whose pixel value changes rapidly in at least one of a horizontal direction and a vertical direction of an input image, wherein a flat portion having no or small change in pixel value is provided. If the width is less than or equal to a predetermined value, the edge area located at both ends of the flat portion is not included in the edge area, otherwise, the edge is included in the edge area. Thus, the third problem has been solved.
  • the present invention also provides an edge area extracting apparatus for extracting an edge area based on an edge whose pixel value changes rapidly in at least one of a horizontal direction and a vertical direction of an input image, wherein: When extracting the edge region from the input image, at least the position where pixel ⁇ is compared is specified as a parameter. Means for setting the number of pixels to be used, and the number w of pixels between edges for defining the maximum width of the flat portion so that the edges are not included in the edge area, and directions opposite to each other with respect to the target pixel. Means for extracting a pixel of interest as an edge area when the difference exceeds a predetermined threshold value, and a flattening of the width W of the number of pixels between the edges.
  • the width of a pair of edge areas extracted for each part is expanded in pixel units, the number N of expanded pixels that are not connected to both edge areas is calculated, and the edge area after expansion is calculated.
  • Means for calculating the number P of eroded pixels to be eroded means for expanding the width of all edge regions extracted from the input image by N pixels on both sides, and means for expanding the width of the expanded edge region on both sides.
  • Means to shrink by P pixels By having a, but was Unishi I that can reliably perform the Ejji region extraction method.
  • an image is input, edge area extraction processing is performed on the image, and an extracted image including the resulting edge area is output.
  • the input image targeted by the present invention may be any of a binary image, a multi-valued monochrome image, and a color image.
  • edge region extraction processing There are three types of edge region extraction processing: (A) extracting only vertical edges, (B) extracting only horizontal edges, and (C) extracting both horizontal and vertical edges simultaneously.
  • the output image is a two-dimensional binary image in which the edge region and the others are set, for example, the edge region is set to 1 (or ON), the other is set to 0 (or OFF), or vice versa. And output them.
  • FIG. 12 The relationship between the edge area extracted according to the present invention and the input image is schematically shown in FIG. 12 in the case where the image signal is composed of one-dimensional pixel values (gradation values) in the horizontal direction. Let me explain.
  • Fig. 12 (A) corresponds to an image in which bright lines are displayed vertically on a dark background
  • Fig. 12 (B) corresponds to the opposite platform.
  • the edge is the pixel at the position where the pixel value changes abruptly. If the flat part where the pixel value does not change much touches another flat part with different brightness, Exists.
  • the force at which the edge region is extracted at a position including the edge inside As will be described later, the edge area is extracted at a position not including the edge. No force or edge regions are extracted.
  • Fig. 12 above shows that the vertical edge as shown in Fig. 13 (A) is extracted. ⁇ If the processing direction is changed by 90 °, the horizontal as shown in Fig. 13 (B) can be obtained. The edge in the horizontal direction can be extracted, and if the processing in the vertical direction and the horizontal direction is performed simultaneously, the edge areas in both the horizontal and vertical directions can be extracted simultaneously.
  • the present invention also provides a method for creating a binary image for streak defect inspection, comprising the steps of: inputting an image in which the existence of streaks that are substantially continuous in the same direction is expected; By dividing the image into continuous partial images each having a width of at least one line orthogonal to the part, and applying a P-tile method to each of the divided partial images to binarize each pixel, This is to solve the fourth problem.
  • the present invention also provides a binary image creating apparatus for streak defect inspection, comprising: means for inputting an image which is expected to have streaks that are substantially continuous in the same direction; And a means for applying a P-tile method to each of the divided partial images to binarize each pixel. Similarly, the fourth problem has been solved.
  • the P tile method that can binarize accurately in a short time can be applied to one line orthogonal to the direction in which the streak portion is generated. Or, if there is noise in the input image by applying the number of pixels (area) to be turned on to the partial image consisting of multiple lines as the number of pixels included in the streak or a constant value close to it
  • streaks existing in each partial image can be linearized in a relatively short time and accurately.
  • the present invention also relates to a method of inspecting a printed matter for detecting streak defects occurring on a printed matter from an inspection image obtained by inputting an image of the printed matter, and excluding a pattern portion from the inspection image.
  • a step a muscle emphasis step for emphasizing a streak portion existing in the image after the exclusion process, and a step of inputting the image after the emphasis process in which a streak portion substantially continuous in the same direction is expected.
  • the fifth problem has been solved by having a step of straightening and a determining step of determining a streak defect based on the straightened image.
  • the present invention also relates to a printed line streak defect inspection apparatus for detecting a streak defect occurring on a printed material from an inspection image into which a printed material is input, and excluding a pattern portion from the inspection image.
  • the fifth problem is similarly solved by providing a value converting means and a determining means for determining a streak defect based on the binarized image.
  • the present invention is directed to a partial image in which a pattern printed on an original roll traveling by a plate cylinder is to be inspected, and a part of the pattern is image-input by a partial input force film movable in a width direction of the original roll by a moving mechanism.
  • the present invention is also directed to a partial image obtained by partially inputting a pattern by a partial input camera movable in the width direction of the raw material by a moving mechanism, with a pattern printed on the raw material traveling by the plate cylinder being inspected.
  • the partial image input camera inputs an entire image including the entire pattern, which is installed at a predetermined distance in the flow direction of the raw material. A position on the whole image of a partial image that can be input by the partial input camera when the partial input camera is on the origin set on the moving mechanism, and a setting on the whole image.
  • the sixth problem is also solved by providing a means for moving by a mechanism and a means for inputting a partial image at an arbitrary timing by the partial input camera moved to the target position. .
  • the whole image including the whole picture is inputted by the whole input camera, and the whole rest is based on the relationship between the whole image and the partial image inputted by the partial input camera.
  • Position on image and actual position of partial input camera A position on the hardware, so that the shooting point to be input by the partial input camera can be easily set by simply using a pointing device or the like at a predetermined position in the width direction on the entire still image. Can be input.
  • a pattern located at a reference point in a flow direction on the whole image based on a separation distance in a flow direction between the whole input camera and the partial input force camera and a plate cylinder circumference Calculating a reference input timing at which the part can be input by the partial input camera; and setting, on the whole image, a shooting point to be input by the partial input camera in the flow direction in addition to the width direction. Calculating the number of pixels in the flow direction between the set photographing point and the reference point in the flow direction on the whole image; and calculating the resolution in the flow direction of the whole image to the calculated number of pixels in the flow direction.
  • the input camera by a step of inputting the partial images at a timing passed the waiting time force from said reference input timing, it is obtained to be set in the flow direction photographic point.
  • a pattern printed on an original running by a plate cylinder is inspected and moved.
  • the image input method for printed matter inspection applied when inspecting the printing condition based on the partial image in which a part of the image is input by the partial input force movable in the width direction of the raw material by the mechanism
  • Calculating a widthwise movement amount on the moving mechanism moving the partial input camera by the moving mechanism to a target position corresponding to the widthwise movement amount; moving the partial input camera to the target position; Inputting a partial image at an arbitrary timing by using the partial input camera, and inputting the entire image as the latest image as appropriate by the entire input camera; and updating the latest image and the reference image.
  • the sixth problem is solved by having a step of correcting the amount of movement of the partial input camera in the width direction on the basis of the difference in the width direction from the camera.
  • the present invention is also directed to a partial image obtained by partially inputting a pattern by using a partial input force movable in a width direction of the raw material by a moving mechanism, with a pattern printed on the raw material traveling by the plate cylinder as an inspection target.
  • the whole image including the entire pattern, which is installed at a predetermined distance from the partial input camera in the flow direction of the raw material, A total input force camera input as a reference image; and a position on the reference image of a partial image that can be input by the partial input camera when the partial input camera is in an original set on the moving mechanism; Means for associating the width direction position on the reference image with the width direction position on the moving mechanism from the relationship with the width direction reference point set above, and inputting by the partial input camera on the reference image Means for positioning and setting the shooting point in the width direction; and Means for calculating the number of pixels in the width direction between the set photographing point and the reference point in the width direction; and multiplying the calculated number of pixels in the width direction by the resolution in the width direction of the reference image.
  • Means for calculating an upper width direction moving amount means for moving the partial input camera to a target position corresponding to the width direction moving amount by the moving mechanism, and partial input camera moved to the target position.
  • Means for inputting a partial image at an arbitrary timing means for inputting the entire image as the latest image as appropriate by the entire input camera; and a width direction between the latest image and the reference image.
  • the whole image including the entire picture is inputted as the reference image by the whole input camera, and based on the relationship between the whole image (reference image) and the partial image inputted by the partial input camera, Since the position on the whole image and the actual position of the partial input camera (upright position on the hardware) are associated with each other, the photographing point to be input with the partial input force camera can be obtained by a pointing device or the like.
  • the partial image of the photographing point can be easily input simply by setting the predetermined position in the width direction.
  • the latest image is compared with the reference image as appropriate, and if a displacement (difference) force ⁇ between the two, the position in the width direction of the partial input camera is corrected based on the displacement. Therefore, even if the raw material is misaligned in the width direction over time or the image is misaligned in the flowing direction, a partial image of an accurate photographing point can always be input.
  • a pattern located at a reference point in a flow direction on a reference image based on a separation distance in a flow direction between the overall input camera and the partial input force camera and a plate cylinder circumference Calculating a reference input timing at which the part can be input by the partial input camera; and setting a shooting point to be input by the partial input camera on the reference image in the flow direction in addition to the width direction. Calculating the number of pixels in the flow direction between the set photographing point and the reference point in the flow direction on the reference image; and calculating the resolution in the flow direction of the reference image to the calculated number of pixels in the flow direction. Calculating a waiting time from the reference input timing based on an actual distance obtained by multiplying
  • a pattern located at a reference point in a flow direction on a reference image based on a separation distance in a flow direction between the overall input camera and the partial input force camera and a plate cylinder circumference Means for calculating a reference input timing at which a portion can be input by the partial input camera; and a photographing point to be input by the partial input camera on the reference image, which is positioned and set not only in the width direction but also in the flow direction. Means for calculating the number of pixels in the flow direction between the set photographing point and the reference point in the flow direction on the reference image; and calculating the resolution in the flow direction of the reference image to the calculated number of pixels in the flow direction.
  • the present invention also provides a method for selecting a plain area from the whole picture on a printed matter and using the plain area as an inspection point to inspect a printing state based on an inspection image input by a partial input camera of the inspection apparatus.
  • This is a solid area selection method for the printed material ⁇ that is applied to the printed image, and includes the entire printed pattern 1 ⁇ , the step of manually inputting the entire image, and the size equivalent to the inspection image from the input all rest images Extracting the partial images in units of, calculating the evaluation value representing the brightness flatness of each of the extracted partial images, and selecting from among the partial images based on the calculated evaluation values.
  • the entire image obtained by inputting the entire pattern to be inspected is divided into partial images of a predetermined size, and the flatness of each partial image is evaluated.
  • the plain region means a region where there is almost no difference in density on the printed matter or as close as possible.
  • the present invention also provides the solid-state area selection method, wherein the evaluation value representing the flatness of the luminance is: a large frequency of the luminance distribution for all the pixels included in the partial image; a variance of the luminance distribution; This is assumed to be at least one of the luminance values divided into a predetermined ratio biased toward the luminance side or the low luminance side.
  • the present invention also provides the solid region selecting method, wherein the partial image is cut out sequentially (over the entirety of the entire image while shifting the partial image by at least one pixel in the horizontal direction on the entire image). It was done.
  • the present invention is applied to a case where a plain area is selected from the entire pattern on a printed matter, and the plain area is used as an inspection point to inspect a printing state based on an inspection image input by a partial input camera of the inspection apparatus.
  • Means for cutting out an image means for calculating an evaluation value representing luminance flatness for each of the cut-out partial images, and one having high luminance flatness from among the partial images based on the calculated evaluation value Means for selecting a predetermined number as an inspection point on the image while selecting position information as a solid area on the image;
  • the present invention also provides the solid-state area selecting device, wherein the evaluation value representing the luminance flatness is a maximum frequency of a luminance distribution for all pixels included in the partial image, a variance of the luminance distribution, and a high luminance distribution. This is assumed to be at least one of the luminance values divided into a predetermined ratio biased toward the luminance side or the low luminance side.
  • the present invention also provides the solid-state area selection device, wherein the partial image is sequentially cut out over the entirety of the whole image with a force that is shifted by at least one pixel in the horizontal direction on the entire image. It was done.
  • FIG. 1 is a diagram showing an example of an input image and its features.
  • Fig. 2 is an explanatory diagram schematically showing an example of an input image and its one-dimensional image input signal.
  • FIG. 3 is an explanatory diagram showing the input image and an edge region extracted image according to a conventional method.
  • FIG. 4 is an explanatory diagram showing the extracted image and its expanded image.
  • FIG. 5 is an explanatory diagram showing the expansion processing image and its contraction processing image.
  • FIG. 6 is a diagram for explaining the P tile method.
  • FIG. 7 is a diagram for explaining a problem of the fixed threshold value processing method.
  • FIG. 8 is a diagram for explaining a problem of the conventional P tile method.
  • FIG. 9 is an explanatory diagram conceptually showing an input method using the partial input force camera.
  • FIG. 1 ⁇ is an explanatory diagram showing an example of a method for setting an inspection point.
  • FIG. 11 is an explanatory diagram showing another example of a method of setting an inspection point.
  • FIG. 12 is a diagram conceptually showing a relationship between an image signal and an edge area.
  • FIG. 13 is an explanatory diagram schematically showing vertical and horizontal edges.
  • FIG. 14 is a block diagram showing a configuration of a line defect inspection apparatus according to the first embodiment of the present invention.
  • FIG. 15 is an explanatory diagram showing edge extraction at the time of creating a mask image in the first embodiment.
  • FIG. 16 is an explanatory view schematically showing an inspection image.
  • FIG. 17 is an explanatory diagram showing an image in which only a picture edge is extracted from the inspection image.
  • FIG. 18 is an explanatory diagram showing a mask image created based on the inspection image.
  • FIG. 19 is a conceptual diagram showing a differential operator used for edge extraction in the first embodiment.
  • Fig. 21 is an explanatory diagram conceptually showing the principle of synthesizing a mask image and an edge image.
  • FIG. 22 is an explanatory diagram showing a masked edge image after the synthesis.
  • FIG. 23 is an explanatory diagram showing an addition method for enhancing the pixel value in the vertical direction in the same manner.
  • FIG. 24 is an explanatory view conceptually showing the determination processing of a line defect as well.
  • FIG. 25 is a block diagram showing a schematic configuration of an edge area extraction device applied to the second embodiment according to the present invention.
  • FIG. 26 is an explanatory view schematically showing the principle of extracting an edge region in the second embodiment.
  • FIG. 27 is an explanatory diagram showing a method of calculating the number of times of expansion and contraction.
  • FIG. 28 is an explanatory view showing the principle of the edge area expansion processing.
  • FIG. 29 is an explanatory view showing the principle of the edge area contraction processing.
  • FIG. 30 is an explanatory diagram showing a processing procedure of edge area extraction for a thin line.
  • FIG. 31 is an explanatory diagram showing a processing procedure of edge area extraction for the middle line.
  • FIG. 32 is an explanatory diagram showing a processing procedure of edge area extraction for a thick line.
  • FIG. 33 is an explanatory diagram schematically showing an inspection image.
  • FIG. 34 is an explanatory diagram showing an inspection image and an extracted image of an edge region according to the second embodiment.
  • FIG. 35 is an explanatory diagram showing the extracted image and the dilation-processed image thereof.
  • FIG. 36 is an explanatory diagram showing the expansion processing image and the contraction processing image.
  • FIG. 37 is an explanatory diagram schematically showing an example of another ⁇ S image obtained by inputting a print pattern as an image.
  • FIG. 38 is an explanatory diagram showing a mask image generated from the inspection image.
  • FIG. 39 is an explanatory diagram conceptually showing the relationship between the original image and the mask image.
  • FIG. 40 is an explanatory diagram showing an edge image created from the inspection image.
  • Figure 41 shows a masked edge image obtained by combining the above mask image and edge image.
  • FIG. 42 is an explanatory diagram showing a state after the P 1 contraction of the edge region extracted for the flat portion having a width W or less.
  • FIG. 43 is an explanatory diagram showing the operation of the third embodiment according to the present invention.
  • FIG. 44 is an explanatory diagram showing the effect of the third embodiment.
  • FIG. 45 is another explanatory diagram illustrating the effect of the third embodiment.
  • FIG. 46 is an explanatory view showing the protruding state after the P1 contraction of the edge regions extracted for the flat portions having different widths.
  • FIG. 47 is an explanatory diagram showing the operation of the fourth embodiment according to the present invention.
  • FIG. 48 is an explanatory diagram showing the effect of the fourth embodiment.
  • FIG. 49 is another explanatory diagram showing the effect of the fourth embodiment.
  • FIG. 50 is a block diagram illustrating a configuration of an inspection apparatus that converts inspection images into R, G, and B monochrome images.
  • FIG. 51 is a diagram showing a problem in the case of using the above monochrome image.
  • FIG. 52 is a block diagram illustrating a schematic configuration of a line defect inspection apparatus according to a fifth embodiment of the present invention.
  • FIG. 53 is a diagram showing a method for synthesizing R, G, and B monochrome images in the fifth embodiment.
  • FIG. 54 is a diagram showing the effect of the fifth embodiment.
  • FIG. 55 is a block diagram showing a schematic configuration of an edge area extracting device according to a sixth embodiment of the present invention.
  • FIG. 56 is a block diagram showing a schematic configuration of an edge area extracting device of a seventh embodiment according to the present invention.
  • FIG. 57 is a block diagram showing a schematic configuration of the binary image creating apparatus according to the eighth embodiment of the present invention.
  • FIG. 58 is a diagram conceptually showing the procedure for creating a binary image in the eighth embodiment.
  • FIG. 59 is a block diagram showing a schematic configuration of the image input device according to the tenth embodiment of the present invention.
  • FIG. 60 is an explanatory diagram showing the positional relationship in the width direction of the entire input camera and the partial input camera in the tenth embodiment.
  • FIG. 61 is an explanatory diagram showing the positional relationship between the whole input camera and the partial input camera in the flow direction.
  • FIG. 62 is an explanatory view showing the relationship between the whole image and the photographing points.
  • FIG. 63 is an explanatory diagram showing the positional relationship in the flow direction between the entire input camera and the partial input force lens in the image input device according to the first embodiment of the present invention.
  • FIG. 64 is a block diagram illustrating a schematic configuration of the image input device according to the 12th embodiment of the present invention.
  • FIG. 65 is a diagram showing a displacement of the latest image from the reference ghost image in the 12th embodiment.
  • FIG. 66 is a block diagram schematically showing a solid-state area selecting device according to the fourteenth embodiment of the present invention.
  • FIG. 67 is a diagram showing the relationship between the entire image and the partial images in the fourteenth embodiment.
  • FIG. 68 is a diagram showing a method of extracting a partial image in the same manner.
  • FIG. 69 is a diagram showing an example of a partial image and its luminance distribution.
  • FIG. 70 is a diagram for explaining the partially divided pixel value.
  • FIG. 71 is a flowchart showing the processing procedure in the fourteenth embodiment.
  • FIG. 72 is a block diagram schematically showing the solid-state area selecting device of the fifteenth embodiment according to the present invention.
  • FIG. 73 is an explanatory diagram showing the parallel processing in the fifteenth embodiment.
  • FIG. 74 is an explanatory diagram showing an inspection point when only one evaluation value is used.
  • Fig. 75 is an explanatory diagram showing an inspection point when two evaluation values are used together.
  • FIG. 76 is a block diagram schematically showing a solid region selection device according to a sixteenth embodiment of the present invention.
  • BEST MODE FOR CARRYING OUT THE INVENTION will be described in detail with reference to the drawings.
  • FIG. 14 is a block diagram showing a schematic configuration of the line defect inspection apparatus according to the first embodiment of the present invention.
  • the inspection apparatus detects streak defects occurring on a printed matter from an inspection image obtained by inputting the printed matter, and an image in which the inspection image is optically manually input from the printed matter by a CCD camera or the like.
  • An input unit 10 a pattern exclusion unit 12 that removes a pattern part from an input inspection image, and a line emphasis process that emphasizes a line part that exists in the image after the exclusion processing in which the pattern part is excluded.
  • a determination unit 16 that determines a streak defect based on the image after the emphasis processing in which the streak portion is enhanced, and a defect display unit 18 that displays the determined streak defect on a monitor. Have.
  • the picture exclusion section 12 includes a mask image creation section 12A, an edge image creation section 12B, and a masked edge image synthesis section 12C.
  • the vertical addition unit 14A and the determination unit 16 include a binarization unit 16A and a line recognition unit 16B, respectively.
  • an image is a monochrome image in which each pixel constituting the image is displayed with a pixel fit of 256 tones of 0 to 255. Therefore, a single color image can be handled similarly as a monochrome image of three frames of R, G, and B.
  • the mask image creation unit 12A has a function of creating a mask image for masking an edge of a picture portion extracted from an inspection image.
  • the mask image creation unit 12A generates a mask image for excluding line segments other than streak defects and edge portions of a pattern included in the inspection image input by the image input unit 10 from the detection process.
  • Has the ability to create Specifically, for example, as shown conceptually in the arrangement of pixels in Fig. 15, the difference between the pixel values of adjacent pixels is calculated, and this is subjected to threshold processing. Create a binary mask image corresponding to only the edges. For convenience, if the pixel value is described with the same symbol as the symbol representing the pixel, it can be expressed by the following equations (1) and (2).
  • P: j ⁇ P n> ni means that calculation is not performed between the same pixels.
  • the threshold value Ti is not a fixed value, but is experimentally obtained as a value at which the edge of the streak defect is not extracted.
  • FIG. 17 shows an example in which the inspection image shown in FIG. 16 schematically shows the picture P and the streak defect (doctor streak) D as the inspection image. That is, an edge of only the pattern P having a clear shade is extracted, and a binarized image is obtained in which the edge of a low-contrast linear (streak-like) portion, such as a doc dash line D, is not extracted. Then, based on the edge of the image in FIG. 17, a mask image in which a mask portion M as shown in FIG. 18 having a width sufficient to mask the edge can be created.
  • the edge image creating unit 12B has a function of creating an edge image including an arbitrary edge extracted from the same inspection image. That is, the edge image creating unit 12B extracts all edges in the water apple direction from the inspection image in order to detect streak defects in the vertical direction.
  • edges are obtained by calculating the difference between pixel values between pixels in the horizontal direction where a streak defect is to be detected in the vertical direction.
  • a differential operator described in the following equation (3) corresponding to the horizontal pixel arrangement schematically shown in FIG. 19 to each pixel, a line having a low contrast is obtained.
  • the edge image creation unit 12 # normalizes the calculation result of the operator of the above equation (3).
  • the simple calculated value of the above equation (3) is defined as a value of minus and plus (min. Value-510, maximum value + 510), and it will not be possible to display with 0 to 255 gradations as it is, so it is a process to enable this display.
  • equation (3) If the calculation result of equation (3) is, for example, 1 510, 0, +510, divide these by 4 and then shift them by 128 minutes as a whole, 1, 128, 25
  • the normalization performed here is performed when the pixel value of the result of addition or subtraction of a so-called inter-frame operation performed by a general image processing device becomes negative,
  • This processing is substantially the same as that for displaying up to 255 gradations.
  • FIG. 20 schematically shows an edge image obtained by applying the above-described differential operator to the inspection image of FIG. 16, and shows the strength based on the pattern P, the edge PE and the doctor straight line. Weak edges DE and forces based on D are extracted. It is needless to say that the edge image is not limited to the above-mentioned differential operator, and that other edge extraction processing methods may be applied.
  • the masked edge image forming unit 12C has a function of synthesizing the created edge image and the mask image. That is, the masked edge image forming unit 12C combines the edge image created by the above-described image processing with the mask image, determines a pixel to be inspected, and excludes the pixel from the subsequent processing. Work.
  • pixel Pn on the edge image is compared with pixel Mn on the corresponding mask image. If the pixel Mn is not at the edge (mask portion), the pixel Pn is left as it is. Conversely, if the pixel Mn is at the edge, the pixel Pn is masked (not to be inspected). .
  • the pixel value of the pixel P n is set as it is for the corresponding pixel of the synthesized image, and conversely, when the pixel M n is an edge portion, This means that the tone value 1 2 8 corresponding to the origin of is set, and the strong edge PE in the edge image is masked.
  • the mask processing performed here is to set the gradation value 1 28 set as the pixel value of the origin of normalization in the above equation (5) to the pixel of the image formed at the edge of the mask image.
  • This means that the masked image obtained by synthesis is also normalized to 128, and at the same time, the edge PE is masked and excluded from inspection.
  • the result can be displayed as an image using gradation values of 0 to 127.
  • FIG. 22 schematically shows a masked image created by performing the above-described synthesizing process on the mask image of FIG. 18 and the edge image of FIG. 20. It is shown that the strong edge PE is excluded as described above, and the weak edge DE based on Doc D is still strong.
  • the vertical addition section 14A included in the line emphasis processing section 14 is a section in which a picture portion is excluded.
  • the pixel value of the target pixel is added to the pixel value of a predetermined number of pixels including the target pixel and arranged in the same direction. It has a function to replace the value with the set value. This is described below in a case where pixel values of a masked edge image are added in the vertical direction to emphasize vertical streaks and suppress noise components.
  • the masked edge image created by the image synthesizing unit 12C is composed of pixels having a gradation value that changes in accordance with the strength of the edge in both the upper and lower directions with the gradation 128 as an original point (reference value).
  • a gradation value that changes in accordance with the strength of the edge in both the upper and lower directions with the gradation 128 as an original point (reference value).
  • the amount of change is small, it is not possible to adopt a method of extracting a pixel value difference (density difference) by setting a threshold value.
  • FIG 23 schematically illustrates the principle of this enhancement calculation.
  • each pixel value is added from pixel P n , m to R pixel in the vertical direction, and the sum is added.
  • the subsequent pixel value is set to the pixel value of the pixel P n , ⁇ of the added image shown in (A). That is, the pixel value of the added image is calculated by the following equation (6).
  • the value normalized by the above-mentioned equation (5) is converted from the gray scale value 128 corresponding to the origin to ⁇ ⁇ as described above, and the pixel value exceeding 128 Use a value of + and pixel values less than 128 as one.
  • R is a constant determined experimentally.
  • the value of + ⁇ is canceled out in the pixels in the flat portion.
  • L does not greatly change from the gradation value ⁇
  • the pixel at the streak defect portion is either + or ⁇ , and an added image is created in which the pixel value is emphasized on one side. That is, based on the streak defect in FIG.
  • the weak edge DE is emphasized, and an image having + or one distinct pixel value is obtained.
  • the addition method for the line emphasis processing is not limited to the method of adding the pixel values of the pixels below the first pixel as shown in the above equation (6), but the pixels of a predetermined number of pixels in the same direction. Any method may be used as long as it adds horns. For example, the calculation may be performed on an intermediate pixel value as in the following equation (6 ').
  • binarization unit included in the determination unit 16 16A is a function of creating a binarized image by setting a threshold value and performing binarization processing on the added image in which the vertical streak portion created by the vertical addition unit 14A is emphasized. have.
  • a streak-like point (pixel) and its For example, a threshold T2 (determined experimentally) is set in order to classify the pixel into a part other than the pixel where the absolute value of each pixel value is equal to or greater than the threshold T2. Since it is high, if IP n , m I ⁇ T2, it is turned on to make the pixel a candidate for a streak-like point. Conversely, if IP n , m I ⁇ T2, it is assumed that the pixel is not a streak-like point. Set to 0 ff. Note that the binarization process executed here is not limited to the above method, and for example, a moving average method, a discriminant analysis method, or the like may be used.
  • the line recognizing unit 16B included in the judging unit 16 is configured such that, with respect to the binarized image created by performing the binarization after the emphasizing process, the On pixels are fixed in the vertical direction (substantially the same direction). It has a function of determining whether or not the pixel constitutes a vertical line (streak) -like defect based on whether or not the pixel exists as described above.
  • the determination is made as follows. If the streak defect to be detected is very thin and fine L, there is a possibility that L is not connected as a single line on the two-valued image. As shown conceptually in Fig. 7, if the number of pixels that are On is equal to or greater than the threshold T3 in one vertical line with pixels as a unit, it is determined to be a streak defect to be detected. This threshold T3 is experimentally determined in advance.
  • the above determination is not necessarily performed for pixels in one line. Since there is a possibility that the streak defect input in the image extends over two or more adjacent lines, the number of pixels that are on for two or more lines may be calculated. Also, if necessary, a process of reducing isolated pixels by performing a process of reducing On pixels in the vertical direction by a plurality of pixels and then expanding the pixels by the same number of pixels may be performed.
  • an inspection image is input, a mask image is created from the inspection image, an edge image is created, and then both of these images are combined to obtain a masked edge image. Then, a vertical addition image is created for the image to emphasize the pixel vertical, a binarized image is created from the emphasized image, and line recognition is performed on the binarized image. .
  • the inspection image includes a pattern
  • conventional printed matter inspections can automatically detect even low-contrast and fine, so-called doctor streaks, which could only be detected by visual inspection, and so-called doctor streaks. Become.
  • the mask image created in the first embodiment is created by the method described in claims 3 and 4.
  • the inspection apparatus is an edge area extraction apparatus having a function in FIG. 14 in which the mask image creation unit 12 ⁇ has a function of creating a mask image using an edge area extracted by a method described later as a mask portion. Except for the configuration, it is substantially the same as the inspection device of the first embodiment.
  • the edge area extraction apparatus applied to the present embodiment has a visual field dimension, for example, the image input unit including a CCD area sensor camera including 30 ⁇ 30 images.
  • the image input unit including a CCD area sensor camera including 30 ⁇ 30 images.
  • an input image storage unit 20 for storing an inspection image in which a pattern or the like from a printed material is input, and an input image (inspection image) read from the storage unit 20 are described below.
  • Parameter storage unit 2 to make processing executable edge region extraction unit 24, expansion ⁇ contraction count calculation unit 28, edge expansion unit 3 ⁇ , edge contraction unit 34, and edge extraction unit 2 4, Edge expansion part 30, Edge collection
  • An edge area storage unit 26, an edge expansion storage unit 32, and an output image storage unit 36 are provided to store the results processed by the reduction unit 34, respectively.
  • the parameter storage unit 22 includes, from the input image read from the input image storage unit 20, a pixel number L for defining a position at which a pixel value is compared when an edge area is extracted, and a threshold value T used for determination.
  • This is a means for setting, as parameters, the number W of pixels between wedges for defining the maximum width of the flat portion excluding the wedges from the wedge area.
  • the threshold ⁇ does not require an equal sign when creating a mask image, but the equal sign is included here in consideration of the case where the present embodiment is applied to an inspection apparatus.
  • the edge region extraction unit 24 uses a parameter L and a parameter read from the parameter storage unit 22 to extract a vertical edge region, as schematically shown in FIG. is located away L pixels in opposite directions around the P nm, also shown in ⁇ , P n - and compares the pixel values of m and P n + I, exceeds the Saka ⁇ threshold ⁇ This is a means for judging the pixel of interest in the case as an edge area and extracting it.
  • the edge area extracted by the edge area extraction unit 24 is temporarily stored in the storage unit 26. It should be noted that the same calculation principle can be used to extract the edge regions in both the horizontal direction and the horizontal and vertical directions.
  • the expansion / shrinkage frequency calculation unit 28 receives the parameter W from the parameter storage unit 22 and calculates the width of a pair of edge regions extracted for a flat portion where the number of pixels between edges is W. Both edge areas do not touch when expanded in pixel units
  • the N A as shown in FIG. 27 (B), from the edge, the length of the flat portion to the edge region extracted by the above method (number of pixels), for any edge area left in the figure
  • the number of pixels from the right edge of the edge area to the right edge of the flat part is L from the extraction principle shown in FIG. , Given by L-W.
  • calculation unit 28 also calculates the number P1 of contracted pixels for contracting the edge area after dilating the N pixels.
  • PI N as in the following equation.
  • the edge expansion unit 30 performs expansion processing on the edge area extracted image read from the edge area storage unit 26 to expand the width by the number of pixels of the expansion number N obtained by the calculation unit 28.
  • the letter is an edge area, and one expansion means that the width of the edge area is extended by one pixel on both sides in the horizontal direction.
  • the image data subjected to the expansion processing in the above-mentioned edge expansion section 30 is the edge expansion storage section 32 After that, the data is read out to the edge contracting section 34, and contraction processing for contracting by the same number of pixels as the pixels expanded by the edge expanding section 30 is performed.
  • FIG. 29 conceptually shows the contraction processing for the edge area subjected to the expansion processing in FIG. 28 described above.
  • the erosion process means that the same number of pixels as dilated is reduced from both sides of the dilated edge area, and as a result of the dilation, the edge areas on both sides are reduced. Except in the case, it returns to the edge area before expansion.
  • the contracted edge area image is stored in the output image storage unit 36.
  • FIG. 30 shows an example of the case where the width of the line (number of pixels between edges) is 2 and the edge is the edge area.
  • the one-dimensional input image signal has a width of 2 pixels, as shown in FIG. 30 (A), according to the principle shown in FIG.
  • the pixel values are compared, and the pixel of interest when the value is greater than the threshold value T is set as an edge area, an edge area including two pixels indicated by hatched circles on both sides of the two shots is obtained.
  • the image shown in Fig. 30 (B), in which is extracted, is obtained.
  • Figure 30 (D) is obtained as the final edge area extraction image by performing the contraction to reduce.
  • the contraction processing is not performed at that part, so the edge area after contraction is as shown in Fig. 31 (D) It becomes continuous from the left edge of the left edge area extracted in Fig. 31 (B) to the right edge of the right edge area, and the line shown in Fig. 31 (A) of the human power image is inside the edge area after this contraction. Since the pixels of four climbs corresponding to are included in a completely crushed state, the edges are naturally included.
  • FIG. 33 An example in which the edge region extraction method according to the present embodiment is applied to the inspection image (A) shown in FIG. 33 will be described in further detail.
  • This inspection image is a schematic representation of a picture, and corresponds to an image in which four types of rectangular pictures with widths a to d are arranged at intervals of e, and the narrowest d width is d.
  • the line is equivalent to Doc Yusuji.
  • FIG. 33 (B) conceptually shows the gradation values of each pixel in the horizontal direction of FIG. 33 (A).
  • Figures 34 to 36 show the processing results (C) to (E) of edge region extraction, dilation, and erosion together with the previous processing results, respectively. Only in the case of, an edge area with a width corresponding to the width of the line is extracted at a position away from the line (streak). As a result, as can be seen from FIG. 36 above, only in the case of the line having the width d, the edge is not included in the edge region after contraction, and other wide lines have All wedges will be included in the wedge area.
  • the edge area can be extracted based on the vertical edge in the image.
  • the width of the flat end portion between the edges is equal to or less than (w)
  • the edge is reduced. Since it is possible not to extract as an edge area, it is possible to extract an edge area including a line having a larger thickness and an edge part of a normal pattern except for a thin line.
  • the original image (inspection image) obtained by inputting the print pattern is converted into a fine pattern along with the normal patterns Pi (ring shape) and P2 (color pattern).
  • the mask image using the edge area as a mask portion and output by the method of the present embodiment is as shown in FIG. 38. That is, as in the case of the platform shown in FIG. 35, in the ordinary pattern portion, the vicinity of the edge is a force that is extracted as an edge region (indicated by the hatched portion). Will not be included.
  • the mask portions (edge areas) indicated by E R1 and E R2 for the picture patterns P i and P 2, and the two masks indicated by E Rd on both sides of the pattern A mask image in which a portion is generated is created.
  • the relationship between this mask image and the original image in FIG. 37 is conceptually shown in FIG.
  • an edge image is created by the edge image creation unit 12B from the inspection image in FIG. 37, an image in which all the edges PE1, PE2, and DE are extracted is obtained as shown in FIG. Can be
  • the inspection image includes a pattern, even if the contrast is low and a thin streak defect is present, the inspection image automatically includes the same pattern as in the first embodiment. It becomes possible to detect.
  • the mask image created in the first embodiment is created by the method described in claims 3 and 5.
  • the present embodiment is substantially the same as the second embodiment except that the number of times of contraction (the number of pixels) P2 is calculated by the following equation (8) in the number-of-expansion / contraction calculation unit 28 of FIG. Are identical.
  • the edge region ER extracted near the left and right of the flat portion having the width W or less shown in FIG. 42 is further reduced by (W + 1) 2 pixels. , As shown in Fig. 43.
  • the basis of the calculation of the number of additional contractions (W + 1) 2 that is larger than that of the second embodiment is that the maximum width of the edge region ER shown in FIG. 42 is expressed by W from the extraction principle shown in FIG. For this reason, in order to make this disappear by contracting one pixel at a time from both sides, (W + 1) / 2 is set in consideration of the case where the force W required by WZ2 is an odd number. However, in this case, the fraction is rounded down.
  • the operation corresponds to FIG. 44 corresponding to FIG. 36 (E) and FIG. 39 described above, which show the operation of the second embodiment.
  • the edge area can be prevented from being extracted on both sides of the doctor muscle D, so that the area to be inspected in the image to be inspected can be made wider and the reliability of the inspection can be increased. It becomes possible.
  • the mask image created in the first embodiment is created by the method shown in claims 3 and 6.
  • This embodiment is substantially the same as the second embodiment except that the number of times of contraction (the number of pixels) P3 is calculated by the following equation (9) in the expansion / contraction number calculation unit 28 of FIG. Are identical.
  • FIG. 46 (A) shows an input uS image consisting of a flat part of t
  • FIG. 42 schematically shows an image obtained by extracting the edge region ER by performing the same processing as in (A) to (D), and is the same as FIG. 42 described above.
  • FIG. 46 (B) corresponds to FIG. 31 (D) obtained by performing substantially the same processing as in FIGS. 31 (A) to 31 (D) for an input image in which the flat portion has a width larger than W.
  • FIG. 46 (C) corresponds to FIG. 32 (D) in which substantially the same processing as in FIGS. 32 (A) to 32 (D) is performed on an input image sufficiently larger than the width of the flat portion.
  • the edge region ER can be eliminated as shown in Fig. 47 (A).
  • FIG. 46 (B) when the width of the flat + ⁇ . Portion exceeds W, as shown in FIG. 47 (B), the edge region which has been reduced to one as a result of the expansion process Since the left and right ends of the ER can be shrunk to the first pixel from the edge, the edge area can be made as small as possible to cover the edge.
  • the width of the flat portion is sufficiently larger than W as shown in FIG. 46 (C), as shown in FIG. 47 (C), the edge area force is extracted only in the portion of one pixel before and after the edge. Can be done.
  • a mask base for creating a mask image using the extracted edge region and the edge region (mask portion) mean a region to be excluded from the inspection target in the image to be inspected.
  • the edge area should be as small as possible (the area) after masking the edges in the inspected image in order to increase the reliability of the inspection.
  • the method adopted in the present embodiment is the most suitable as a general edge extraction method, and it is possible to create a realistic inspection mask image by using the edge region extracted in the present embodiment. Can be.
  • doctor muscle D having a width of W or less is obtained.
  • the edge region is not extracted as in the third embodiment, and it is possible to extract an edge region ER much narrower than that in the third embodiment for a normal picture having a width W or more.
  • the present inventors have found that when the inspection apparatus shown in FIG. 14 is applied to a color image, that is, the image input unit is used as an inspection image.
  • the three frames R, G, and B are converted to a monochrome image, and the picture exclusion unit 12 and the line emphasis processing unit 14,
  • the judgment unit 16 has revealed that the following new problems arise when performing the above-described processing.
  • FIGS. 51 (A) to (C) show R, G, and B monochrome images shown in FIG. 23, respectively.
  • the vertical addition image obtained by individually performing the line emphasis processing by the above method is conceptually shown.
  • FIG. 52 is a block diagram illustrating a main configuration of a line defect detecting apparatus according to the fifth embodiment.
  • the inspection image is input as a single image by the image input unit 10 similar to the one shown in FIG. 14, the inspection image of the R, G, B After the image is separated into monochrome images, the image is sequentially input to the picture exclusion unit 12 and the line emphasis processing unit 14 which are installed correspondingly, and the same processing as described above is performed on each monochrome image.
  • the RGB synthesizing unit 20 installed before the judging unit 16 enables the vertical addition image of each of the monochrome images processed by the line emphasis processing unit 14 to be synthesized. It is substantially the same as the streak defect inspection apparatus shown in FIG. 14 including the functions of the components, except that the weighting factor and the like used at the time are input from the parameter storage unit 22.
  • RGB (n, m) A r x R (n, rn) + A g x G (n, m)
  • weighting coefficients usually, all the same coefficients, for example, 1. ⁇ may be used.
  • the sensitivity for a particular color can be adjusted by changing the coefficients for each of the R, G, and B pixel values.
  • the above-described embodiment is substantially the same as that shown in FIGS. 51 (A) to 51 (C), and is a vertical image of each of the monochrome images of R, G, B shown in FIGS. 54 (A) to 54 (C). A case where the present invention is applied to an added image will be described.
  • the luminance value force in each of the vertical additive images R, G, and B is slightly different from the background. It can be detected reliably. At that time, if necessary, the sensitivity for a specific color can be adjusted by adjusting the weighting factors of! ⁇ , G, and B, as described above. Can also be performed. According to the present embodiment, when an inspection image input as a color image is processed as a monochrome image of each of the R, G, and B frames, a streak defect having a low detection sensitivity is accurately detected in each monochrome image. Can be detected.
  • the monochrome image to be combined is a vertical stand image that has been subjected to the enhanced vertical addition image.
  • the present invention is not limited to this, and any image having substantially the same streak may be used.
  • PC FIG. 55 is a block diagram showing a schematic configuration of the edge area extracting apparatus according to the sixth embodiment of the present invention.
  • This embodiment is applied when the human-powered image is a color image.
  • One edge area extraction unit 24 and edge area storage unit 26 shown in FIG. 25 are input from the input image storage unit 20.
  • Three edge area extraction units indicated by 24A to 24C corresponding to the R, G, and B images, and three edge area storage units indicated by 25A to 26C that store each extracted image are added.
  • an RGB synthesizing unit 19 for synthesizing each of the extracted images of R, G, and B input from the storage units 26 A to 26 C is added. It is.
  • edge extraction processing can be performed for each of the R, G, and B images, even when the target human-powered image is a power image, the image can be quickly and accurately obtained as in the first to fourth embodiments. Similarly, edge regions can be extracted.
  • FIG. 56 is a block diagram showing a schematic configuration of the edge area extraction device of the seventh embodiment according to the present invention.
  • This embodiment is applied to a single color image in the same manner as the sixth embodiment.
  • the sixth embodiment is substantially the same as the sixth embodiment except that an RGB combining unit 19 for combining a contracted image finally obtained is added.
  • all image processing can be performed for each of the R, G, and B images, so that an edge area can be extracted with higher accuracy than in the sixth embodiment.
  • an edge is only displayed when the flat portion of the image signal is equal to or smaller than a predetermined sword. Edge regions that are not included can be extracted.
  • the present invention is not limited to this.
  • the equation (3) is simply calculated and the regular expression is obtained. It is not necessary to convert.
  • FIG. 57 shows a schematic configuration of the eighth embodiment, in which an image in which the existence of streaks that are substantially continuous in the same direction is expected to be input as a monochrome image composed of a single color of R, G, or B.
  • the image input unit 42 divides the input image into continuous partial images each having a width of at least one line orthogonal to the streak, and applies the P tile method to each of the divided partial images.
  • the binarization unit 44 that binarizes each pixel, the number of lines of the partial image used to divide the image, the number of pixels (area ratio) for determining the threshold value of the P tile method, and the like are stored.
  • an image output unit 48 that outputs a binary image created by binarization by the binarization unit 44. The operation of the present embodiment will be described with reference to FIG.
  • FIG. 58 ( ⁇ ) is an input image similar to that shown in FIG. 1 ( ⁇ ) or the like input from the image input unit 42, and has a width of about 1 to 3 pixels. A streak L substantially continuous in the longitudinal direction exists with noise (not shown).
  • the binarizing unit 44 uses the parameter of the number of partial image lines read from the parameter storage unit 46 to convert the input image into the image shown in FIG. 58 ( ⁇ ). As shown, the image is divided into continuous rectangular partial images I 1, 1 2 ⁇ • ⁇ orthogonal to the streak.
  • the division width of this partial image may be one line (one pixel width) or a plurality of lines.
  • the above-described ⁇ tile method is applied to each partial image to convert the partial image.
  • the number of pixels to be set in the partial image is determined, for example, the area ratio ⁇ ⁇ ⁇ is set to 3 pixels per line.
  • the width of the partial images I 1, 1 2 ⁇ ⁇ ⁇ ⁇ to which the P tile method shown in Fig. 58 (B) is applied is not limited to one line, but may be less than 10 lines in the case of multiple lines. However, the effect can be expected even if the number of lines for dividing the entire image into two, that is, 12 of all scan lines.
  • the present embodiment is characterized in that, unlike the conventional partial image division method in which the partial image is divided into a grid pattern, the partial image is divided into rectangular partial images that are continuous in a direction orthogonal to the expected streak portion. By doing so, the target muscle portion can be effectively binarized.
  • the correction is dynamically determined using the P-tile method for each partial image, so that it is substantially continuous in the same direction on a flat background. Even if there is noise from the image with streaks, it is possible to easily and surely create a binarized image of the streaks, and separate the object (streak) from the background with high accuracy. be able to.
  • the partial image has a small range of one line or a plurality of lines close to it, ⁇ errors due to area variation of the target to be detected, which is a drawback of the tile method, can be reduced, and the processing time can be relatively short. There is an advantage.
  • the streak defect inspection apparatus utilizes substantially the same binary image creation technology as that of the eighth embodiment when detecting so-called doctor streaks that occur during rotary printing.
  • the inspection apparatus detects streak defects occurring on a printed matter from an inspection image obtained by inputting the printed matter, and similarly to the first embodiment shown in FIG.
  • An image input unit 10 for optically inputting inspection images using a CCD camera, etc.
  • a pattern exclusion unit 12 for excluding image parts from the input inspection image
  • a line emphasis processing section 14 for emphasizing the existing streak portion, and a determination portion for judging streak defects based on the image after the emphasis process in which the streak portion is emphasized.
  • 16 and a defect display section 18 for displaying the determined streak defect on a monitor.
  • the picture exclusion unit 12 includes a mask image creation unit 12A, an edge image creation unit 12B, and a masked edge image synthesis unit 12C
  • the line emphasis processing unit 14 includes a vertical addition unit 14A
  • the determination unit 16 includes a binarization unit 16A and a line recognition unit 16B.
  • the binarization unit 16 A force, similar to the binarization device of the eighth embodiment, inputs an image in which the existence of a streak portion that is substantially continuous in the same direction is input.
  • the operation of the present embodiment is as follows.
  • the binarization process performed by the binarization unit 16A is substantially the same as that of the eighth embodiment by the P-tile method according to the time j shown in FIG. Since it is the same as the first embodiment except that it is executed, detailed description is omitted.
  • the inspection image includes a picture
  • mask processing for excluding a high-contrast edge portion from the processing target is performed, and furthermore, addition processing is performed in the vertical direction to obtain a low-contrast streak.
  • the streak portion is surely binarized, and the streak defect is detected based on the binarized image.
  • the inspection image includes a pattern
  • a specific target of binarization is a doctor muscle, and a force indicating a case where an input image is an image after a predetermined process.
  • the present invention is not limited to this.
  • the image is not particularly limited as long as the image has a streak substantially continuous in the same direction.
  • FIG. 59 is a block diagram schematically showing the whole image input device and the partial image input device constituting the tenth embodiment.
  • the partial image input device 50 prints a printed pattern from a web W that is printed by a plate cylinder (not shown) of a rotary printing press and is continuously fed in a flow direction indicated by an arrow. A part of the image is used for manual input, and when inputting the partial image, the whole image including the whole pattern separately input by the whole image input device 70 is used as a reference image for guidance. .
  • the whole image input device 70 is installed at a predetermined position along the flow direction of the material W, and is a whole input camera (camera unit) 7 capable of inputting (taking) the whole image including the entire pattern on the material W. 2, a force control unit 74 for controlling the image input by the entire human power unit 72, a reference image data memory 76 for storing the entire image input via the control unit 74 as a reference image, And a data communication unit 78 for reading data of the entire image from the data memory 76 and transmitting the data to the partial image input device 50.
  • a whole input camera (camera unit) 7 capable of inputting (taking) the whole image including the entire pattern on the material W. 2
  • a force control unit 74 for controlling the image input by the entire human power unit 72
  • a reference image data memory 76 for storing the entire image input via the control unit 74 as a reference image
  • a data communication unit 78 for reading data of the entire image from the data memory 76 and transmitting the data to the partial image input device 50.
  • the partial image input device 50 includes a data communication unit 52 that receives data such as overall image data transmitted from the data communication unit 78, and various types of data input from the data communication unit 52.
  • a control unit 54 including various means for executing a control operation to be described later using the data; a calculation result in the control unit 54: a processing unit 56 for performing image processing and signal transmission based on the calculation result;
  • a partial input camera (camera unit) 58 for inputting an image of a part of the pattern on the raw material W based on a control signal input from the control unit 54 via the processing unit 56;
  • a display unit (display) 60 for displaying the processing result in 6; a camera moving mechanism 62 for moving the partial input camera 58 to a position in the width direction of the material W corresponding to a predetermined shooting point; Based on the control signal input via An illumination (strobe) 64 that moves in unison with the partial input camera 58 that emits light in synchronization with shooting is provided.
  • strobe illumination
  • a roller 86 that rotates in conjunction with the transfer of the raw material W is provided.
  • the roller 86 is provided with a temporary encoder 88 that converts the moving amount of the raw material into the number of pulses.
  • E encoder 8 8 pulse signal across the image input device 7 0 of the camera control unit 7 4 from, in ⁇ beauty partial image input device 5 0 of the control unit 54, c that are adapted to be respectively force
  • the reference image data memory 76 of the whole image input device 70 stores the distance L between the whole input camera 72 and the partial input camera 58, which is used for the calculation described later, together with the whole image data. Information such as the perimeter T of the plate cylinder to be used, the pulse resolution of the one-way encoder 88, and the preset origin and the like on the moving mechanism 62 are stored.
  • the image is transmitted to the partial image input device 50.
  • the partial image input device 50 is a partial input force camera that can be moved in the width direction of the raw web W by the moving mechanism 62 with a pattern printed on the running web W as an inspection target. It is used when inspecting the printing state based on the inspection image obtained by inputting a part of the picture according to 5.8.
  • the partial input camera 58 when the printing is started and the state is stabilized and a normal printing surface is obtained, the partial input camera 58 is installed at a predetermined distance L in the flow direction of the raw material W from the partial input camera 58.
  • the whole image including the whole picture is inputted by the whole input camera 72 and stored in the reference image memory 76.
  • Figure 60 shows a partial input camera 58 supported by a camera moving mechanism (widthwise moving mechanism) 62 equipped with a linear guide in the width direction, and an overall input camera consisting of two cameras.
  • 72 Material W, schematically showing the relationship with the entire pattern including the triangle on the material W.
  • the whole image (reference image) is transmitted from the memory 76 via the data communication unit 78, 52 to the partial image input device 50 together with other data, and is transmitted to the control unit 54.
  • a control operation described in detail below is executed.
  • the position of the partial image that can be input from the camera 58 on the whole image is associated with each other based on the relationship with the width direction reference point S preset on the whole image.
  • FIG. 60 conceptually shows the state in which this association is performed.
  • the center of the partial image that can be input from the partial input camera 58 at the origin on the self-movement mechanism 62 is described above. Is associated with a position in the whole image that is separated from the width-direction reference point S by a width-direction offset AS. Therefore, register this offset (distance) mm S Accordingly, it is possible to move the partial input camera 58 to an accurate position in the width direction by the moving mechanism 62 using the width direction reference point S as the camera origin on the entire image.
  • FIG. 61 conceptually shows a method of calculating the reference input timing set in the present embodiment.
  • the partial input camera 58 is disposed upstream of the overall input camera 72, and a picture (flow direction reference point) substantially located at the center of the field of view of the overall input camera 72 shown in FIG.
  • timing of input by the entire input camera 72 corresponds to the phase Z of the low speed encoder 88.
  • An image may be input at a timing (reference input timing) of a phase Z ′ which is delayed from the phase Z by a phase required to send an extra raw material having a length corresponding to the reference offset b.
  • the reference input timing is set by the number of pulses output from the rotary encoder 88
  • the reference offset b that is, (T ⁇ L mod T) is calculated by the following equation (11). Convert to reference offset pulse B and set.
  • R pulse resolution of the rotary encoder (mm, pulse)
  • Fig. 62 conceptually shows an example in which the photographing point is set to P2.
  • P1 is the center of the width-direction reference point on the entire image
  • Fig. Before the indicated flow direction reference point Z '
  • the input power by the partial input camera 58 ⁇ a possible partial image is shown.
  • the number of pixels in the width direction ⁇ X between the photographing point P 2 and the width direction reference point S and the distance between the photographing point P 2 and the flow direction reference point Z ′ Are calculated in the flow direction.
  • the calculated number of pixels in the width direction ⁇ ⁇ is multiplied by the horizontal resolution (width direction resolution) of the entire image, and the width direction on the moving mechanism 62 associated with the width direction reference point S on all the rest images is calculated. Calculate the movement amount. That is, the actual movement amount in the width direction is calculated by the following equation (12).
  • Amount of movement in the width direction Number of pixels ⁇ X X Horizontal resolution... (1 2)
  • the actual distance (length of the raw fabric W) is obtained by multiplying the calculated number of pixels in the flow direction ⁇ by the vertical angle image resolution (flow direction resolution) of the entire image, and based on the distance, Calculate the waiting time from the reference offset pulse ⁇ to the actual input.
  • the waiting time is set by the number of pulses from the rotary encoder 88, it is set as the number of shift pulses in the flow direction from the reference offset pulse ⁇ ⁇ ⁇ , which is calculated by the following equation (13). I do.
  • the number of shift pulses in the flow direction the number of pixels ⁇ y X the vertical resolution ⁇ R (13)
  • the calculation result is output to the processing unit 56 and the moving mechanism 62. Is done.
  • the output calculation result is changed to the value of the corresponding motor control signal, and the partial input camera 58 is moved by the moving mechanism 62 to the target position corresponding to the width direction movement amount.
  • the partial input camera 58 inputs a partial image at the timing when the number of shift pulses (waiting time) ⁇ the elapsed time from the reference offset pulse B.
  • the photographing point P 2 to be photographed on the entire image is simply designated (set) by, for example, the coordinate value of the center thereof.
  • the corresponding partial image can be accurately input, so that the desired position can be easily set. It is possible to take a picture of the picture part without fail.
  • the setting of the shooting point can be performed manually, or one or more points can be registered in the memory in advance using the coordinate values, and the coordinate values can be automatically set by sequentially reading out the coordinate values. it can.
  • FIG. 63 shows the features of the partial image input device according to the eleventh embodiment of the present invention.
  • the reference offset set in the tenth embodiment by the expression (11) is used in the tenth embodiment.
  • the pulse B is substantially the same as that of the tenth embodiment except that the pulse B is set by the following equation (14).
  • FIG. 64 is a block diagram schematically showing the whole image input device and the partial image input device constituting the 12th embodiment.
  • the overall image input device 70 is the same as the overall input camera (camera unit) 72 as in the tenth embodiment, a camera control unit 74, a reference image data memory 76, and a data communication unit 78. Then, with the switch shown in the figure, a reference image is input from the above-mentioned overall input force camera 72, and then the switch is changed, and the latest overall image from the same camera 72 is sent to the reference input command input unit 80.
  • a latest image data memory 82 for storing the latest input whole image, and comparing the latest image from the memory 82 with the reference image from the memory 76 to determine the position in the width direction and the web flow direction.
  • a displacement detection unit 84 for detecting a displacement.
  • the reference image data memory 76 stores together with the reference image data composed of the entire image, the distance L between the entire input camera 72 and the partial input camera 58, and the plate cylinder circumference, which are used in the calculation described later.
  • T mouth encoder 8
  • the pulse resolution of the encoder 8, the camera origin on the moving mechanism 62, and the like are stored.
  • the data communication unit 7 includes the reference image data and the displacement data appropriately detected by the detection unit 84. 8 to be transmitted to the partial image input device 50.
  • various processes performed in the tenth embodiment on the entire image that changes every moment are input in the initial stage of printing, and are performed on the reference image stored in the reference image data memory 36.
  • a target photographing point is set using the reference image
  • an image is input by the partial input camera 58 as in the tenth embodiment
  • the latest The whole image (latest image) is input and stored in the latest image data memory 82
  • the latest image read from the memory 82 is stored in the positional deviation detecting section 84 by the reference image data memory 76. Forces are compared with the read-out reference image to detect whether or not displacement has occurred. If so, the displacement is corrected as follows.
  • the latest image that is input and the reference image that was used to set the shooting point are It is assumed that the position is shifted by 5 x in the width direction and by 5 y in the flow direction of the raw material, as compared with the reference image.
  • the amount of the position shift can be obtained by, for example, a method disclosed in Japanese Patent Application Laid-Open No. 7-249122. .
  • the movement amount in the width direction of the expression (12) and the shift in the flow direction of the expression (13) are used.
  • the number of pulses is set by the following equations (12 ') and (13').
  • Amount of movement in the width direction (number of pixels ⁇ — ⁇ 5 x) X7k flat resolution... (12 ′)
  • Number of shift pulses in the flow direction (number of pixels Ay— ⁇ 5 y) ⁇ vertical resolution (13 ′) Therefore, in this embodiment, According to this, even when the latest image is displaced from the reference image, it is possible to accurately input the partial image of the initially set target shooting point.
  • the partial input camera 58 when the partial input camera 58 is disposed downstream of the entire input force camera 72, the partial input camera 58 is set by the above-described equation (11) in the twelfth embodiment. This is substantially the same as the twelfth embodiment except that the reference offset pulse B is set by the above equation (14).
  • the whole input camera for inputting the entire picture a camera composed of two cameras is shown. It may be something.
  • the setting of the shooting point is not limited to the setting in both the width direction and the flow direction on the whole image as described in the first and second embodiments, and may be performed only in the width direction. Good. In this case, a printing defect that occurs continuously in the flow direction can be reliably detected.
  • the picture portion of the point can be easily input as an image.
  • a partial image of a photographic point can be accurately input even when a pattern is misaligned with time in the width direction or the flow direction of the raw material.
  • FIG. 66 is a block diagram showing a schematic configuration of the 14th embodiment.
  • the solid area selection device of the present embodiment uses a pattern (printed material) printed on a running material to be inspected, and a portion of the material that can be moved in the width direction of the material possessed by the inspection device (not shown). This is applied when selecting a plain area in order to inspect a printing state by inputting an image of a plain area from among the above.
  • the solid area selection device includes an entire image input unit 90 for inputting an entire image including the entire printed pattern, an entire image storage unit 92 for storing data of the input entire image, and A partial image cutout unit 94 that cuts out a partial image from the entire image read from the unit 92 in units of a size corresponding to an inspection image according to a method described later, and is used for processing in the cutout unit 94.
  • An evaluation value calculation unit 98 that calculates an evaluation value representing the flatness of luminance for each of the cut out partial images, and an evaluation value that stores the evaluation value of each partial image calculated by the calculation unit 98 Storage unit 100 and read from the storage unit 100 All luminance from each partial image based on the evaluation value A unit having high flatness is selected as a plain region on the image, and a determination unit 102 that determines the number of inspection points on the image by the number input from the parameter storage unit 96, and a determination unit that determines the inspection point. And an output unit 104 for outputting position (address) information of the partial image to an inspection device (not shown).
  • the inspection device checks the inspection point on the print corresponding to the inspection point. Then, the partial input force camera (not shown) is moved, and an inspection image is input from the inspection point by the camera.
  • the whole image input unit 90 inputs and saves a normal printed matter in advance even if it is an imaging device such as a CCD camera installed on a printing line. It may be a storage device such as a database.
  • the partial image cutout unit 94 has a size corresponding to a range on a printed material to be actually inspected from the whole image input by the whole image input unit 90. Performs the process of extracting (cutting out) a partial image in units of height. As described above, the size of the partial image is input from the parameter storage unit 96 as a parameter set separately.
  • a partial image PG2 in which the entire image is shifted by one pixel to the right from the partial image PG1 at the upper left end of the entire image is As described above, while sequentially shifting in the horizontal direction by one pixel, the image is moved in the direction indicated by the arrow and cut out, and finally cut out to the final partial image P Gn at the lower right end. At that time, the first-stage cutting is completed for the entire width in the horizontal direction, and the moving amount in the vertical direction when moving to the cutting position of the next stage is arbitrary as long as the number of pixels does not cause a gap in the vertical direction.
  • the evaluation value representing the luminance flatness is calculated by the evaluation value calculating unit 98. calculate.
  • the calculation unit 98 evaluates (directly described below) (1) the maximum frequency of the luminance distribution (histogram) for all pixels included in the partial image, (2) the distribution of the same luminance distribution, and (3) One of the brightness values (hereinafter, also referred to as partial split brightness value) that divides the same brightness distribution into a predetermined ratio biased toward the high brightness side or the low brightness side; Has become.
  • the maximum frequency of the luminance distribution is calculated based on the luminance distribution of all pixels contained in one partial image conceptually shown in FIG. 69 (A), as shown in FIG. 69 (B). This is the maximum value in the histogram for the number (frequency) of pixels having the same luminance value (gradation value) in the image.
  • the maximum frequency is calculated for all the partial images in the whole image and stored in the evaluation value storage unit 100, respectively.
  • the maximum frequency is adopted in this way, taking into account the influence of noise mixed into the entire image, each pixel value included in an arbitrary width before and after the pixel value of the maximum frequency is included.
  • the sum of the frequencies may be used as the evaluation value.
  • the variance of the luminance distribution of (2) is calculated by the following equation (15).
  • N is the number of pixels in the partial image
  • this value is obtained for all the partial images cut out from the whole image, and is similarly stored in the storage unit 20. Then, the determination unit 22 determines that the smaller the variance, the closer to the base portion on the printed matter corresponding to the partial image.
  • the determination unit 102 determines that the smaller the variance, the closer to the solid portion on the printed matter corresponding to the partial image.
  • the partial distribution luminance value of (3) is expressed by the total distribution (total luminance). (Frequency-total number of pixels) is obtained as a luminance value (pixel value) P i that can be divided into 80% on the high luminance side and 20% on the low luminance side.
  • This partial pixel value is calculated for all partial images, stored in the storage unit 100 in the same manner, and used for determination by the determination unit 102.
  • the divided pixel value P i can be changed by changing the ratio of dividing the luminance distribution to change the evaluation of flatness and to change the direction of partial division, for example, by changing the above 20%: 80% to 8%. By changing to 0%: 20%, solid areas can be selected in the same way for dark areas.
  • the determination unit 102 reads out the evaluation values for all the partial images stored in the storage unit 100, and inputs the evaluation values from the parameter storage unit 96 based on the evaluation values. Select a predetermined number of inspection points. At that time, if multiple inspection points are selected in the order that they are considered to be closer to the solid part only from the evaluation value, the inspection points may be concentrated in a certain narrow range. Therefore, in order to prevent this, using the position information of each partial image, if the evaluation values are the same and the area force on the image ⁇ overlaps, one of them is excluded and fi ⁇ point May be selected.
  • the output unit 104 outputs the position information of the inspection point on the image selected by the determination unit 1 2 to an inspection device (not shown).
  • a plain region is selected according to the flowchart shown in FIG.
  • the whole image input section 90 obtains (inputs) a whole image including the entire pattern on a printed material in a normal printing state, and stores it in the whole image storage section 92 (step S 1). .
  • This complete rest image can be obtained either by directly inputting it with the whole input force meter (not shown) when printing is stable after printing starts, or by saving the entire image data for the same pattern already. If this is the case, human input from a database or the like may be used.
  • the partial image cutout unit 94 cuts out a partial image from the entire image read from the storage unit 92 as shown in FIG. 68 (step S 2) o
  • step S3 an evaluation value is calculated for the first partial image cut out (step S3), and the same calculation is sequentially performed for all partial images (step S4).
  • the judgment unit 102 judges (selects) a predetermined number of inspection points on the image from those having high flatness using the evaluation values of all the partial images, and determines the position of each inspection point. Output the information to the inspection device.
  • the inspection device moves the partial input camera to a widthwise position corresponding to the inspection point on the corresponding printed matter based on the position information. Then, an image is input at a timing corresponding to the position of the inspection point in the flow direction to obtain an inspection image.
  • a plain or nearly plain area can be selected as an inspection point from the entire pattern and input as an image, so that fine print defects such as dark spots can be reliably detected. Can be.
  • FIG. 72 is a block diagram showing a schematic configuration of the solid region selection device of the fifteenth embodiment according to the present invention.
  • the solid region selection device of the present embodiment includes an evaluation value calculation unit 98 It has n (multiple) evaluation value storage units 100, each of which can calculate and store n types of evaluation values independently, and the judgment unit 102 determines each evaluation value. A predetermined number of inspection points set in advance are determined for each value, and the output unit 104 executes parallel processing for sequentially outputting position information for each inspection point for each evaluation value. Has become.
  • the determination unit 102 alternately outputs the position information on the inspection points on the predetermined number of images determined for each evaluation value in units of the predetermined number.
  • the inspection device determines that five inspection points are determined by the first evaluation value.
  • the relationship with the printed matter including the entire picture the inspection points on the printed matter indicated by five squares in the figure can be input as an inspection image.
  • the first evaluation value is obtained. It is possible to input an image of an inspection point on a printed material having a different pattern tendency from that in the case.
  • the inspection based on the first evaluation value for example, the maximum frequency of the above (1)
  • the inspection based on the second evaluation value for example, the partial pixel value of the above (3)
  • an evaluation value different from the first evaluation value used for selecting the inspection point ⁇ , particularly the brightness in the area, is also taken into consideration.
  • the second evaluation value (the partial pixel value) described above another point 2 can be selected, and the inspection can be performed at the point 2.
  • the inspection point ⁇ is input as an image and inspected.
  • the doctor's muscle cannot be detected, and the blue doctor muscle can be reliably detected.
  • the reliability of the inspection can be further improved by using two evaluations of flatness ⁇ ⁇ having different characteristics as image data.
  • the number of inspection points is two for each region.
  • three or more types of pulmonary evaluation values may be used, and three or more inspection points obtained from each may be selected.
  • the determination unit 102 comprehensively determines the calculation results of the plurality of evaluation values described in the case where the inspection points are separately selected based on each of the plurality of types of evaluation values. Thus, one optimal inspection point may be selected for each inspection area in the vertical direction.
  • FIG. 73 in which the evaluation value is two, two inspection points are alternately applied to the same inspection area as shown in FIGS. 73 (A) and (B).
  • the optimal one may be selected from FIGS. 73 (A) and (B), and one inspection point may be selected for the same inspection area.
  • FIG. 76 is a block diagram showing a schematic configuration of the solid region selection device of the sixteenth embodiment according to the present invention.
  • the solid area selection device includes an evaluation value calculation unit 98, an evaluation value calculation unit 98 in the case of the fifteenth embodiment, as indicated by reference numerals 102-1 to 102-n in the figure.
  • an evaluation value calculation unit 98 In addition to the value storage unit 100, there are also n (plural) judging units 102, and each of the evaluation values is connected in series from the evaluation value calculating unit 98 to the judging unit 102 for each evaluation value. It is substantially the same as the 14th embodiment except that it is connected and the final judgment result is output from the output unit 104.
  • the processing from the first evaluation value to the n-th evaluation value can be executed up to the judgment. You can narrow down the catch.
  • the entire pattern on the printed matter is controlled so that the pattern portion included in the input inspection image does not cause erroneous detection of a minute defect.
  • the present invention is not limited to the embodiments described above, and various modifications can be made without departing from the scope of the invention.
  • a case where a vertical streak defect is detected will be described.
  • the present invention is not limited to only the vertical direction. May be in any direction such as an oblique direction.
  • ADVANTAGE OF THE INVENTION when inspecting a printed material, a contrast is low from an inspection image containing a pattern, and a fine streak defect can be reliably detected.

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Inking, Control Or Cleaning Of Printing Machines (AREA)

Description

印刷物の筋状欠陥検査方法及び装置、 該検査用のエツジ領域抽出方法及び装置、 二値画像作成方法及び装置、 印刷物検査用の画像入力方法及び装置、 及び、 無地 領域選択方法及び装置 技術分野
本発明は、 印刷物の筋状欠陥検査方法及び装置、 該検査用のエッジ領域抽出方 法及び装置、 二値画像作成方法及び装置、 印刷物検査用の画像入力方法及び装置、 及び、 無地領域選択方法及び装置に係り、 特に、 印刷物に発生している微細な筋 状欠陥を検出する際に適用して好適な、 印刷物の筋状欠陥検査方法及び装置、 該 検査の際の画像処理に適用して好適な、 筋状欠陥 ί«用のエツジ領域抽出方法及 び装置、 同じく二値画像作成方法及び装置、 走行する原反に印刷された絵抦を検 査対象として、 原反の幅方向に移動可能なカメラで画像入力した^ ¾画像に基づ いて印刷状態を検査する際に適用して好適な、 印刷物 用の画像入力方法及び 装置、 印刷物上の絵柄全体の中から無地領域を選択し、 該無地領域を検査装置が 有する部分入力力メラにより画像入力した検査画像に基づいて印刷状態を検査す る際に適用して好適な、 印刷物検査用の無地領域選択方法及び装置に関する。 背景技術
一般に、 グラビア輪転印刷機では、 回転する版胴と、 これを押え付けるニップ ロールとの間に原反を通過させながら、 該版胴に付着されたィンキをその原反に 転写することにより、 連続的な印刷が行われて 、る。
このような連続的な印刷を可能とするために、 回転する版胴の表面にィンキを 供給するとともに、 その過剰分をドクターブレードによって搔き落すことが行わ れている。
ところ力、 何等かの理由でドク夕一ブレードに微少な欠け力《生じたりすると、 その欠け部分力《接触している版胴には、 極めて僅かであるが常時ィンキカ《残るこ とになるため、 原反の印刷面には、 いわゆるドクター筋と呼ばれる、 微細ではあ るが連続した筋状の印刷欠陥が発生することになる。
図 1は、 このようなドクター筋が発生しているか否かを検査するために入力し た検査画像とその特徴を概念的に示したものであるし 図 1 (A) は、 後に詳述す る縱加算画像の一例に相当する入力画像を示し、 該画像には、 略平坦な背景の中 に、 縦方向に連続している筋部分 Lが存在していると同時に、 ノイズ Nが存在し ている。 そのため、 この図 1 (A) に示した橫方向のスキャンライン(1) 、 (11)、 (I I I) における階調値 (輝度値) の分布プロファイルを、 図 1 (B )、 ( C )、 (D) にそれぞれ示したように、 全てのプロファイルに筋部分に対応して略同一 位置のピーク P 1 カ認められると同時に、 異なる位置にもノイズ Nに起因するピ ーク P nが認められる。
従来、 印刷物の検査には、 C C Dカメラ等の撮像手段で印刷絵柄を画像入力し、 その入力画像を画像処理することにより印刷欠陥を検出すること力 <行われている。 このような印刷欠陥の検出に用いられる画像処理としては、 例えば、 入力画像 から線分を検出するための各種微分オペレータの適用や、 ハフ変換、 パターン認 識等の技術が知られている。
し力、しな力 ら、 前記のような従来の画像処理による線分検出方法では、 入力さ れた絵柄を含む画像から絵柄のェッジと筋状欠陥を識別して検出することが困難 である。 その上、 ドク夕一筋等の同一方向に延びる筋状欠陥は、 欠陥部とその周 辺とのコントラストが低い場合が多いために線分として検出しにくく、 画像中に 雑音がある場合には尚更検出しにくいという問題があつた。
又、 前記のような印刷欠陥検出に用いられる画像処理の 1つに、 入力画像から 画像の濃淡の境界であるエツジを検出するためのエツジ抽出がある。 このエツジ 抽出は、 入力画像の各画素値からなる画像デー夕に対して各種の微分オペレータ 等を適用することにより実行される力 \ そのようなオペレータとしては、 例えば、 1次微分では P rewittのオペレータ、 S obelのオペレータ、 2次微分ではラプラ シアン ·オペレータ等がある。
し力、しなカ ら、 前記のような従来の画像処理によるエッジ検出方法は、 入力さ れた画像中にある絵柄部分の全てについてエツジを抽出してしまうため、 入力画 像に基づいて行う印刷欠陥の検査等に用いる場合には、 誤判定の原因となる。 即ち、 入力された検査画像からエッジ部を除外するためのマスクを作成し、 該 マスクを険査画像に適用して印刷欠陥のみを検出できるようにするために、 該マ スクの作成処理に前記オペレータを用いた場合、 その検査画像に前述したドク夕 一筋等の筋状の欠陥が含まれている場合には、 その欠陥をも絵柄と同様に処理す ることになるので、 作成されたマスクを該検査画像に適用すると、 通常の絵柄の エッジと共に、 筋をもマスクしてしまうので、 筋状の欠陥を検出することはでき ない。
これを、 従来のマスク作成方法の場合を例に具体的に説明する。
今、 カメラにより入力された検査画像が、 図 2に絵抦を模式的に示した (A) である場合を考える。 この図には幅が a〜 dの 4種類の絵柄がそれぞれ eの間隔 をおいて並んだ画像に相当し、 1番細い dの幅の線がドクター筋に相当する。 又、 図 2 ( B ) は、 同図 (A) の水平方向の各画素の階調値を示したものである。 先ず、 図 3に、 上記 (A) の検査画像と共に、 (C ) として示すように、 該画像 にラプラシアン♦オペレータ等を適用してエッジを抽出し、 そのエッジ位置を中 心に左右数画素分をエツジ領域とする。
次いで、 ノイズ除去等のために、 図 4に上言己 (C ) の各エッジ領域と共に示す ように、 これら領域を、 その両側それぞれに数画素分拡大する膨 »理を行って (D) の状態にする。 その後、 上記 (C ) と同一の画素数の状態に戻す収縮処理 を行い、 それをマスク画像とする。 その際、 図 2の画像 (A) で cの幅の絵柄の 場合のように、 膨張処理した結果、 2つのエッジ領域が図 4 (D) に示すように 槃つてしまったときには、 その部分は収縮の対象にならない。 図 5 ( E ) は、 以 上のようにして作成したマスク画像を上記図 2 (A) の 画像に重ねた状態を 示したものである。
この図 5からわかるように、 従来のェッジ抽出方法を用 、て作成したマスク画 像を検査画像に適用して、 絵柄のエッジが検出されないようにすると、 上記図 2 (A) で dの幅のドクター筋の場合は、 図 3に示した (C ) のエッジ領域が、 該 ドクター筋の部分を完全に含んでしまうため、 ドクター筋を検出することができ ないことになる。
又、 前記のような検査画像等の入力画像から筋部分の有無を判定する場合、 各 画素値を二値化して作成される二値画像に基づいて、 その判定処理を行うことが 考えられる。 その際に用いられる二値画像を作成するための二値化処理方法とし ては、 画像内の各画素値をある固定の閾値で二値化する、 固定閾値処理方法が最 も一般的な方法として用いられている。
又、 他の方法としては、 入力画像において、 背景に対して二値化したい対象が 占める面積の比率 (画素の割合) Pが予め分かっている場合に用いる、 いわゆる Pタイル法が知られている。
この Pタイル法では、 図 6 (A) に示した 1ライン分の階調値の分布プロファ ィルを有する入力画像に対して閾値 Tを設定する場^であれば、 対応する二値画 像の 1ライン分について、 1 (O N) 、 0 (O F F ) となる画素値の分布を図 6 ( B ) に示したように、 二値画像中で O Nとなる画素の割合 Pが既知であること を前提に、 この割台 Pが検出したい対象の面積比率 Pに等しくなるように閾値 T を決定して二値化する。
更に他の方法としては、 画素毎に閾値を決定する移動平均法や、 画像全体を格 子状の複数の部分画像に分割し、 それぞれの部分画像毎に閾値を決定する部分画 像分割法と呼ばれる方法も知られている。
し力、しな力 <ら、 前記固定閾値処理方法では、 適切な閾値を決定すること力〈難し く、 対象としている筋部分と背景を正しく分離すること力難しいという問題があ る。 図 7は、 これを概念的に示したもので、 図 7 (A) に示した、 縦方向に延び ている筋部分 Lと共にノイズ Nがある前記図 1 (A と同様の入力画像から、 該 筋部分 Lを抽出するために二値化する場合であれば、 閾値を適切な値より低く設 定すれば、 二値画像 (出力画像) を図 7 ( B ) に示したように、 筋部分の画素は O Nになる力 ノイズの画素の多くも O Nになり、 両者の区別が付き難くなり、 逆に、 高く設定すれば、 図 7 ( C ) に示したように、 筋部分の画素が O Nになら ず、 ノィズのみが目立つ二値画像になる。
又、 闞碴を自動決定する前記 Pタイル法では、 検出したい対象の面積が予め分 力、らない場合、 又は検出したい対象の面積が変化した場合には、 対象と背景を正 しく分離できないという問題がある。 これを、 同じく前記図 1 (A) と同様の入 力画像に対して、 Pタイル法を適用した場合の二値化処理の結果を概念的に示し た図 8を用いて説明する。
図 8 (A) の人力画像に対して、 筋部分に含まれる画素数が一定であるとして、 Pタイル法を適用すると、 閾値を計算するための面積算出用の画素数が実際の筋 部分より多い場合には、 閾値が低く設定されることになるため、 図 8 ( B ) のよ うにノイズも多く抽出されることになる。 逆に、 面積算出用の画素数が筋部分よ り少ない場合は、 閾値が高くなつて図 8 ( C ) のように筋部分が抽出されず、 階 調値の大きいノイズ Nのみが抽出されることになる。
又、 面積算出用の画素数が、 筋部分 + αで適切な値に設定されているとしても、 入力画像に筋部分より高い階調 (直を持つたノィズが筋部分の画素数以上に存在し ている場合には、 筋部分の画素を正しく二値化できないことになる。 従って、 こ のようなノイズが画像の一部に偏在し、 局所的に集中している入力画像の場合に は、 図 8 (D) に丸で囲んで示したように、 局所的なノイズ等が抽出されること になるため、 対象の筋部分は正確に抽出されないという問題点がある。 このよう に、 対象である絵柄の中からある範囲を限定して画像入力することにより、 高分 解能の検査を行うことができる。
更に、 動的に閾値処理する前記移動平均法は、 画素毎に閾値を決定するために、 前記固定閾値処理法や Ρタイル法に比べて処理時間が長く必要となる。 又、 部分 画像分割法は、 移動平均法ほどではないが、 格子状の各部分画像について、 含ま れる画素毎に計算することになるため、 同様に処理時間が長く必要となるという 問題がある。
又、 前記のように、 印刷機上で印刷中の狯抦を目視又は自動検査装置により検 査する場合に適用する、 カメラによる画像入力方法としては、 図 9に概念的に示 すように、 矢印方向に走行する印刷された原反 Wについて、 Ψ§方向にトラバース (移動) する 1台の C C Dカメラにより検査対象である版胴 1周分の絵柄全体の 中から、 その一部を撮影ポイントとして選択して入力する方法がある。 このよう に、 対象である絵柄の中からある範囲を限定して画像入力することにより、 高分 解能の検査を行うことができる。
このように、 印刷機上で印刷中の絵柄の一部を目視又は検査装置により検査す るために、 上記 C C Dカメラで画像入力する際、 絵枘全体の中から撮影すべき場 所である撮影ポイントを決定し、 撮影する方法としては、 次の 3通りがある。
( 1 ) 図 1 0に先頭に設定した例を示した力 先頭に限らず絵柄全体に対して 特定の固定された位置 (図では幅方向 6箇所) に撮影ポイントを登録しておき、 その場所に順次カメラを移動させ、 自動撮影する。
( 2 ) 図 1 1に示したように、 絵柄全体に対してランダムな位置に撮影ポイン トを決定して撮影する。
( 3 ) 手動により撮影ポイントを移動して撮影する。
し力、しな力 <ら、 絵柄全体の中から一部を撮影する前記 (1 ) 〜 (3 ) の画像入 力方法には、 以下の問題がある。
即ち、 (1 ) の手動により撮影ポイントを登録しておく方法の場合には、 検査 したいポイン卜が多数あると、 その登録作業が煩雑となる。
( 2 ) の撮影ポイントをランダムに決定する方法の場合には、 に適切でな 、場所を撮影してしまうことが起こり、 検査効率が悪 L、。
( 3 ) の手動により撮影ポイントを移動する方法の場合には、 検査したい場所 力《1箇所であれば問題にはならないが、 複数ポイントを検査したいときには、 移 動の度に操作カ必要となるため、 効率的でない。
特に (1 ) 、 (2 ) の方法では、 検査対象に存在する個々の絵柄を考慮してい ないため、 決定された検査ポィン卜から入力した検査画像には絵柄の一部が入る 可能性が高くなる。 従って、 微細な欠陥を検出するために、 このような検査画像 に対して画像処理を行う際、 該検査画像に含まれる絵柄力《誤検出の原因になると いう問題がある。
又、 この問題を避けるために、 入力した検査画像から絵柄部分を除外する等の 誤検出を防止する処理を施す場合には、 欠陥に当る信号も除かれてしまうことが 起こるため、 逆にこの防止処理が微細な欠陥を見逃す原因となってしまうという 問 もめる o 発明の開示
本発明は、 前記従来の問題点を解決するべくなされたもので、 絵柄を含んでい る検査画像から、 コントラストが低く、 しかも、 微細な筋状欠陥をも確実に検出 することができる、 印刷物の筋状欠陥険査方法及び装置を提洪することを第 1の 課題とする。
本発明は、 又、 カラ一画像として入力される検査画像を、 R、 G、 Bの各フレ ームのモノク口画像として処理する際、 各モノク口画像では検出感度の低い筋状 欠陥をも高精度に検出することができる、 印刷物の筋伏欠陥検査方法及び装置を 提供することを第 2の課題とする。
本発明は、 又、 印刷絵柄等を画像入力した画像の中から、 絵柄等に対応する画 像信号の平坦部が所定の幅以下の場合にのみ、 そのエッジが、 抽出されるエッジ 領域に含まれないようにすることができる、 筋状欠陥検査用のエツジ領域抽出方 法及び装置を提供することを第 3の課題とする。
本発明は、 又、 平坦な背景に実質上同一方向に連続した筋部分力《存在する画像 から、 ノイズが含まれている場台でも、 筋部分が二値化された画像を容易且つ確 実に作成することができる、 筋状欠陥検査用のニ暄画像作成方法及び装置を提供 することを第 4の課題とする。
本発明は、 又、 上記二値画像作成技術を利用し、 絵柄を含んでいる検査画像か ら、 コントラス卜が低く、 しかも、 微細な筋状欠陥をも確実に検出することがで きる、 印刷物の筋状欠陥検査方法及び装置を提供することを第 5の課題とする。 本発明は、 又、 絵柄上で入力したい撮影ポイントが多数ある場合でも、 そのポ ィン卜の絵柄部分を容易且つ確実に入力することができる、 印刷物検査用の画像 入力方法及び装置を提供することを第 6の課題とする。
本発明は、 又、 入力した検査画像に含まれる絵柄部分が、 微細な欠陥の誤検出 の原因とならないように、 印刷物上の絵柄全体の中から、 濃度差の小さい部分を 検査画像として入力することができる、 印刷物検査用の無地領域選択方法及び装 置を提供することを第 7の課題とする。
本発明は、 印刷物を画像入力した検査画像から、 印刷物上に発生している筋状 欠陥を検出する印刷物の筋状欠陥検査方法であつて、 検査画像から絵柄部分を除 外処理する絵柄除外ステツプと、 該除外処理後の画像に存在する筋部分を強調処 理する筋強調ステツプと、 該強調処理後の画像に基づいて筋状欠陥を判定する判 定ステップとを有することにより、 前記第 1の課題を解決したものである。 本発明は、 又、 印刷物を画像入力した検査画像から、 印刷物上に発生している 筋状欠陥を検出する印刷物の筋状欠陥険查装置であって、 検査画像から絵柄部分 を除外処理する絵柄除外手段と、 該除外処理後の画像に存在する筋部分を強調処 理する筋強調手段と、 該強調処理後の画像に基づいて筋状欠陥を判定する判定手 段とを備えたことにより、 同様に前記第 1の課題を解決したものである。
本発明は、 印刷物をカラーで画像入力した検査画像から、 印刷物上に発生して 、る筋状欠陥を検出する印刷物の筋状欠陥検査方法であつて、 入力した検査画像 を、 R、 G、 Bの各フレームのモノクロ画像に分離するステップと、 各モノクロ 画像に対して、 それぞれ所定の画像処理を行うステップと、 画像処理後の各モノ ク口画像を合成して合成画像を作成するステツプと、 該合成画像に基づいて筋状 欠陥の有無を判定するステップとを有することにより、 前記第 2の課題を解決し たものである。
本発明は又、 印刷物をカラ一で画像入力した検査画像から、 印刷物上に発生し て L、る筋状欠陥を検出する印刷物の筋状欠陥検査装置であつて、 入力した検査画 像を、 R、 G、 Bの各フレームのモノクロ画像に分離する手段と、 各モノクロ画 像に対して、 それぞれ所定の画像処理を行う手段と、 画像処理後の各モノクロ画 像を合成して合成画像を作成する手段と、 該合成画像に基づいて筋状欠陥の有無 を判定する手段とを備えたことにより、 同様に前記第 2の課題を解決したもので ある。
本発明は、 入力画像の水平方向及び垂直方向の少なくとも一方について、 画素 値が急激に変化するエツジに基づいてエツジ領域を 出するエツジ領域抽出方法 において、 画素値の変化が無いか又は小さい平坦部の幅カ<所定値以下の場合には、 該平坦部の両端に位置するエツジカ《、 ェッジ領域に含まれないようにし、 それ以 外の場合は、 エッジがエッジ領域に含まれるようにすることにより、 前記第 3の 課題を解決したものである。
本発明は、 又、 入力画像の水平方向及び垂直方向の少なくとも一方について、 画素値が急激に変化するエツジに基づいてエツジ領域を抽出するエツジ領域抽出 装置において、 対象物に関する画像を入力する手段と、 入力画像からエッジ領域 を抽出する際に、 パラメ一夕として、 少なくとも画素碴を比較する位置を規定す るための画素数しと、 エツジがェッジ領域に含まれないようにする平坦部の最大 幅を規定するためのエツジ間画素数 wとを設定する手段と、 注目画素を中心とし てそれぞれ反対方向に L画素離れた位置の画素値を比較し、 その差が、 所定の閾 値を超えている場合の該注目画素をエツジ領域として抽出する手段と、 前記エツ ジ間画素数 Wの幅の平坦部について抽出された一対のエツジ領域の幅を、 それぞ れ画素単位で膨張させた場合に、 該両エツジ領域が繋ることのない膨張画素数 N を計算すると共に、 膨張後のェッジ領域を収縮させる収縮画素数 Pを計算する手 段と、 入力画像から抽出された全てのエッジ領域の幅を、 その両側で N画素ずつ 膨張させる手段と、 膨張させたエッジ領域の幅を、 その両側で P画素ずつ収縮さ せる手段とを備えたことにより、 前記ェッジ領域抽出方法を確実に実行できるよ うにしたものである。
即ち、 本発明においては、 画像入力を行い、 その画像についてエッジ領域の抽 出処理を行い、 結果として得られたエツジ領域を含む抽出画像を出力する。 本発明の対象となる入力画像は、 2値画像、 多値モノクロ画像、 カラー画像の いずれでもよい。 又、 上記エッジ領域抽出処理には、 (A) 垂直方向エッジのみ を抽出、 (B ) 水平方向エッジのみを抽出、 (C ) 水平♦垂直両方向エッジを同 時抽出、 の 3通りがある。 更に、 上記出力画像としては、 2次元の 2値画像で、 エッジ領域とそれ以外を、 例えばエッジ領域は 1 (又は O N) 、 それ以外は 0 (又は O F F ) にする、 若しくはその逆にする等により区別して出力する。 又、 本発明により抽出するエッジ領域と、 入力画像との関係の概略を、 図 1 2 に示すように、 画像信号が水平方向の 1次元の画素値 (階調値) からなる場合を 例に説明しておく。
図 1 2 (A) は、 暗い背景に、 垂直方向に明るい線分が表示されている画像の 場合に当り、 図 1 2 (B ) は、 その逆の場台に当る。 いずれの場合も、 画素値が 急激に変化する位置に当る画素がエツジであり、 該エツジは画素値が余り変化し ない平坦部が、 明るさの異なる別の平坦部と接する場合、 その境界に存在する。 本発明では、 両ェッジ間の画素数が Wより大きいときは、 この図 1 2に網掛で 示すように、 エッジ領域がエッジを内側に含んだ位置に抽出される力、 逆に W以 下の場台は、 後に詳述するように、 エッジ領域はエッジを含まない位置に抽出さ れる力、、 もしくはエッジ領域は全く抽出されない。
その結果、 ドクター筋等の非常に細い線と、 それ以外の線を含む通常の絵柄と は明確に区别することが可能となり、 抽出したエツジ領域を基にマスク画像を作 成し、 それを印刷検査に利用することにより、 例えばドク夕一筋を確実に検出す ることが可能となる。
上記図 1 2は図 1 3 (A) に示すような垂直方向のエッジを抽出していること に当る力《、 処理方向を 9 0° 変えれば、 図 1 3 ( B ) に示すような水平方向のェ ッジを抽出でき、 更に、 垂直方向と水平方向の処理を同時に行えば、 水平、 垂直 両方向のェッジ領域を同時抽出できる。
本発明は、 又、 筋状欠陥検査用の二値画像作成方法において、 実質上同一方向 に連続する筋部分の存在が予想される画像を入力するステップと、 入力された画 像を、 前記筋部分に直交する 1ライン以上の幅からなる連続した部分画像に分割 するステップと、 分割された各部分画像毎に Pタイル法を適用して各画素を二値 化するステップとを有することにより、 前記第 4の課題を解決したものである。 本発明は、 又、 筋状欠陥検査用の二値画像作成装置において、 実質上同一方向 に連続する筋部分の存在が予想される画像を入力する手段と、 入力された画像を、 前記筋部分に直交する 1ライン以上の幅からなる連続した部分画像に分割する手 段と、 分割された各部分画像毎に Pタイル法を適用して各画素を二値化する手段 とを備えたことにより、 同様に前記第 4の課題を解決したものである。
即ち、 本発明においては、 二 ί直化する際の O N画素の面積が予め既知であれば、 短時間で且つ正確に二値化できる Pタイル法を、 筋部分の発生方向に直交する 1 ライン又は複数ラインからなる部分画像に、 O Nにすべき画素数 (面積) は、 筋 部分に含まれる画素数又はそれに近い一定の値であるとして適用することにより、 入力画像中にノイズが存在する場合でも、 比較的短時間で且つ正確に、 各部分画 像に存在する筋部分を二 ί直化することができる。
これを、 従来の Ρタイル法では前記図 8 (D) の二値化画像しか得られないよ うな、 階調値が大きいノイズが局所的に集中している入力画像の場合について説 明すると、 これらノイズが存在する上方約 1 3の領域には、 従来と同様に筋部 分が二値化されない部分画像が多 L、が、 それより下側の約 2 3の領域にはノィ
0 ズが所定値以下で筋部分が二値化される部分画像が多く存在するため、 不連続な 部分も含まれるものの、 入力画像全沐としてみると ー方向に連続した状態で筋 部分を二値化することがでる。 従って、 実質上同一方向に連続する筋部分が明確 に表わされた二値画像を容易且つ確実に作成することができる。
本発明は、 又、 印刷物を画像入力した検査画像から、 印刷物上に発生している 筋状欠陥を検出する印刷物の筋状欠陥検査方法であって、 検査画像から絵柄部分 を除外処理する絵柄除外ステツプと、 該除外処理後の画像に存在する筋部分を強 調処理する筋強調ステツプと、 実質上同一方向に連続する筋部分の存在が予想さ れる該強調処理後の画像を入力するステップと、 入力された画像を、 前記筋部分 に直交する 1ライン以上の幅からなる連続した部分画像に分割するステップと、 分割された各部分画像毎に Pタイル法を適用して各画素を二 ί直化するステツプと、 二 ί直化された画像に基づいて筋状欠陥を判定する判定ステツプとを有することに より、 前記第 5の課題を解決したものである。
本発明は、 又、 印刷物を画像入力した検査画像から、 印刷物上に発生している 筋状欠陥を検出する印刷物の筋状欠陥検査装置であつて、 検査画像から絵柄部分 を除外処理する絵柄除外手段と該除外処理後の画像に存在する筋部分を強調処理 する筋強調手段と、 実質上同一方向に連続する筋部分の存在が予想される該強調 処理後の画像を入力する手段と、 入力された画像を、 前記筋部分に直交する 1ラ ィン以上の幅からなる連続した部分画像に分割する手段と、 分割された各部分画 像毎に Ρタイル法を適用して各画素を二値化する手段と、 二値化された画像に基 づいて筋状欠陥を判定する判定手段とを備えたことにより、 同様に前記第 5の課 題を解決したものである。
本発明は、 版胴により走行する原反に印刷された絵柄を検査対象として、 移動 機構により原反の幅方向に移動可能な部分入力力メラにより絵柄の一部を画像入 力した部分画像に基づいて、 印刷状態を検査する際に適用する印刷物検査用の画 像入力方法において、 前記部分入力カメラから、 原反の流れ方向に所定距離隔て て設置された全体入力カメラにより、 絵柄全体を含む全体画像を入力するステツ プと、 前記入力カメラが前記移動機構上に設定された原点上にある時に、 該部分 入力カメラにより入力可能な部分画像の全体画像上の位置と、 全体画像上に設定 された幅方向基準点との関係から、 該全体画像上の幅方向位置と前記移動機構上 の幅方向位置を対応付けるステップと、 全体画像上で、 部分人力カメラにより入 力すべき撮影ポィントを幅方向に位置決めして設定するステップと、 全体画像上 で、 設定された撮影ポイントと前記幅方向基準点との間の幅方向画素数を算出す るステップと、 算出された幅方向画素数に、 全体画像の幅方向解像度を乗算して、 前記移動機構上の幅方向移動量を算出するステップと、 前記部分入力カメラを、 前記幅方向移動量に対応する目標位置まで、 前記移動機構により移動させるステ ップと、 該目標位置に移動させた部分入力カメラにより、 任意のタイミングで部 分画像を入力するステップとを有することにより、 前記第 6の課題を解決したも のである。
本発明は又、 版胴により走行する原反に印刷された絵柄を検査対象として、 移 動機構により原反の幅方向に移動可能な部分入力カメラにより絵柄の一部を画像 入力した部分画像に基づいて、 印刷状態を検査する際に適用する印刷物検査用の 画像入力装置において、 前記部分入力カメラから、 原反の流れ方向に所定距離隔 てて設置された、 絵柄全体を含む全体画像を入力する全体入力カメラと、 前記部 分入力カメラが前記移動機構上に設定された原点上にある時に、 該部分入力カメ ラにより入力可能な部分画像の全体画像上の位置と、 全体画像上に設定された幅 方向基準点との関係から、 該全体画像上の幅方向位置と前記移動機構上の幅方向 位置を対応付ける手段と、 全体画像上で、 部分入力カメラにより入力すべき撮影 ポイントを幅方向に位置決めして設定する手段と、 全体画像上で、 設定された撮 影ボイン卜と前記幅方向基準点との間の幅方向画素数を算出する手段と、 算出さ れた幅方向画素数に、 全体画像の幅方向解像度を乗 して、 前記移動機構上の幅 方向移動量を算出する手段と、 前記部分入力カメラを、 前記幅方向移動量に対応 する目標位置まで、 前記移動機構により移動させる手段と、 該目標位置に移動さ せた部分入力カメラにより、 任意のタイミングで部分画像を入力する手段とを備 えたことにより、 同様に前記第 6の課題を解決したものである。
即ち、 本発明に係る画像入力方法においては、 全体入力カメラにより絵柄全体 を含む全体画像を入力すると共に、 該全体画像と部分入力カメラで入力される部 分画像との関係に基づいて、 該全休画像上の位置と部分入力カメラの実際の位置 (ハード上の位置) とを対応付けるようにしたので、 部分入力カメラで入力した い撮影ボイントを、 ポインティングデバイス等により全休画像上で幅方向の所定 位置に設定するだけで、 簡単に該撮影ボイン卜の部分画像を入力することができ る。
本発明は、 又、 前記画像入力方法において、 前記全体入力カメラと部分入力力 メラとの流れ方向の離間距離及び版胴周長に基づいて、 全体画像上の流れ方向基 準点に位置する絵柄部分を、 部分入力カメラで入力可能な基準入力タイミングを 算出するステップと、 全体画像上で、 部分入力カメラにより入力すべき撮影ボイ ントを、 前記幅方向以外に流れ方向にも位置決めして設定するステップと、 全体 画像上で、 設定された撮影ポィントと前記流れ方向基準点との間の流れ方向画素 数を算出するステップと、 算出された流れ方向画素数に、 全体画像の流れ方向解 像度を乗算して求められる実際の距離に基づいて、 前記基準入力タイミングから の待ち時間を算出するステップと、 前記移動機構により前記目標位置に移動させ た部分入力カメラにより、 前記基準入力タイミングから前記待ち時間力経過した タイミングで部分画像を入力するステップとを有することにより、 撮影ポイント を流れ方向にも設定できるようにしたものである。
本発明は、 又、 前記画像入力装置において、 前記全体入力カメラと部分入力力 メラとの流れ方向の離間距離及び版胴周長に基づいて、 全体画像上の流れ方向基 準点に位置する絵柄部分を、 部分入力カメラで入力可能な基準入力タイミングを 算出する手段と、 全体画像上で、 部分入力カメラにより入力すべき撮影ポイント を前記幅方向以外に流れ方向にも位置決めして設定する手段と、 全体画像上で、 設定された撮影ポィントと前記流れ方向基準点との間の流れ方向画素数を算出す る手段と、 算出された流れ方向画素数に、 全体画像の流れ方向解像度を乗算して 求められる実際の距離に基づいて、 前記基準入力タイミングからの待ち時間を算 出する手段と、 前記移動機構により前記目標位置に移動させた部分入力カメラに より、 前記基準入力タイミングから前記待ち時間が経過したタイミングで部分画 像を入力する手段とを備えたことにより、 同様に撮影ポイントを流れ方向にも設 定できるようにしたものである。
本発明は、 版胴により走行する原反に印刷された絵柄を検査対象として、 移動 機構により原反の幅方向に移動可能な部分入力力メラにより絵柄の一部を画像入 力した部分画像に基づいて、 印刷状態を険査する際に適用する印刷物検査用の画 像入力方法において、 前記部分入力カメラから、 原反の流れ方向に所定距離隔て て設置された全体入力カメラにより、 絵柄全体を含む全体画像を基準画像として 入力するステップと、 前記部分入力カメラが前記移動機構上に設定された原点上 にある時に、 該部分入力カメラにより入力可能な部分画像の基準画像上の位置と、 基準画像上に設定された幅方向基準点との関係から、 該基準画像上の幅方向位置 と前記移動機構上の幅方向位置を対応付けるステップと、 基準画像上で、 部分入 力カメラにより入力すべき撮影ボイントを幅方向に位置決めして設定するステツ プと、 基準画像上で、 設定された撮影ポイントと前記幅方向基準点との間の幅方 向画素数を算出するステップと、 算出された幅方向画素数に、 基準画像の幅方向 解像度を乗算して、 前記移動機構上の幅方向移動量を算出するステップと、 前記 部分入力カメラを、 前記幅方向移動量に対応する目標位置まで、 前記移動機構に より移動させるステップと、 該目標位置に移動させた部分入力カメラにより、 任 意のタイミングで部分画像を入力するステップと、 を有すると共に、 前記全体入 力カメラにより、 全体画像を適宜最新画像として入力するステップと、 該最新画 像と前記基準画像との幅方向の差に基づいて、 前記部分入力カメラの幅方向移動 量を補正するステツプとを有することにより、 前記第 6の課題を解決したもので ある o
本発明は又、 版胴により走行する原反に印刷された絵柄を検査対象として、 移 動機構により原反の幅方向に移動可能な部分入力力メラにより絵柄の一部を画像 入力した部分画像に基づいて、 印刷状態を検査する際に適用する印刷物検査用の 画像入力装置において、 前記部分入力カメラから、 原反の流れ方向に所定距離隔 てて設置された、 絵柄全体を含む全体画像を基準画像として入力する全体入力力 メラと、 前記部分入力カメラが前記移動機構上に設定された原; にある時に、 該部分入力カメラにより入力可能な部分画像の基準画像上の位置と、 基準画像上 に設定された幅方向基準点との関係から、 該基準画像上の幅方向位置と前記移動 機構上の幅方向位置を対応付ける手段と、 基準画像上で、 部分入力カメラにより 入力すべき撮影ボイントを幅方向に位置決めして設定する手段と、 基準画像上で、 設定された撮影ボイントと前記幅方向基準点との間の幅方向画素数を算出する手 段と、 算出された幅方向画素数に、 基準画像の幅方向解像度を乗算して、 前記移 動機構上の幅方向移動量を算出する手段と、 前記部分入力カメラを、 前記幅方向 移動量に対応する目標位置まで、 前記移動機構により移動させる手段と、 該目標 位置に移動させた部分入力カメラにより、 任意のタイミングで部分画像を入力す る手段と、 を備えていると共に、 前記全体入力カメラにより、 全体画像を適宜最 新画像として入力する手段と、 該最新画像と前記基準画像との幅方向の差に基づ いて、 前記部分入力カメラの幅方向移動量を補正する手段とを備えたことにより、 同様に前記第 6の課題を解決したものである。
即ち、 本発明においては、 全体入力カメラにより絵柄全体を含む全体画像を基 準画像として入力すると共に、 該全体画像 (基準画像) と部分入力カメラで入力 される部分画像との関係に基づいて、 該全体画像上の位置と部分入力カメラの実 際の位置 (ハード上の ί立置) をそれぞれ対応付けるようにしたので、 部分入力力 メラで入力したい撮影ボイン卜を、 ボインティングデバイス等により全体画像上 で幅方向の所定位置に設定するだけで、 簡単に該撮影ボイン卜の部分画像を入力 することができる。 又、 それと共に、 適宜最新画像と基準画像とを比較し、 両者 間にずれ (差) 力 <生じている場合には、 そのずれに基づいて部分入力カメラの幅 方向位置を捕正するようにしたので、 経時的に原反に幅方向の位置ずれが生じた り、 絵柄に流れ方向の位置ずれが生じたりした場合でも、 常に正確な撮影ポイン 卜の部分画像を入力することができる。
本発明は、 又、 前記画像入力方法において、 前記全体入力カメラと部分入力力 メラとの流れ方向の離間距離及び版胴周長に基づいて、 基準画像上の流れ方向基 準点に位置する絵柄部分を、 部分入力カメラで入力可能な基準入力タイミングを 算出するステップと、 基準画像上で、 部分入力カメラにより入力すべき撮影ボイ ントを、 前記幅方向以外に流れ方向にも位置決めして設定するステップと、 基準 画像上で、 設定された撮影ボイントと前記流れ方向基準点との間の流れ方向画素 数を算出するステップと、 算出された流れ方向画素数に、 基準画像の流れ方向解 像度を乗算して求められる実際の距離に基づいて、 前記基準入力タイミングから の待ち時間を算出するステップと、 前記移動機構により前記目標位置に移動させ
5 た部分入力カメラにより、 前記基準入力タイミングから前記待ち時間が経過した 夕イミングで部分画像を入力するステップと、 を有すると共に、 前記最新画像と 前記基準画像との流れ方向の差に基づいて、 前記部分人力カメラの部分画像入力 タイミングを補正するステップとを有することにより、 撮影ポィン卜を流れ方向 についても設定できるようにしたものである。
本発明は、 又、 前記画像入力装置において、 前記全体入力カメラと部分入力力 メラとの流れ方向の離間距離及び版胴周長に基づいて、 基準画像上の流れ方向基 準点に位置する絵柄部分を、 部分入力カメラで入力可能な基準入力タイミングを 算出する手段と、 基準画像上で、 部分入力カメラにより入力すべき撮影ポイント を、 せ前記幅方向以外に流れ方向にも位置決めして設定する手段と、 基準画像上 で、 設定された撮影ボイントと前記流れ方向基準点との間の流れ方向画素数を算 出する手段と、 算出された流れ方向画素数に、 基準画像の流れ方向解像度を乗算 して求められる実際の距離に基づいて、 前記基準入力タイミングからの待ち時間 を算出する手段と、 前記移動機構により前記目標位置に移動させた部分入力カメ ラにより、 前記基準入力タイミングから前記待ち時間力経過したタイミングで部 分画像を入力する手段と、 を備えていると共に、 前記最新画像と前記基準画像と の流れ方向の差に基づいて、 前記部分入力カメラの部分画像入力タイミングを捕 正する手段とを備えたことにより、 同様に撮影ポィントを流れ方向についても設 定できるようにしたものである。
本発明は、 又、 印刷物上の絵柄全体の中から無地領域を選択し、 該無地領域を 検査ボイントとして、 検査装置が有する部分入力カメラにより画像入力した検査 画像に基づいて印刷状態を検査する際に適用する印刷物 ^用の無地領域選択方 法であつて、 印刷された絵柄全体が含まれて 1<、る全体画像を人力するステツプと、 入力された全休画像から検査画像に相当する大きさを単位として、 部分画像を切 り出すステップと、 切り出された各部分画像について、 輝度の平坦性を表わす評 価値を計算するステップと、 計算された評価値に基づいて、 各部分画像の中から 輝度の平坦性の高いものを画像上の無地領域として選択するとともに、 所定の数 を画像上の検査ポィン卜として判定するステップと、 判定された検査ボイン卜に 関する位置情報を前記検査装置に出力するステップとを有することにより、 前記 第 7の課題を解決したものである。
即ち、 本発明においては、 検査対象の絵柄全休を画像入力した全体画像を所定 の大きさの部分画像に分割し、 各部分画像について平坦性を評価した後、 平坦性 が高い部分画像を検査ポィントとして判定し、 該検査ボイン卜の位置情報を検査 装置に出力することにより、 印刷物上での濃度差が極力小さ t、無地領域を選択し て画像入力することができる。 なお、 ここで無地領域とは、 印刷物上で濃度の差 がほとんど無いか、 又はそれにできるだけ近い領域を意味する。
本発明は、 又、 上記無地領域選択方法において、 輝度の平坦性を表わす評価値 が、 部分画像に含まれる全画素に関する輝度分布の ¾大度数、 該輝度分布の分散、 及び該輝度分布を高輝度側又は低輝度側に偏つた所定の割合に分割する輝度値の 少なくとも 1つであるとしたものである。
本発明は、 又、 上記無地領域選択方法において、 前記部分画像を、 前記全体画 像上で少なくとも横方向に 1画素分ずつずらしながら、 該全体画像の全体に亘っ て)!頃次切り出すようにしたものである。
本発明は、 印刷物上の絵柄全体の中から無地領域を選択し、 該無地領域を検査 ポイントとして、 検査装置が有する部分入力カメラにより画像入力した検査画像 に基づいて印刷状態を検査する際に適用する印刷物検査用の無地領域選択装置で あって、 印刷された絵柄全体が含まれている全体画像を入力する手段と、 入力さ れた全体画像から検査画像に相当する大きさを単位として、 部分画像を切り出す 手段と、 切り出された各部分画像について、 輝度の 坦性を表わす評価値を計算 する手段と、 計算された評価値に基づいて、 各部分画像の中から輝度の平坦性の 高いものを画像上の無地領域として選択するとともに、 所定の数を画像上の検査 ポイントとして判定する手段と、 判定された検査ボイントに関する位置情報を前 記検査装置に出力する手段とを備えたことにより、 同様に前記第 7の課題を解決 したものである。
本発明は、 又、 上記無地領域選択装置において、 輝度の ¥坦性を表わす評価値 が、 部分画像に含まれる全画素に関する輝度分布の最大度数、 該輝度分布の分散、 及び該輝度分布を高輝度側又は低輝度側に偏つた所定の割合に分割する輝度値の 少なくとも 1つであるとしたものである。 本発明は、 又、 上記無地領域選択装置において、 前記部分画像を、 前記全体画 像上で少なくとも横方向に 1画素分ずつずらしな力 <ら、 該全休画像の全体に亘っ て順次切り出すようにしたものである。 図面の簡単な説明
図 1は、 入力画像の一例とその特徴を示す線図である。
図 2は、 入力画像の一例と、 その 1次元の画像入力信号を模式的に示す説明図
C'めな。
図 3は、 上記入力画像と、 従来法によるエッジ領域抽出画像を示す説明図であ る。
図 4は、 上記抽出画像とその膨張処理画像を示す説明図である。
図 5は、 上記膨張処理画像と、 その収縮処理画像を示す説明図である。
図 6は、 Pタイル法を説明するための線図である。
図 7は、 固定閾値処理法の問題点を説明するための線図である。
図 8は、 従来の Pタイル法の問題点を説明するための線図である。
図 9は、 部分入力力メラによる入力方法を概念的に示す説明図である。
図 1◦は、 検査ボイン卜の設定方法の一例を示す説明図である。
図 1 1は、 検査ボイン卜の設定方法の他の一例を示す説明図である。
図 1 2は、 画像信号とェッジ領域との関係を概念的に示す線図である。
図 1 3は、 垂直方向、 水平方向のエッジを模式的に示す説明図である。
図 1 4は、 本発明に係る第 1実施形態の筋伏欠陥検査装置の構成を示すプロッ ク図である。
図 1 5は、 第 1実施形態におけるマスク画像作成時のェッジ抽出を示す説明図 める。
図 1 6は、 同じく検査画像を模式的に示す説明図である。
図 1 7は、 上記検査画像より絵柄のェッジのみを抽出した画像を示す説明図で める 0
図 1 8は、 上記検査画像を基に作成したマスク画像を示す説明図である。 図 1 9は、 第 1実施形態におけるエッジ抽出に用いる微分オペレータを概念的
8 に示す説明図である。
図 2 0は、 同じく微分オペレータを適用して作成したエツジ画像を示す説明図 し7'める。
図 2 1は、 同じくマスク画像とエツジ画像の合成原理を概念的に示す説明図で あ o
図 2 2は、 同じく合成後のマスク済みエツジ画像を示す説明図である。
図 2 3は、 同じく縱方向の画素値を強調する加算方法を示す説明図である。 図 2 4は、 同じく筋状欠陥の判定処理を概念的に示す説明図である。
図 2 5は、 本発明に係る第 2実施形態に適用されるエツジ領域抽出装置の概略 構成を示すプロック図である。
図 2 6は、 第 2実施形態におけるエツジ領域の抽出原理を模式的に示す説明図 める。
図 2 7は、 同じく膨張 ·収縮回数の計算方法を示す説明図である。
図 2 8は、 同じくエツジ領域の膨張処理の原理を示す説明図である。
図 2 9は、 同じくエツジ領域の収縮処理の原理を示す説明図である。
図 3 0は、 同じく細線に対するエツジ領域抽出の処理手順を示す説明図である。 図 3 1は、 同じく中線に対するエツジ領域抽出の処理手順を示す説明図である。 図 3 2は、 同じく太線に対するエツジ領域抽出の処理手順を示す説明図である。 図 3 3は、 検査画像を摸式的に示す説明図である。
図 34は、 検査画像と、 第 2実施形態によるエッジ領域の抽出画像を示す説明 図である。
図 3 5は、 上記抽出画像と、 その膨張処理画像を示す説明図である。
図 3 6は、 上記膨張処理画像と、 その収縮処理画像を示す説明図である。
図 3 7は、 印刷絵柄を画像入力して得られた他の^ S画像の一例を模式的に示 す説明図である。
図 3 8は、 上記検査画像から作成されるマスク画^を示す説明図である。
図 3 9は、 原画像とマスク画像の関係を概念的に示す説明図である。
図 4 0は、 上記検査画像から作成されるェッジ画像を示す説明図である。
図 4 1は、 上記マスク画像とエツジ画像を合成したマスク済みエツジ画像を示 PC す説明図である。
図 4 2は、 幅 W以下の平坦部について抽出されたエッジ領域の P 1 回収縮後の 状態を示す説明図である。
図 4 3は、 本発明に係る第 3実施形態の作用を示す説明図である。
図 4 4は、 第 3実施形態の効果を示す説明図である。
図 4 5は、 第 3実施形態の効果を示す他の説明図である。
図 4 6は、 幅が異なる平坦部について抽出されたエッジ領域の P 1 回収縮後の 伏態を示す説明図である。
図 4 7は、 本発明に係る第 4実施形態の作用を示す説明図である。
図 4 8は、 第 4実施形態の効果を示す説明図である。
図 4 9は、 第 4実施形態の効果を示す他の説明図である。
図 5 0は、 検査画像を R、 G、 Bのモノクロ画像とする検査装置の構成を示す ブロック図である。
図 5 1は、 上記モノク口画像を用いる場合の問題点を示す線図である。
図 5 2は、 本発明に係る第 5実施形態の筋状欠陥検査装置の概略構成を示すブ 口ック図である。
図 5 3は、 第 5実施形態における R、 G、 Bのモノクロ画像の合成方法を示す 線図である。
図 5 4は、 第 5実施形態の効果を示す線図である。
図 5 5は、 本発明に係る第 6実施形態のェッジ領域抽出装置の概略構成を示す プロック図である。
図 5 6は、 本発明に係る第 7実施形態のェッジ領域抽出装置の概略構成を示す ブロック図である。
図 5 7は、 本発明に係る第 8実施形態の二値画像作成装置の概略構成を示すブ 口ック図である。
図 5 8は、 第 8実施形態における二値画像の作成手順を概念的に示す線図であ 。
図 5 9は、 本発明に係る第 1 0実施形態の画像入力装置の概略構成を示すプロ ック図である。 図 6 0は、 第 1 0実施形態おける全体入力カメラと部分入力カメラの幅方向位 置閒係等を示す説明図である。
図 6 1は、 同じく全体入力カメラと部分入力カメラの流れ方向位置関係を示す 説明図である。
図 6 2は、 同じく全体画像と撮影ボイン卜の関係を示す説明図である。
図 6 3は、 本発明に係る第 1 1実施形態の画像入力装置での全体入力カメラと 部分入力力メラの流れ方向位置関係を示す説明図である。
図 6 4は、 本発明に係る第 1 2実施形態の画像入力装置の概略構成を示すプロ ック図である。
図 6 5は、 第 1 2実施形態おける最新画像の基準幽像からの位置ずれを示す線 図である。
図 6 6は、 本発明に係る第 1 4実施形態の無地領域選択装置の概略を示すプロ ック図である。
図 6 7は、 第 1 4実施形態おける全体画像と部分画像の関係を示す線図である。 図 6 8は、 同じく部分画像の切出し方法を示す線図である。
図 6 9は、 同じく部分画像とその輝度分布の一例を示す線図である。
図 7 0は、 同じく偏分割画素値を説明するための線図である。
図 7 1は、 第 1 4実施形態における処理手順を示すフローチャートである。 図 7 2は、 本発明に係る第 1 5実施形態の無地領域選択装置の概略を示すプロ ック図である。
図 7 3は、 第 1 5実施形態における並列処理を示す説明図である。
図 7 4は、 同じく 1つの評価値のみを使用した場合の検査ボイントを示す説明 図である。
図 7 5は、 同じく 2つの評価値を併用した場合の検査ボイントを示す説明図で あ o
図 7 6は、 本発明に係る第 1 6実施形態の無地領域選択装置の概略を示すプロ ック図である。 発明を実施するための最良の形態 以下、 図面を参照して、 本発明の実施の形態を詳細に説明する。
図 1 4は、 本発明に係る第 1実施形態の筋状欠陥検査装置の概略構成を示すブ 口ック図である。
本実施形態の検査装置は、 印刷物を画像入力した検査画像から、 印刷物上に発 生している筋状欠陥を検出するもので、 印刷物から C C Dカメラ等により検査画 像を光学的に人力する画像入力部 1 0と、 入力された検査画像から絵柄部分を除 外処理する絵柄除外部 1 2と、 絵柄部分が除外された除外処理後の画像に存在す る筋部分を強調処理する筋強調処理部 1 4と、 筋部分が強調された強調処理後の 画像に基づいて筋状欠陥を判定する判定部 1 6と、 判定された筋状欠陥をモニタ 上に表示する欠陥表示部 1 8とを備えている。
本実施形態では、 前記絵柄除外部 1 2は、 マスク画像作成部 1 2 A、 エッジ画 像作成部 1 2 B、 マスク済みェッジ画像合成部 1 2 Cを含み、 前記筋強調処理部 1 4は縦加算部 1 4 Aを、 又、 前記判定部 1 6は、 二値化部 1 6 A、 線認識部 1 6 Bをそれぞれ含んで構成されている。
以下、 上記検査装置を構成する各機能部について詳述する。 なお、 この実施形 態では、 特に断らない限り、 画像は、 それを構成する各画素が 0 ~ 2 5 5の 2 5 6階調の画素 fitで表示されるモノクロ画像とする。 従って、 カラ一画像の場合は、 R、 G、 Bの 3フレームのモノクロ画像として同様:こ取り扱うことができる。 前記マスク画像作成部 1 2 Aは、 検査画像から抽出される絵柄部分のエッジを マスクするためのマスク画像を作成する機能を有している。
即ち、 このマスク画像作成部 1 2 Aは、 画像入力部 1 0により入力された検査 画像に含まれる筋状欠陥以外の線分や絵柄のエツジ部を検出処理の対象から外す ためのマスク画像を作成する機能を有する。 具体的には、 例えば、 図 1 5に画素 の配置を概念的に示したように、 隣接する画素との画素値の差分を計算し、 これ を閾値処理することにより、 明確な線や絵柄のエツジのみに相当する二値のマス ク画像を作成する。 これを、 便宜上、 画素を表わす記号と同一の記号で画素値を 記述すると、 次の (1 ) 、 (2 ) 式で表わすことができる。
( P n |]1 力《絵柄のエッジである場台)
l p i . j - P n,m ' ^ Τ 1 ,·· ( 1 ) PC
(Pn m が絵柄のエッジでない場台)
' Pi.j - p n,m Ι < Τ1 ·'· (2)
但し、 i =n— 1, n , n + l、 j =m- 1 , m, m+l、
P. . ≠ P
l. j n.m
T 1 :閾値
上記但し書きで P: j ≠Pn>ni とあるのは、 同一画素間では計算しないことを 意味する。 又、 閾値 Ti は固定した値でなく、 筋状欠陥のエッジが抽出されない 値として実験的に求め、 】途設定しておく。
上記 (1) 、 (2) 式による計算処理の結果、 閾値 T1 以上の濃度差をもった、 即ち明確な線や絵柄のエツジのみが抽出された二値画像が作成される。 この二値 画像を、 検査画像が絵柄 Pと筋状欠陥 (ドクター筋) Dとを模式的に示した図 1 6である場合を例に示すと、 図 17のようになる。 即ち、 濃淡がはっきりしてい る絵柄 Pのみのエツジが抽出され、 ドク夕一筋 D等のコントラス卜の低い線状 (筋状) 部分のエッジは抽出されない二値化画像が得られる。 そして、 この図 1 7の画像のエッジに基づいて、 該エッジをマスクするに十分な幅の、 図 18に示 すようなマスク部分 Mが生成されたマスク画像が作成できる。
なお、 その際、 実際の検査画像では、 ノイズ等に起因して連続した明瞭なエツ ジが抽出されないこともあるので、 エッジの膨張処理を行うことにより、 エッジ の明瞭化を図るようにしてもよい。 又、 上記 (1) 、 (2) 式を用いる抽出処理 によっては任意の方向のエツジを検出できるが、 必ずしも全方向の計算をする必 要はなく、 例えば水平方向のみであってもよい。
前記ェッジ画像作成部 12 Bは、 同一の検査画像から抽出される任意のェッジ を含むェッジ画像を作成する機能を有して L、る。 即ち、 このエツジ画像作成部 1 2Bでは、 前記検査画像から、 縦方法の筋状欠陥を検出するために水苹方向のェ ッジを全て抽出する。
具体的には、 縦方向の筋状欠陥を検出したい場台、 水平方向で画素間の画素値 の差分を計算することにより全てのエッジを求める。 その際、 例えば、 図 19に 模式的に示した水平方向の画素の配列に対応する、 次の (3) 式で記述される微 分オペレータを各画素に適用することにより、 コントラス卜が低い線部分を含む
2 全てのエツジを抽出することができるため、 濃度差に応じた任意のエツジを含む エッジ画像が作成される。 なお、 この (3) 式で Dは、 別途設定しおく 1以上の 定数 (D 1) であり、 因にこの実施形態では D= 2としている。 (2 P n1 D - P n-D ) ·'· (3)
又、 このエッジ画像作成部 12 Βでは、 上記 (3) 式のオペレータによる演算 結果について正規化を行うようになっている。 この正規化は、 対象画像の画素値 が 0〜255階調であることから、 上記 (3) 式の単純な計算値は、 完全な平坦 部の場合を 0として、 マイナスとプラスの値 (最小値— 510、 最大値 +510) を持つことになり、 このままでは 0〜255階調で表示ができないことになるの で、 この表示ができるようにするための処理である。
正規化の具体的処理は、 上記 (3) 式を次の (4) 式のように第 1項と第 2項 に分けて、 "正規化前の減算'' を行った後、 その結果について "正規化後の加算" を行い、 結果として次の (5) 式による計算を行うことに当る。 但し、 式中 Μは 正規化後の原点に当る階調値であり、 ここでは 128 (=256 + 2) としてい る。
Pn.m = (Pn — Pn+D ) + (p np n- D ) … (
Pn,m = (2 Pn -1 D -Pn-D +4M) ,4 … (5)
即ち、 この (5) 式により上記 (3) 式の計算結果を正規化することは、 該
(3) 式の計算結果が、 例えば一 510、 0、 + 510であれば、 これらをそれ ぞれを 4で割つた後、 全体的に 128分シフトさせた値である 1、 128、 25
5の画素値に変換することを意味する。 従って、 この正規化により、 (3) 式の 計算結果を、 階調値 128を原点 (中間値) として、 十一それぞれの方向に変化 する画素値として表示することが可能となる。
ここで行われる正規化は、 一般的な画像処理装置で行われる、 いわゆるフレー ム間演算の加算や減算の結果に対して、 その画素値がマイナスになる場合に、 0
〜255階調の表示ができるようにするものと実質的に同一の処理である。 具体 例を挙げると、 いずれも 0〜255階調表示の画像 A、 Bについて、 (画像 A— 画像 B) の減算結果を画像 Cとする場合、 この画像 Cは一 255〜十 255とな り、 0〜255内に収まらないので、 M= 128とし、 画像 C= (画像 A—画像 B ) Z 2 + Mにより正規化し、 1〜2 5 5にする。
図 2 0は、 上記微分オペレータを前記図 1 6の検査画像に適用して得られたェ ッジ画像を模式的に示したものであり、 前記絵柄 Pに基づく強 、ェッジ P Eとド クタ一筋 Dに基づく弱いエッジ D Eと力 抽出されている。 尚、 このエッジ画像 の作成には、 上記微分オペレータに限らず、 その他のエッジ抽出処理の方法を適 用してもよいことは言うまでもない。
前記マスク済みエッジ画像台成部 1 2 Cは、 作成されたエッジ画像とマスク画 像を合成する機能を有している。 即ち、 マスク済みエッジ画像台成部 1 2 Cは、 前述した画像処理により作成したエツジ画像とマスク画像を合成して、 検査対象 外の画素を決定し、 これ以降の処理からその画素を除外する働きをする。
具体的には、 作成したエッジ画像とマスク画像を図 2 1に概念的に示したよう に、 エッジ画像上の画素 P n と、 これに対応するマスク画像上の画素 Mn とを比 較し、 画素 Mnがエッジ部 (マスク部分) でない場合は、 画素 P n はそのままに し、 逆に、 画素 Mnがエッジ部である場合は、 画素 P nをマスクする (検査対象 外とする) 。 即ち、 この合成処理は、 画素 Mnがエッジ部でない場合は、 合成画 像の対応する画素に対して画素 P n の画素値をそのまま設定し、 逆にエッジ部で ある場合は、 正規化後の原点に対応する階調値 1 2 8を設定し、 エッジ画像中の 強いエツジ P Eをマスクする処理を行っていることに当る。
従って、 ここで行うマスク処理とは、 マスク画像のエッジ部に当る台成画像の 画素に、 前記 (5 ) 式で正規化の原点の画素値として設定した階調値 1 2 8を設 定することであり、 これにより、 合成して得られるマスク済画像についても 1 2 8に正規化すると同時に、 上記ェッジ P Eをマスクして検査対象外とした上で、 前記 (3 ) 式によるマイナスの計算結果をも 0〜1 2 7の階調値により画像表示 できるようにしている。
図 2 2は、 前記図 1 8のマスク画像と、 前記図 2 0のエッジ画像とについて、 上述した合成処理を行うことにより作成したマスク済み画像を模式的に示したも のであり、 この画像には、 上記のように強いエッジ P Eが除外され、 ドク夕一筋 Dに基づく弱いェッジ D E力く残存していることが示されて 、る。
前記筋強調処理部 1 4に含まれる縦加算部 1 4 Aは、 絵柄部分が除外された除 外処理後の画像、 即ち上記図 22に示したようなマスク済み画像について、 注目 画素の画素値を、 該注目画素を含み、 且つ、 同一方向に並ぶ所定数の画素の各画 素値を加算した値に置き換える機能を有している。 これを、 マスク済みエッジ画 像の画素値を縦方向に加算することにより、 縦の筋を強調し、 ノイズ成分を抑制 する場合について以下に説明する。
前記画像合成部 12 Cで作成したマスク済みェッジ画像は、 階調暄 128を原 点 (基準値) として、 上下両方向にそれぞれエッジの強さに応じて変化する階調 値の画素で構成されているが、 その変化量は小さいため、 画素値の差 (濃度差) に閾値を設定して抽出する方法を採用することはできない。
ところ力 上記マスク済みエッジ画像は、 階調値 128を原点 (=0) とした 場合に、 平坦部分では土両方向にほぼ均等に画素値が分布しているのに対し、 筋 状欠陥部分の画素値は +又は -の L、ずれかの方向に偏つた画素値の分布をして L、 る。
従って、 上記画像に対して縦方向に所定範囲にある画素の画素値を、 階調値 1 28を原点として加算することにより、 平坦部分では相殺されるために大きな変 化はな t、が、 筋状部分では +又は一の L、ずれかの方向に画素値が増大するため、 画素値を強調することが可能となる。
図 23は、 この強調計算の原理を模式的に示したもので、 (B) のマスク済み エッジ画像で、 画素 Pn,m から垂直方向に R画素まで各画素値を加算し、 その加 算後の画素値を (A) に示した加算画像の画素 Pn,— の画素値に設定する。 即ち、 加算画像の画素値を次の (6) 式で計算する。 但し、 この加算処理を行う際の各 画素値は、 前記 (5) 式により正規化した値を、 上述した如く、 原点に当る階調 値 128を実際に◦にし、 この 128を超えている画素値を +、 128未満の画 素値を一とした値を使用する。 なお、 Rは実験的に決定する定数である。
Pn,m = Pn,m+l + i n,m+2 , . . ' ^r>n,m+R "' 6)
同様の加算処理を、 Pnm+1 、 Pn,m+2. . . について順次実行することによ り、 前述した如く、 平坦部分の画素では、 +—の値が相殺されるため階調値〇か ら大きく変化することはな L、が、 筋状欠陥部分の画素は +又は—のいずれ力、一方 に画素値が強調された加算画像が作成される。 即ち、 前記図 9の筋状欠陥に基づ く弱いエツジ DEが強調され、 +又は一の明確な画素値を有する画像が得られる。 なお、 筋強調処理のための加算方法は、 上記 (6) 式のように、 先頭の画素に ついてそれより下の画素の画素値を加算する方法に限らず、 同方向に所定画素分 の画素暄を加算する方法であれば任意であるが、 例えば、 つぎの (6' ) 式のよ うに、 中間の画素値について計算してもよい。
Pn.m -P n,m- R/2 +· . . + Pn,m +· ' ' + Pn.m+R/2 … (6' ) 前記判定部 16に含まれる二値化部 16 Aは、 前記縦加算部 14 Aにより作成 された縦の筋部分が強調された加算画像に対して、 閾値を設定して二値化処理す ることにより、 二値化画像を作成する機能を有している。
具体的には、 前記のように縦の筋部分の画素値を加算して +又は -の方向に強 調した画素値を有する前記強調処理後の画像について、 筋状の点 (画素) とそれ 以外の部分に分別するために、 例えば、 閾値 T2 (実験的に決定する) を設定し、 各画素値の絶対値が該閾値 T2 以上の値をもつ画素は筋の一部である可能性が高 いので、 I Pn,m I≥T2 なら、 その画素を筋状の点の候補とするために Onに し、 逆に I Pn,m I <T2 の場合は、 筋状の点ではないとして 0 f f にする。 な お、 ここで実行する二値化処理は、 上記方法に限られず、 例えば、 移動平均法や 判別分析法等を利用してもよい。
前記判定部 16に含まれる線認識部 16 Bは、 強調処理した後に二値化して作 成した上記二値化画像に対して、 Onの画素が縦方向 (実質的に同一方向) に所 定数以上存在するか否かにより、 その画素が縦方向の線 (筋) 状の欠陥を構成し ているか否かを判定する機能を有している。
具体的には、 例えば、 以下のように判定する。 検出すべき筋状欠陥が非常に薄 く且つ細 L、場合、 ニ暄化画像上では 1本の線として繋がっていな L、可能性がある ため、 該ニ値化画像に対して、 図 24に概念的に示すように、 画素を単位とする 縦方向 1ライン中に Onの画素が閾値 T 3 個以上あれば検出すべき筋状欠陥と判 定とする。 この閾値 T3 は実験的に予め決定しておく。
なお、 上記判定は必ずしも 1ライン中の画素に対して行うものに限らない。 画 像入力された筋状欠陥が隣接する 2ライン以上に渡っている可能性もあるので、 2ライン以上で Onの画素の数を計算するようにしてもよい。 又、 必要に応じて、 判定の前に、 O n分の画素を縦方向に複数画素分縮小させ、 次いで同画素数分膨 張させる処理を行うことにより、 予め孤立点を除去する処理等を行ってもよい。 以上詳述した如く、 本実施形態においては、 検査画像を入力し、 その検査画像 からマスク画像を作成するとともに、 エッジ画像を作成し、 次いでこれら両画像 を合成することにより、 マスク済みエッジ画像を作成し、 該画像に対して、 画素 ί直を強調するために縦加算画像を作成しその強調画像から二値化画像を作成し、 更に、 その二値化画像つ L、て線認識を行う。
即ち、 検査画像が絵柄を含む場台であっても、 コントラス卜の高いエツジ部を 処理対象から除外するためのマスク処理を行い、 更に縱方向に加算処理を行うこ とでコントラス卜の低い筋状欠陥を強調して検出する。
従って、 本実施形態によれば、 検査画像が絵柄を含んでいる場合でも、 絵柄の エツジ部を検出することなく、 該画像中からコントラス卜の低い筋状欠陥の検出 が可能となる。 その結果、 従来の印刷物の検査では、 目視による検査でしか検出 不可能であった、 コントラストが低く且つ微細な、 いわゆるドクター筋と呼ばれ る筋状欠陥をも自動的に検出することが可能となる。
次に、 本発明に係る第 2実施形態の筋状欠陥検査装置について説明する。 この 第 2実施形態は、 前記第 1実施形態で作成したマスク画像を、 請求項 3及び 4で 示した方法で作成するようにしたものである。
本実施形態の検査装置は、 前記図 1 4において、 マスク画像作成部 1 2 Αが、 後述する方法で抽出するエッジ領域をマスク部分とするマスク画像を作成する機 能を有するエツジ領域抽出装置で構成されている以外は、 前記第 1実施形態の検 査装置と実質的に同一である。
本実施形態に適用されるエツジ領域抽出装置は、 図 2 5にその概略構成を示す ように、 視野寸法が、 例えば 3 0關 X 3 0画からなる C C Dエリアセンサカメラ 等からなる前記画像入力部 1 0により、 印刷物からの絵柄等を入力した検査画像 を記憶する入力画像記憶部 2 0と、 該記憶部 2 0から読み出される入力画像 (検 査画像) に対して、 以下に詳述する各処理を実行可能とするためのパラメ一夕記 憶部 2 2、 エッジ領域抽出部 2 4、 膨張♦収縮回数算出部 2 8、 エッジ膨張部 3 ◦、 エツジ収縮部 3 4と共に、 ェッジ抽出部 2 4、 エツジ膨張部 3 0、 エツジ収 縮部 3 4で処理した結果をそれぞれ記憶するエツジ領域記憶部 2 6、 エツジ膨張 記憶部 3 2、 出力画像記憶部 3 6とを備えている。
上記パラメータ記憶部 2 2は、 入力画像記憶部 2 0から読み出される入力画像 から、 エツジ領域を抽出する際に画素値を比較する位置を規定するための画素数 L及び判定に使用する閾値 Tと、 ェッジをェッジ領域から除外する平坦部の最大 幅を規定するためのェッジ間画素数 Wとをパラメータとして設定する手段であり、 これらパラメータの値は、 例えばキーボード等により予め入力しておく。 但し、 これらパラメータには次の制約があり、 ドクター筋の場合は、 例えば、 W= 1 0 画素とすることができる。
W≥ 1 L≥W 0≤T≤最大画素値
なお、 上記閾値 Τは、 マスク画像を作成する場合'ま等号は必要ないが、 本実施 形態を検査装置に適用する場合を考慮し、 ここでは等号を含めておく。 即ち、 実 際の検査装置で、 例えば全面マスクにして検査装置を止めることなく検査作業を 事実停止する場合は、 Τ = 0とし、 又、 平坦部の幅に関係なくエッジを全て検査 対象にしたい場合、 あるいはエッジがない絵柄を するような場合は、 丁=最 大画素値とすることにより対応できるようにしてある。
前記エッジ領域抽出部 24は、 垂直方向のエッジ領域を抽出する場合を、 図 2 6に模式的に示すように、 上記パラメータ記憶部 2 2から読み込んだパラメータ Lと丁を用い、 攀の注目画素 P n m を中心としてそれぞれ反対方向に L画素離れ た位置にある、 同じく攀で示した、 P n—し m と P n+I の画素値を比較し、 その 差カ<閾値 Τを超えている場合の該注目画素をエツジ領域として判定し、 抽出する 手段である。 このエッジ領域抽出部 24で抽出されたエッジ領域は、 一旦その記 憶部 2 6に記憶される。 なお、 水平方向、 水平 ·垂直両方向のエッジ領域の場合 も、 同様の計算原理に基づいて抽出できる。
前記膨張♦収縮回数算出部 2 8は、 前記パラメータ記憶部 2 2からパラメ一夕 Wを入力すると共に、 エツジ間画素数が Wの平坦部について抽出された一対のェ ッジ領域の幅をそれぞれ画素単位で膨張させた場合に該両エツジ領域が接しない
(繋らない) 膨張画素数 Νを膨張回数として計算し、 且つ、 膨張後のエッジ領域 を収縮させる収縮画素数 Ρを収縮回数として計算する手段である。 図 27は、 上記算出部 28で算出される膨張回数 Nの意味を概念的に示したも のであり、 この図に示されるように、 回数 N = NAΒであり、 NA ==L— W、 Nn = (W- 1) ノ2である。
上記 NA は、 上記図 27 (B) に示すように、 エッジから、 上記方法で抽出し たエッジ領域までの平坦部の長さ (画素数) であり、 図中左右いずれのエッジ領 域についても同一であるが、 ここでは便宜上左のエツジ領域のみについて図示し たように、 該エッジ領域の右端から平坦部の右端までの画素数は、 上記図 17に 示した抽出原理から Lであるため、 L一 Wで与えられる。
上記 NB は、 左右両エッジ領域から画素数 Nだけ膨張させた場合に、 該両エツ ジ領域が接しないようにするために、 図 27 (A) に示すように、 少なくとも中 心に一画素残すことができる画素数にする必要があることから、 (W— 1) /2 とする。 但し、 中心に残す画素数は 1に限らず例えば 2としてもよく、 その場合 は、 NB = (W-2) Z2とする。 なお、 この NB に端数が出た場合は切り捨て 。
このように、 回数 Nを設定することにより、 エッジ間の幅が画素数 W以下の筋 状の場合は、 左右のエッジ領域に対して N画素の膨張を行っても、 絶対に両エツ ジ領域が槃ることがないのに対し、 Wを超える幅の場台は繫ってしまう。
又、 上記算出部 28では、 上記 N画素分を膨張させた後のエッジ領域を収縮さ せる収縮画素数 P1 の計算も行う。 この実施形態では、 次式のように PI =Nと する。
PI =N = L-W+ (W— 1) /2 … (7)
前記ェッジ膨張部 30では、 前記ェッジ領域記憶部 26から読み込んだェッジ 領域抽出画像に対して、 上記算出部 28で求められた膨張回数 Nの画素数だけ幅 を拡げる膨張処理を行う。 この膨張処理を、 エッジ領域を水平方向に一画素だけ 膨張させる (回数 N=l) 場合を、 1次元的な信号について図 28に模式的に示 した。
この図 28に示されるように、 書がエッジ領域であり、 一回の膨張は、 該エツ ジ領域を水平方向の両側にそれぞれ一画素だけ幅を拡張することを意味する。 上記ェッジ膨張部 30で膨張処理された画像デー夕は、 ェッジ膨張記億部 32 に記憶された後、 ェッジ収縮部 34に読み出され、 エツジ膨張部 3 0で膨張した と同数の画素分だけ縮める収縮処理が行われる。
図 2 9には、 上記図 2 8で膨張処理したエツジ領域に対する収縮処理を概念的 に示した。 この図 2 9に示されるように、 収縮処理は、 膨張したと同数の画素を 膨張後のェッジ領域の両側から減らすことを意味し、 膨張した結果、 両側のェッ ジ領域が槃つてしまった場合を除き、 膨張前のエッジ領域に戻すことになる。 こ の収縮後のェッジ領域画像は出力画像記憶部 3 6に記憶される。
次に、 第 2実施形態の作用を説明する。
本実施形態においては、 パラメ一夕 L、 W及び Tとして所定の数値を入力する と共に、 入力画像に対して、 前述した原理に従ってエッジ領域の抽出、 膨張、 収 縮の各処理を行うことにより、 エツジ間画素数が W以下の平坦部 (微小筋に当る) の場合は、 エッジを含まない位置にエッジ領域を抽出でき、 逆に Wを超えている ときはェッジを含む領域にェッジ領域を抽出できる。
これを、 W= 3、 L = 5で膨張回数 N及び収縮回数 P I 力共に、 前記 (7 ) 式 から、 L— W+ (W— 1 ) / 2 = 5 - 3 + ( 3 - 1 ) Z 2 = 3の場合について、 図 3 0 ~ 3 2を参)!?、しながら具体的に説明する。
図 3 0は、 幅 (ェッジ間画素数) 2の線のェッジ 'まェッジ領域とされな L、場合 の例に当る。 1次元の入力画像信号が、 図 3 0 (A) に撃に示すように、 幅が 2 画素の場合、 前記図 2 6に示した原理に従って、 注目画素から左右にそれぞれ 5 画素離れた位置の画素値を比較し、 その値が閾値 Tよりも大きい場合の該注目画 素をエツジ領域とする処理を行うと、 2つの撃の両側にそれぞれ網掛の丸で示し た 2つの画素からなるエツジ領域が抽出された図 3 0 ( B ) に示す画像が得られ る。
次いで、 上記 2つのエッジ領域それぞれに対して、 左右の幅方向にそれぞれ 3 画素 (N = 3 ) 分拡げる膨張処理を行って図 3 0 ( C ) の状態にし、 その後、 同 じく 3画素分減らす収縮を行い、 最終的なエツジ領域抽出画像として図 3 0 (D) を得る。
この例では、 上記図 3 0 ( C ) から判るように、 網掛の二重丸で示した膨張処 理後のエッジ領域が、 互い繋っていないため、 各エッジ領域とも両側で収縮処理 が行われる。 その結果、 最終的に、 図 3 0 (D) に示すように、 筋の両側のエツ ジに当る攀から離れた位置にェッジ領域が抽出される。
これに対して、 W== 3より大きい幅 4の線の塲台の処理結果は、 上記図 3 0に 対応する図 3 1に示すように、 図 3 1 ( C ) に示される膨張処理後の状態が、 2 つのエツジ領域が槃つて 1つの大きなエツジ領域となっている。
このように、 2つのエッジ領域が 1つに繋がった場合には、 その部分では収縮 処理が行われないようになつているため、 収縮後のエッジ領域は図 3 1 (D) の ように、 図 3 1 ( B ) で抽出された左側ェッジ領域の左端から右側ヱッジ領域の 右端まで連続したものになり、 この収縮後のエツジ領域の内側に人力画像の図 3 1 (A) に示される線に相当する 4つの攀の画素が完全に潰されて含まれている ため、 エッジも当然含まれていることになる。
又、 前記図 3 0 (A) の入力画像の線に比べ十分に広い、 幅が 1 7画素の場合 は、 前記図 3 0、 図 3 1より簡略化した図 3 2に示すように、 図 3 2 ( B ) の段 階でエツジをほぼ中心とする 2 L ( 5 2 = 1 0 ) の幅のエツジ領域が抽出され、 このエッジ領域に対して、 N = 3の膨張処理を行っても、 図 3 2 ( C ) に示すよ うに左右両ェッジ領域は内側で繋がることがないため、 次の収縮処理では各ェッ ジ領域とも両側で N = 3で収縮され、 図 3 2 (D) に示すように、 上記 (B ) の 場合と同一のエッジ領域に戻る。 この場合は、 左右のエッジがそれぞれ対応する 左右のエッジ領域 (網掛範囲) に完全に含まれることになる。
本実施形態によるエッジ領域抽出方法を、 図 3 3に示した (A) の検査画像に 適用する場合を例に更に詳述する。 この検査画像は、 絵柄を模式的に示したもの で、 幅が a〜 dの 4種類の矩形の絵柄等がそれぞれ eの間隔をおいて並んだ画像 に相当し、 1番細い dの幅の線がドク夕一筋に相当する。 又、 図 3 3 ( B ) は、 図 3 3 (A) の水平方向の各画素の階調値を概念的に示したものである。
図 34〜3 6に、 エッジ領域抽出、 膨張、 収縮の各処理結果 (C ) 〜 (E ) を それぞれ前の処理結果と併せて示したように、 パラメータ W以下の細い線に当る dの幅の場合のみ、 線 (筋) から離れた位置にその線の幅に応じた幅のエッジ領 域が抽出される。 その結果、 上記図 3 6から判るように、 前記幅 dの線の場合の み、 そのエッジが収縮後のエッジ領域に含まれず、 それ以外の幅の広いものは、 全てェッジがェッジ領域に含まれることになる。
従って、 本実施形態によれば、 画像中の垂直方向のエッジに基づいてエッジ領 域を抽出できるが、 エッジに挾まれた平端部の幅が一定 (=w) 以下のときは、 そのエツジをエツジ領域として抽出しないようにできることから、 細い線を除き、 それを超える太さの線や通常の絵柄のエツジ部分を含むエツジ領域を抽出するこ とができる。
即ち、 以上のように抽出されたエツジ領域をマスク部分とするマスク画像を作 成することにより、 平坦部及び細い筋状の欠陥を残したまま、 絵柄のエッジのみ を除外することが可能となる。
これを、 印刷絵柄を画像入力して得られた原画像 (検査画像) が、 図 3 7に示 すように、 通常の絵柄 P i (リング形状) 、 P 2 (色模様) と共に、 微細なドク ター筋 Dを含んでいる場合に、 本実施形態の方法で 出したエツジ領域をマスク 部分とするマスク画像は、 図 3 8に示すイメージのようになる。 即ち、 前記図 3 5の場台と同様に、 通常の絵柄部分では、 エッジを中心とするその近傍がエッジ 領域 (斜線部で示す) として抽出される力 ドク夕一筋 Dの部分はエッジ領域に 含まれないことになる。
従って、 上記図 3 8に示すように、 絵柄 P i、 P 2 については E R1、 E R2 で示すマスク部分 (エッジ領域) が、 ドク夕一筋についてはその両側に E Rd で 示す 2本のマスク部分が生成されたマスク画像が作成されることになる。 このマ スク画像と図 3 7の原画像との関係を概念的に示すと図 3 9のようになる。 一方、 上記図 3 7の検査画像から前記ェッジ画像作成部 1 2 Bによりエツジ画像を作成 すると、 図 4 0に示すように、 全てのエッジ P E 1、 P E 2、 D Eが抽出された 画像が得られる。
そして、 上記図 3 8のマスク画像と図 4 0のエッジ画像とを、 前記画像合成部 1 2 Cで合成することにより、 図 4 1に示すような、 前記図 2 2と実質上同一の マスク済みエツジ画像を作成することができる。
従って、 その後は前記第 1実施形態と同様の処理を施すことにより、 通常は検 出されないような、 印刷のドク夕一筋等の筋状欠陥を確実に検出することができ 。 以上詳述した第 2実施形態によれば、 検査画像が絵柄を含んで 、る場合でも、 コントラス卜が低く つ細い筋状欠陥をも、 前記第 1実施形態の場合と同様に自 動的に検出することが可能となる。
次に、 本発明に係る第 3実施形態の筋状欠陥検査装置について説明する。 この 第 3実施形態は、 前記第 1実施形態で作成したマスク画像を、 請求項 3及び 5で 示した方法で作成するようにしたものである。
本実施形態は、 前記図 25の膨張 ·収縮回数計算部 28で、 収縮回数 (画素数) P2を、 次の (8) 式で計算するようにした以外は、 前記第 2実施形態と実質上 同一である。
P2 =L-W+ (W- 1) /2+ (W+ 1) /
=P1 + (W+ 1) /2 … (8)
本実施形態においては、 上記 (8) 式より明らかなように、 前記 (7) 式で示 した第 2実施形態の収縮画素数 PI (==N) よりも (W+1) Z2画素分だけ更 に収縮させる。 これを、 図 42、 図 43を用いて以下に説明する。
図 42は、 幅 W以下の平坦部からなる入力画像に対して、 前記図 30 (A) ~ (D) と同様の処理を施してエツジ領域を抽出した画像を模式的に示したもので ある。 即ち、 この図 42は、 図 30 (C) に相当する N回!?張した画像から、 前 言己第 1実施形態の場合と同様に Pi (=N) 回収縮した、 図 30 (D) の状態に 相当する。
本実施形態では、 第 2実施形態によれば上記図 42に示した幅 W以下の平坦部 の左右近傍に抽出されるエッジ領域 ERを、 更に (W+1) 2画素分収縮させ ることにより、 図 43に示すように消減させるようにしている。
即ち、 第 2実施形態の場合よりも多くする追加収縮回数 (W+1) 2の計算 根拠は、 図 42に示されるエッジ領域 ERの最大幅は、 前記図 26に示した抽出 原理から Wであることから、 これを両側から 1画素ずつ収縮させて消滅させるた めには WZ2で足りる力 Wが奇数の場合を考慮して (W+1) /2としている ことにある。 但し、 この場合、 端数は切り捨てる。
以上詳述した第 3実施形態によれば、 前記第 2実施形態に比較して、 幅が W以 下の筋状の入力画像について、 その両側に抽出されたエツジ領域を消滅させるこ とができる。
従って、 本実施形態により抽出したエツジ領域を fflいてマスク画像を作成する 場合には、 第 2実施形態の作用を示した前記図 36 (E) に相当する図 44と前 記図 39に相当する図 45にそれぞれ示すように、 ドクター筋 Dの両側には、 ェ ッジ領域が抽出されないようにできることから、 それだけ被検査画像において検 查の対象となる領域を広く取り、 検査の信頼性を高めることが可能となる。
次に、 本発明に係る第 4実施形態の筋状欠陥検査装置について説明する。 本実 施形態は、 前記第 1実施形態で作成したマスク画像を、 請求項 3及び 6で示した 方法で作成するようにしたものである。
本実施形態は、 前記図 25の膨張♦収縮回数計算部 28で、 収縮回数 (画素数) P3 を、 次の (9) 式で計算するようにした以外は、 前記第 2実施形態と実質上 同一である。
P3 =L-W+ (W - 1) /2+ (L- 1)
=P1 + (L- 1) … (9)
本実施形態においては、 上記 (9) 式より明らかなように、 前記 (7) 式で示 した第 2実施形態の収縮画素数 PI (=N) よりも (L一 1) 画素分だけ更に収 縮させる。 これを、 図 46、 図 47を用いて以下に説明する。
図 46 (A) は、 t§W以下の平坦部からなる入力 uS像に対して、 前記図 30
(A) 〜 (D) と同様の処理を施してエッジ領域 ERを抽出した画像を模式的に 示した、 前記図 42と同一である。 又、 図 46 (B) は、 平坦部の幅が Wより大 きい入力画像について、 前記図 31 (A) 〜 (D) と実質上同一の処理を施した 図 31 (D) に相当し、 図 46 (C) は、 平坦部の幅カ<\¥より十分に大きい入力 画像について前記図 32 (A) 〜 (D) と実質上同一の処理を施した図 32 (D) に相当する。
本実施形態では、 前記第 2実施形態で P1 回の収縮を行った状態に当る図 46 (A) 〜 (C) のそれぞれのエッジ領域 ERに対して、 前記 (9)式で示したよ うに、 更に (L一 1) 画素分の収縮を行うことにより、 対応する図 47 (A) 〜 (C) の状態にする。 本実施形態で採用する追加収縮回数 (L一 1) は、 エッジ 領域を平坦部のエツジに対してぎりぎりまで小さくする収縮画素数に当る。 本実施形態のように、 前記第 2実施形態の P 1 より (L一 1 ) 回だけ余分に収 縮させる場台には、 前記第 3実施形態の場合と同様に、 幅が W以下の平坦部につ いては、 W≤Lであることから、 図 4 7 (A) のようにエッジ領域 E Rを消滅さ せることができる。 又、 図 4 6 ( B ) のように、 平 +Π.部の幅が Wを超えている場 台、 図 4 7 ( B ) に示すように、 膨張処理した結果 1つに槃つたエッジ領域 E R の左右端それぞれをエッジより 1画素目まで収縮させることができるため、 エツ ジ領域をエッジをカバ一できる最小の大きさにすることができる。 又、 図 4 6 ( C ) のように、 平坦部の幅が Wより十分に大きい場合は、 図 4 7 ( C ) に示す ように、 エツジの前後 1画素の部分にのみエツジ領域力《抽出されるようにできる。 一般に、 抽出したエッジ領域を用いてマスク画像を作成する場台、 エッジ領域 (マスク部分) は、 被検査画像において検査対象から除外する領域を意味するた め、 検査対象となる領域を広くして検査の信頼性を高めるためには、 エッジ領域 は被検査画像中のエッジをきちんとマスクした上で可能な限り (その面積が) 狭 いことが理想的である。
従って、 本実施形態で採用した方法は、 一般的なエッジ抽出方法として最もふ さわしく、 本実施形態により抽出したエッジ領域を用いることにより、 理 ¾|的な 検査用のマスク画像を作成することができる。
その結果、 第 4実施形態によれば、 前記第 3実施形態の場合の前記図 4 4及び 図 4 5にそれぞれ相当する図 4 8及び図 4 9に示すように、 幅 W以下のドクター 筋 Dについては、 前記第 3実施形態と同様にエッジ領域は抽出されず、 幅 W以上 の通常の絵柄については、 前記第 3実施形態より一段と狭いエツジ領域 E Rを抽 出することが可能となる。
本発明者等は、 以上詳述した筋状欠陥検査技術について更に詳細に検討した結 果、 前記図 1 4に示した検査装置をカラー画像に適用する場合、 即ち検査画像と して画像入力部 1 0からカラー画像を入力する際、 図 5 0に示すように、 R、 G、 Bの 3フレームをモノクロ画像として、 それぞれ個別に設置された絵柄除外部 1 2、 筋強調処理部 1 4、 判定部 1 6により、 前述した各処理を行う場合には、 以 下の新たな問題があることが明らかになつた。
図 5 1 (A) 〜 (C ) は、 R、 G、 Bの各モノクロ画像を、 前記図 2 3に示し た方法により、 それぞれ個別に筋強調処理して得られた縦加算画像を概念的に示 したものである。 これら R、 G、 Bの各縱加算画像において、 筋部分の各輝度値 (階調値) 力 <それぞれ背景に対して少ししか変化していない筋状欠陥については、 感度が低下して検出できない。
即ち、 上記図 51 (A) 〜 (C) の各画像において、 同一のスキャンライン L 上で、 検出された輝度値の分布プロファイルを、 図 51 (D) 〜(F) にそれぞ れ示したように、 いずれのモノクロ画像でも、 2値化処理のために設定してある 閾値 T2 を越えないため、 OK (筋状欠陥がない) の判定が下され、 印刷物上で は筋状欠陥が発生して L、るにも拘らず、 最終的に 0 Kと判定されることが起こり 得る。
次に、 このような問題をも解決した、 本発明の第 5実施形態について、 詳細に 説明する。 図 52は、 第 5実施形態の筋伏欠陥検出装置の要部構成を示すブロッ ク図である。
本実施形態の筋状欠陥検査装置は、 前記図 14に示したものと同様の画像入力 部 10により検査画像がカラ一画像として入力されると、 該検査画像は R、 G、 Bの各フレームのモノクロ画像に分離された後、 それぞれに対応して設置された 絵柄除外部 12及び筋強調処理部 14に順次入力され、 前述したと同様の処理が 各モノクロ画像に実行されるようにすると共に、 判定部 16の前段に設置した R GB合成部 20により、 上記、 筋強調処理部 14で処理された各モノクロ画像の 縱加算画像を合成できるようにし、 且つ該台成部 20に対して合成時に使用する 重み係数等がパラメ一夕記憶部 22から入力されるようにした以外は、 各構成部 の機能を含めて前記図 14に示した筋状欠陥検査装置と実質上同一である。
本実施形態においては、 前記 RGB合成部 20において、 R、 G、 Bの各縱加 算画像を合成する際、 それぞれを図 53 (A) 〜(C) に概念的に示したように、 各画像の同一座標位置 (n, m) の画素の階調値 (輝度値) R (n, m)、 G
(n, m)、 B (n, m) を、 次の (1) 式によりそれぞれ加算することにより、 台成画像の階調値 RGB (n, m) が算出される。
RGB (n, m) = A r x R (n, rn) + A g x G (n, m)
+ A b x B (n. m) ··· (10) 但し、 A r : Rの重み係数
Ag: Gの重み係数
Ab : Bの重み係数
上記重み係数としては、 通常は全て同一の係数、 例えば 1. ◦とすればよい。 し力、し、 印刷物で、 例えば白紙上の黄色の筋の場台であれば、 A r = l. 0、 A g= 1. 0 Ab = 0. 1とすることにより、 該筋を検出しないようにできる。 このように、 (10) 式を用いて画像を合成する際、 R、 G、 Bの各画素値に対 する係数を変えることにより、 特定の色に対して感度を調整することができる。 上述した本実施形態を、 前記図 51 (A) 〜 (C) に示したものとほぼ同一の、 図 54 (A) 〜 (C) に示した、 R、 G、 Bの各モノクロ画像の縦加算画像に適 用する場合について説明する。
図 54 (D) 〜 (F) に示したように、 各モノクロ画像について輝度値のピー クを闞値 T2 と単純に比較する方法では、 前記図 51 (D) 〜 (F) の場合と同 様にいずれも筋状欠陥は検出されないが、 本実施形態によれば、 このような検出 画像に対しても、 RGBの合成画像を用いて判定を行うので、 図 54 (G) に示 したように、 合成画像ではピーク値が闞値 T2 を越えていることから筋状欠陥が あるという NGの判定を行うことができる。 因みに、 この図 54の RGB合成で は、 上記 (1) 式の重み係数を、 A r =Ag = Ab = 1として計算した。
以上詳述した本実施形態によれば、 カラー画像を検査する場合、 R、 G、 Bの 各縦加算画像における輝度値力 それぞれ背景に対して少しし力、変化していない 筋状欠陥でも、 確実に検出することができる。 又、 その際、 必要に応じて!^、 G、 Bの重み係数を調整することにより、 前述した如く特定の色に対する感度を調整 することもできるため、 対象に台わせてより高精度の検査を行うこともできる。 本実施形態によれば、 カラー画像として入力される検査画像を R、 G、 Bの各 フレームのモノク口画像として処理する際、 各モノク口画像では検出感度の低い 筋状欠陥をも高精度に検出することができる。
なお、 前記実施形態では、 合成するモノクロ画像が、 強調処理した縦加算画像 である場台を示したが、 これに限定されず、 実質的に同一の筋部分がある画像で あればよい。 PC 図 55は、 本発明に係る第 6実施形態のエツジ領域抽出装置の概略構成を示す ブロック図である。
本実施形態は、 人力画像がカラーの場合に適用されるものであり、 前記図 25 に示した 1つのエツジ領域抽出部 24及びェッジ領域記憶部 26が、入力画像記 憶部 20から入力される R、 G、 Bの各画像に対応する 24 A〜24 Cで示す 3 つのエツジ領域抽出部と、 各抽出画像を記憶する 25 A〜26 Cで示す 3つのェ ッジ領域記憶部に増設されていると共に、 該記憶部 26 A~26 Cから入力され る R、 G、 Bの各抽出画像を合成する RGB合成部 19を付設した以外は、 前記 第 1 ~4実施形態と実質的に同一である。
この実施形態によれば、 R、 G、 Bの各画像毎にエッジ抽出処理ができるため、 対象の人力画像が力ラーの場合でも、 迅速且つ正確に、 前記第 1〜 4実施形態の 場合と同様にエツジ領域の抽出を行うことができる。
図 56は、 本発明に係る第 7実施形態のエツジ領域抽出装置の概略構成を示す プロック図である。
本実施形態は、 上記第 6実施形態と同様にカラ一画像に適用されるものであり、 ここでは、 エッジ領域抽出部 24A~24C、 エッジ領域記憶部 26A〜26C と共に、 3〇A〜30C、 32A〜32C、 34A〜34C、 36A〜36Cの 符号でそれぞれ示したように、 ェッジ膨張部、 ェッジ膨張記憶部、 ェッジ収縮部、 出力画像記憶部の全てを R、 G、 Bの各画像に対応させて増設し、 最終的に得ら れる収縮画像を合成するための RGB合成部 19を付設した以外は、 前記第 6実 施形態と実質的に同一である。
本実施形態によれば、 各 R、 G、 Bの画像毎に全ての画像処理を行うことがで きるため、 前記第 6実施形態より更に高精度でェッジ領域を抽出することができ 。
以上説明した第 6、 第 7実施形態によれば、 例えば印刷絵柄を画像入力した検 査画像等の入力画像の中から、 画像信号の平坦部が所定の蝠以下の場合にのみ、 そのエツジが含まれないェッジ領域を抽出することができる。
なお、 前記実施形態では画素値を 256階調 (8ビット) で画像表示する装置 を用い、 前記 (3) 式の計算結果を階調値 128力《原点となるように、 前記 (5)
9 式により正規化する場台を示したが、 これに限られるものでなく、 例えば 1 6ビ ッ 卜で表示できる装置を用いる場合には、 (3 ) 式を単純に計算するだけで、 正 規化しなくともよい。
又、 前記第 2実施形態等では、 パラメ一夕として W= 3、 L 5の場合を示し たが、 これに限定される場台でなく、 対象とする画像毎に適切なパラメ一タを設 定することができる。
次に本発明に係る第 8実施形態の二値画像作成装置につ I、て説明する。
図 5 7は、 第 8実施形態の概略構成を示し、 実質上同一方向に連続する筋部分 の存在が予想される画像を、 R、 G、 又は Bの単色からなるモノクロ画像として 入力するための画像入力部 4 2と、 入力された画像を、 前記筋部分に直交する 1 ライン以上の幅からなる連続した部分画像に分割すると共に、 分割された各部分 画像毎に Pタイル法を適用して各画素を二値化する二値化部 4 4と、 画像を分割 する際に用いる部分画像のライン数や、 Pタイル法の閾値を決定するための画素 数 (面積比率) 等が格納されているパラメ一夕記憶部 4 6と、 上記二値化部 4 4 により二値化して作成された二 ί直画像を出力する画像出力部 4 8とを備えている。 本実施形態の作用を、 図 5 8を用いて説明する。
図 5 8 (Α) は、 前記画像入力部 4 2より入力された前記図 1 (Α) 等に示し たものと同様の入力画像であり、 この画像には 1 ~ 3画素程度の幅で、 縦方向に 実質上連続した筋部分 Lがノイズ (図示せず) と共に存在している。
本実施形態では、 まず、 前記二値化部 4 4において、 パラメ一夕記憶部 4 6か ら読み込まれた部分画像ライン数のパラメータを用いて、 上記入力画像を、 図 5 8 ( Β ) に示すように、 筋部分に直交する連続した矩形の部分画像 I 1、 1 2 · • ♦に分割する。 この部分画像の分割幅は、 1ライン (1画素幅) でも、 又は複 数ラインでもよい。
次いで、 部分画像毎に前述した Ρタイル法を適用してニ暄化する。 その際、 部 分画像内の筋部分の幅を考慮して、 その部分画像で ϋ Νにする画素数を、 例えば 1ラインについて 3画素のようにして面積比率 Ρを決定する。
全ての部分画像に対して、 同様に Ρタイル法を適用することにより、 図 5 8 ( C ) に示すように、 階調値の大きなノイズが存在する部分画像では筋部分の画 素が O Nにならないが、 このようなノィズの無い多くの部分画像では筋部分の画 素が 0 Nになるため、 画像全体として見ると筋部分 Lが抽出されていると共に、 ノィズ Nが全体に分散されている二 (直画像が得られる。
なお、 上記図 5 8 ( B ) に示した Pタイル法を適用する部分画像 I 1 、 1 2 · • ·の幅は、 1ラインはもとより、 複数ラインの場合は 1 0ライン未満の数ライ ンであっても当然良く、 更には画像全体を 2分割するライン数、 即ち全スキャン ラインの 1 2でも効果が期待できる。
本実施形態では、 部分画像を格子状に分割する従来の部分画像分割法の場合と 異なり、 予想される筋部分と直交する方向に連続した矩形の部分画像に分割して いる点に特徴があり、 このようにすることにより、 対象である筋部分を効果的に 二値化することができる。
以上詳述した如く、 本実施形態によれば、 部分画 ί象毎に Pタイル法を用いて動 的に闞 ί直を決定するようにしたので、 平坦な背景に実質上同一方向に連続した筋 部分が存在する画像から、 ノイズが存在する場合でも筋部分力《二値化された画像 を容易且つ確実に作成することができ、 対象物 (筋部分) と背景を高い精度で分 離することができる。 又、 部分画像が 1ライン又はそれに近い複数ラインという 小さい範囲にする場合には、 Ρタイル法の欠点である検出したい対象の面積変動 による誤差が少なくてすみ、 しかも処理時間が比較的短くてすむという利点があ る。
次に、 本発明に係る第 9実施形態の筋状欠陥検査装置について説明する。
本実施形態の筋状欠陥検査装置は、 輪転印刷時に発生する、 いわゆるドクター 筋を検出する際に、 前記第 8実施形態と実質的に同一の二値画像作成技術を利用 したものである。
本実施形態の検査装置は、 印刷物を画像入力した検査画像から、 印刷物上に発 生している筋状欠陥を検出するもので、 図 1 4に示した第 1実施形態と同様に、 印刷物から C C Dカメラ等により検査画像を光学的に入力する画像入力部 1 0と、 入力された検査画像から絵柄部分を除外処理する絵柄除外部 1 2と、 絵柄部分が 除外された除外処理後の画像に存在する筋部分を強調処理する筋強調処理部 1 4 と、 筋部分が強調された強調処理後の画像に基づいて筋状欠陥を判定する判定部 1 6と、 判定された筋状欠陥をモニタ上に表示する欠陥表示部 1 8とを備えてい る。
本実施形態でも、 第 1実施形態と同様に、 前記絵柄除外部 1 2は、 マスク画像 作成部 1 2 A、 エツジ画像作成部 1 2 B、 マスク済みェッジ画像合成部 1 2 Cを 含み、 前記筋強調処理部 1 4は縦加算部 1 4 Aを、 又、 前記判定部 1 6は、 二値 化部 1 6 A、 線認識部 1 6 Bをそれぞれ含んで構成されている。
又、 本実施形態では、 上記二値化部 1 6 A力 前記第 8実施形態の二値化装置 と同様の、 実質上同一方向に連続する筋部分の存在が予想される画像を入力する 手段と、 入力された画像を、 前記筋部分に直交する 1ライン以上の幅からなる連 続した部分画像に分割する手段と、 分割された各部分画像毎に Pタイル法を適用 して各画素をニ碴化する手段と、 を備えている。
本実施形態の作用は、 前記二値化部 1 6 Aで実行する二値化処理が、 前記第 8 実施形態と実質的に同一の前記図 5 8に示した手 j頃に従う Pタイル法により実行 される点を除き、 第 1実施形態と同様であるので、 詳細な説明は省略する。 本実施形態においては、 検査画像が絵柄を含む場合であっても、 コントラスト の高いエツジ部を処理対象から除外するためのマスク処理を行い、 更に縦方向に 加算処理を行うことでコントラストの低い筋部分を強調すると共に、 得られる強 調画像に対して更に本発明による Pタイル法を適用することにより、 筋部分を確 実に二値化し、 その二値画像に基づいて筋状欠陥を検出する。
従って、 本実施形態によれば、 検査画像が絵柄を含んでいる場合でも、 絵柄の ェッジ部を検出することなく、 該画像中からコントラストの低 、筋状欠陥の検出 が可能となる。 その結果、 従来の印刷物の検査では、 目視による^ ¾でしか検出 不可能であった、 コントラストが低く且つ微細な、 いわゆるドクター筋と呼ばれ る筋状欠陥をも自動的に検出することが可能となる。
なお、 前記実施形態では、 二値化の具体的な対象がドクター筋とされ、 しかも 入力画像を所定の処理した後の画像である場合を示した力 これに限定されず、 平坦な背景の中に同一方向に実質的に連続する筋状のものが存在する画像であれ ば、 特に制限されない。
次に、 本発明に係る第 1 0実施形態の画像入力装置について詳細に説明する。 図 5 9は、 第 1 0実施形態を構成する、 全体画像入力装置と部分画像入力装置 の概略を示したプロック図である。
本実施形態における部分画像入力装置 5 0は、 輪転印刷機の版胴 (図示せず) により印刷され、 矢印で示した流れ方向に連続的に送られる原反 Wから、 印刷さ れた絵柄の一部を画像人力する際に用いられ、 その部分画像を入力するに際し、 全体画像入力装置 7 0により別途入力される絵柄全体を含む全体画像を案内用の 基準画像として利用するようになっている。
便宜上、 最初に全体画像入力装置 7 0について説明する。 この全体画像入力装 置 7 0は、 原反 Wの流れ方向に沿った所定位置に設置され、 原反 W上の絵柄全体 を含む全体画像を入力 (撮影) できる全体入力カメラ (カメラユニット) 7 2、 該全体人力力メラ 7 2による画像入力を制御する力メラ制御部 7 4と、 該制御部 7 4を介して入力される全体画像を基準画像として保存する基準画像データメモ リ 7 6と、 該データメモリ 7 6から全体画像のデータ等を読み出し、 前記部分画 像入力装置 5 0に伝送するデータ通信部 7 8とを備えて L、る。
一方、 前記部分画像入力装置 5 0は、 前記データ通信部 7 8から伝送される全 体画像データ等のデータを受信するデータ通信部 5 2と、 該データ通信部 5 2か ら入力される各種データを用いて、 後述する制御演算を実行するための各手段を 含む制御部 54と、 該制御部 5 4における演算結果:こ基づいて、 画像処理や信号 伝達を行う処理部 5 6と、 該処理部 5 6を介して上記制御部 5 4から入力される 制御信号に基づいて原反 W上の絵柄の一部を画像入力する部分入力カメラ (カメ ラュニッ卜) 5 8と、 上記処理部 5 6における処理結果を表示する表示部 (ディ スプレイ) 6 0と、 上記部分入力カメラ 5 8を所定の撮影ポイントに対応する原 反 Wの幅方向位置に移動させるカメラ移動機構 6 2と、 上記処理部 5 6を介して 入力される制御信号に基づいて撮影に同期して発光される、 上記部分入力カメラ 5 8と一体的に移動する照明 (ストロボ) 64とを備えている。
又、 原反 Wの搬送に連動して回転するローラ 8 6力 <配設され、 該ローラ 8 6に は原反の移動量をパルス数に変換する口一タリエンコーダ 8 8が付設され、 該ェ ンコーダ 8 8からのパルス信号が全体画像入力装置 7 0のカメラ制御部 7 4、 及 び部分画像入力装置 5 0の制御部 54に、 それぞれ 力されるようになっている c 又、 前記全体画像入力装置 7 0の基準画像デー夕メモリ 7 6には、 全体画像デ —タと共に、 後述する演算に使用する、 全体入力カメラ 7 2と部分入力カメラ 5 8の離間距離 L、 使用する版胴の周長 T、 口一タリエンコーダ 88のパルス分解 能、 予め設定されている移動機構 6 2上の原点等の情報が格納されており、 これ ら情報が上記全体画像データと共に、 部分画像入力装置 5 0に伝送されるように なっている。
本実施形態において、 前記部分画像入力装置 5 0は、 走行する原反 Wに印刷さ れた絵柄を検査対象として、 移動機構 6 2により原反 Wの幅方向に移動可能な部 分入力力メラ 5 8により絵柄の一部を画像入力した検査画像に基づいて印刷状態 を検査する際に用いられる。
本実施形態では、 印刷を開始してその状態が安定し、 正常な印刷面が得られた 時点で、 前記部分入力カメラ 5 8から、 原反 Wの流れ方向に所定距離 Lだけ隔て て設置された前記全体入力カメラ 7 2により、 絵柄全体を含む全体画像を入力し、 前記基準画像デ一夕メモリ 7 6に保存する。 図 6 0には、 リニアガイドを備えた カメラ移動機構 (幅方向移動機構) 6 2に幅方向に移動可能に支持されている部 分入力カメラ 5 8と、 2台のカメラからなる全体入力カメラ 7 2、 原反 W、 該原 反 W上の三角形を含む絵柄全体との関係を模式的に示した。
次いで、 上記メモリ 7 6から、 デ一夕通信部 7 8、 5 2を介して前記全体画像 (基準画像) を、 他のデータと共に部分画像入力装置 5 0に伝送し、 前記制御部 5 4で、 以下に詳述する制御演算を実行するようになっている。
まず、 前記カメラ移動機構 6 2上に設定されている原点 (幅方向移動機構原点) 上に上記部分入力カメラ 5 8がある時に、 該カメラ 5 8から入力可能な部分画像 の全体画像上の位置と、 該全体画像上に予め設定してある幅方向基準点 Sとの関 係から、 該全体画像上の幅方向位置と前記移動機構 6 2上の幅方向位置を対応付 ける。
上記図 6 0には、 この対応付けが行われた状態が概念的に併記されており、前 言己移動機構 6 2上の原点にある部分入力カメラ 5 8から入力可能な部分画像の中 心が、 全体画像上の幅方向基準点 Sから幅方向オフセット A Sだけ離れた位置に 対応付けられている。 従って、 このオフセット (距離) 厶 Sを登録しておくこと により、 上記幅方向基準点 Sを全体画像上のカメラ原点として、 前記移動機構 6 2により部分入力カメラ 5 8を幅方向の正確な位置に移動させることが可能とな o
次いで、 前記全体入力カメラ 7 2と部分入力カメラ 5 8との間の流れ方向の離 間距離 L及び版胴周長 Tに基づ L、て、 全体画像上の流れ方向基準点に位置する部 分画像を、 該部分入力カメラ 5 8で入力可能な基準入力タイミングを算出する。 図 6 1には、 本実施形態において設定する上記基準入力タイミングの算出方法 を概念的に示した。 ここでは、 部分入力カメラ 5 8が全体入力カメラ 7 2より上 流側に配設されており、 図 6 1に示した全体入力カメラ 7 2の視野中心に実質上 位置する絵柄 (流れ方向基準点) と同一の絵柄を、 部分入力カメラ 5 8で正確に 部分入力するためには、 全体入力カメラ 7 2で入力するタイミングが前記ロー夕 リエンコーダ 8 8の位相 Zに対応しているとすると、 該位相 Zから基準オフセッ ト bに当る長さの原反を余分に送るに要する位相分だけ遅れた位相 Z ' のタイミ ング (基準入力タイミング) で画像入力すればよいことになる。
このように入力することにより、 上記両カメラ 5 8、 7 2間には離間距離しに 相当する長さの原反 Wが存在し、 その原反 W上には版胴周長 Tの整数 (N) 倍に 当る周期分の絵柄と、 Lを Tで割った余り : L mod Tの長さ分の絵柄が存在して いることになるため、 全体入力カメラ 7 2で上記位相 Zで入力したとすると、 入 力した流れ方向基準点の絵柄から、 整数 (N + 1 ) 倍の絵柄周期離れた同一の絵 柄を正確に入力することができる。
但し、 ここでは、 上記基準入力タイミングを、 前記ロータリエンコーダ 8 8か ら出力されるパルス数で設定するため、 次の (1 1 ) 式により、 基準オフセット b、 即ち (T— L mod T ) を基準オフセッ卜パルス Bに変換して設定する。
B = ( T - L mod T ) ÷ R … (1 1 )
ここで、 R:ロータリエンコーダのパルス解像度 (m m,パルス)
次いで、 全体画像上で、 部分入力カメラ 5 8により入力すべき撮影ポイントを、 幅方向と共に流れ方向に位置決めして設定する。 図 6 2は、 撮影ポイントを P 2 に設定する場合の例を概念的に示したもので、 図中 P 1 は、 全体画像上の前記幅 方向基準点を中心にして、 前記図 6 1に示した流れ方向基準点 Z ' に対応する前 記基準夕ィミングで、 部分入力カメラ 5 8により入力すること力 <可能な部分画像 を示している。
上記図 6 2の全体画像上で、 上記撮影ボイン卜 P 2 と前記幅方向基準点 Sとの 間の幅方向画素数△ X及び該撮影ボイント P 2 と前記流れ方向基準点 Z ' との間 の流れ方向画素数 Δ yをそれぞれ算出する。
算出された上記幅方向画素数 Δ χに、 全体画像の水平解像度 (幅方向解像度) を乗算して、 全休画像上の幅方向基準点 Sに対応付けられた前記移動機構 6 2上 の幅方向移動量を算出する。 即ち、 次の (1 2 ) 式により、 実際の幅方向の移動 量を算出する。
幅方向移動量 =画素数 Δ X X水平解像度 … (1 2)
又、 算出された上記流れ方向画素数 Δ γに、 全体画像の垂直角 像度 (流れ方向 解像度) を乗算して実際の距離 (原反 Wの長さ) を求め、 該距離に基づいて、 前 記基準オフセットパルス Βから実際に入力するまでの待ち時間を算出する。 但し、 ここでは、 待ち時間を、 前記ロータリエンコーダ 8 8からのパルス数で設定する ため、 次の (1 3 ) 式で算出される、 前記基準オフセッ トパルス Βからの流れ方 向シフトパルス数として設定する。
流れ方向シフトパルス数 =画素数 Δ y X垂直解像度 ÷ R … ( 1 3 ) 前記制御部 54で、 以上の計算が終了した後、 その計算結果が前記処理部 5 6、 移動機構 6 2に出力される。 出力された計算結果は、 相当するモータコント口一 ル信号の値に変更され、 上記移動機構 6 2により前記部分入力カメラ 5 8力 <、 前 記幅方向移動量に対応する目標位置まで移動される。
次いで、 前記部分入力カメラ 5 8により、 前記基準オフセッ トパルス Bから前 記シフトパルス数 (待ち時間) 力 <経過したタイミングで部分画像を入力する。 以上詳述した如く、 本実施形態においては、 前記図 6 2に示したように、 全体 画像上で、 撮影したい撮影ポイント P 2 を、 例えばその中心の座標値で指示 (設 定) するだけで、 部分入力カメラ 5 8が対応する適切な幅方向位置に移動し、 し かも、 適切なタイミングで画像入力することにより、 対応する部分画像を正確に 入力することができるため、 容易に希望する位置の絵柄部分を確実に撮影するこ とができる。 その際、 撮影ポイントの設定は、 手動で行うこともできるし、 又、 予め 1以上 のボイントを座標値を用いてメモリに登録しておき、 順次その座標値を読み出す ことにより自動設定することもできる。
図 6 3は、 本発明に係る第 1 1実施形態の部分画像入力装置の特徴を示したも のである。
本実 形態は、 部分入力力メラ 5 8を、 全体入力力メラ 3 2より下流側に配置 した場合にあたり、 ここでは前記第 1 0実施形態で前記 (1 1 ) 式で設定した基 準オフセッ 卜パルス Bを、 次の (1 4 ) 式で設定する以外は、 前記第 1 0実施形 態と実質的に同一である。
B = ( Lmod T) ÷ R … ( 1 4 )
次に、 本発明に係る第 1 2実施形態の画像入力装置について説明する。
図 64は、 第 1 2実施形態を構成する、 全体画像入力装置と部分画像入力装置 の概略を示したプロック図である。
本実施形態の部分画像入力装置 5 0は、 第 1 0実施形態と同じであるため、 説 明は省略する。
一方、 全体画像入力装置 7 0は、 第 1 0実施形態と同じ全体入力カメラ (カメ ラュニット) 7 2、 カメラ制御部 74、 基準画像データメモリ 7 6、 データ通信 部 7 8に加えて、 印刷初期に、 スイツチを図示した状態にして上記全体入力力メ ラ 7 2から基準画像を入力し、 その後該スィッチを ^換えて、 同カメラ 7 2から 最新の全体画像を基準入力指令入力部 8 0と、 入力された最新の全体画像を保存 する最新画像データメモリ 8 2と、 該メモリ 8 2からの最新画像と前記メモリ 7 6からの基準画像を比較して、 幅方向及び原反流れ方向の位置ずれを検出する位 置ずれ検出部 84と、 を備えている。
又、 前記基準画像データメモリ 7 6には、 全体画像からなる基準画像データと 共に、 後述する演算に使用する、 全体入力カメラ 7 2と部分入力カメラ 5 8の離 間距離 L、 版胴周長 T、 口—タリエンコーダ 8 8のパルス分解能、 移動機構 6 2 上のカメラ原点等が格納されており、 上記基準画像データおよび前記検出部 84 により適宜検出される位置ずれデータと共に、 データ通信部 7 8を介して部分画 像入力装置 5 0に伝送されるようになっている。 本実施形態では、 第 10実施形態で、 時々刻々変化する全体画像に対して行つ た各種処理を、 印刷初期に入力し、 前記基準画像データメモリ 36に保存した基 準画像に対して行う。
更に、 本実施形態においては、 前記基準画像を用いて目標とする撮影ポイント を設定し、 第 10実施形態と同様に部分入力カメラ 58による画像入力を行うと 共に、 適宜全体入力カメラ 72により最新の全体画像 (最新画像) を入力し、 そ れを最新画像デ—タメモリ 82に保存すると共に、 前記位置ずれ検出部 84にお いて、 該メモリ 82から読み出した最新画像を、 前記基準画像データメモリ 76 力、ら読み出した前記基準画像とを比較し、 位置ずれが発生しているか否かを検出 し、 発生している場合には以下のように捕正する。
いま、 入力された最新画像と、 撮影ポイントの設定に使用した基準画像の位置 関係を、 絵柄の三角形の一部を拡大して図 65に示したように、 実線の最新画像 が二点鎖線の基準画像に比べ、 幅方向に (5 x、 原反流れ方向に 5 yそれぞれ位置 ずれていたとする。 この位置ずれ量は、 例えば特開平 7— 249122号に開示 されている方法で求めることができる。
この場合には、 前記図 64に示した基準画像に対して設定した撮影ボイント P 2 を入力する際に用いた、 前記 (12) 式の幅方向移動量と、 (13) 式の流れ 方向シフトパルス数を、 それぞれ次の (12' ) 式、 (13' ) 式により設定す 。
幅方向移動量 = (画素数 Δχ— <5 x) X7k平解像度 … (12' ) 流れ方向シフトパルス数 = (画素数 Ay— <5 y) X垂直解像度 (13' ) 従って、 本実施形態によれば、 最新画像が基準画像に対して位置ずれを発生し た場合でも、 最初に設定した目標の撮影ボイン卜の部分画像を正確に入力するこ とができる。
次に、 本発明に係る第 13実施形態の部分画像入力装置について説明する。 本実施形態は、 第 11実施形態と同様に、 部分入力カメラ 58を、 全体入力力 メラ 72より下流側に配置した場合にあたり、 ここでは前記第 12実施形態で前 記 (11) 式で設定した基準オフセッ卜パルス Bを、 前記 (14) 式で設定する 以外は、 前記第 12実施形態と実質的に同一である。 なお、 前記第 1 0〜第 1 3実施形態では、 絵柄全体を入力する全体入力カメラ として、 2台のカメラからなるものを示した力く、 1台であっても、 又は 3台以上 からなるものであってもよい。
又、 撮影ポイントの設定は、 前記第 1 2、 第 1 3実施形態に示したように、 全 体画像上の幅方向と流れ方向の両方向について行う場合に限らず、 幅方向のみに 行ってもよい。 この場合、 流れ方向に連続して発生している印刷欠陥であれば確 実に検出することができる。
以上説明した第 1 0〜第 1 3実施形態によれば、 印刷された絵柄上で部分入力 したい撮影ポィン卜が多数ある場合でも、 容易にそのポィン卜の絵柄部分を画像 入力することができる。 特に、 第 1 2、 第 1 3実施形態によれば、 経時的に絵柄 に原反の幅方向や流れ方向に位置ずれが発生した場合でも撮影ポィン卜の部分画 像を正確に入力できる。
次に、 本発明に係る第 1 4実施形態の無地領域選択装置について詳細に説明す 。
図 6 6は第 1 4実施形態の概略構成を示すプロック図である。
本実施形態の無地領域選択装置は、 走行する原反に印剐された絵柄 (印刷物) を検査対象として、 図示しない検査装置が有する原反の幅方向に移動可能な部分 入力カメラにより、 絵柄全体の中から無地領域を画像入力して印刷状態を検査す るために該無地領域を選択する際に適用するものである。
この無地領域選択装置は、 印刷された絵柄全体が含まれて 、る全体画像を入力 する全体画像入力部 9 0と、 入力した全体画像のデータを保存する全体画像記憶 部 9 2と、 該記憶部 9 2から読み出した全体画像から、 後に詳述する方法に従つ て検査画像に相当する大きさを単位として部分画像を切り出す部分画像切出し部 9 4と、 該切出し部 94での処理に使用する部分画像の大きさや、 後に説明する 判定部 1 0 2で検査ポィントとして選択する部分画 1象の数等のパラメ一夕を格納 しておくパラメータ記憶部 9 6と、 上記切出し部 9 4により切出された各部分画 像について、 輝度の平坦性を表わす評価値を計算する評価値計算部 9 8と、 該計 算部 9 8で計算された各部分画像の評価値を記憶する評価値記憶部 1 0 0と、 該 記憶部 1 0 0から読み出された上記評価値に基づいて各部分画像の中から輝度の 平坦性の高いものを画像上の無地領域として選択し、 前記パラメ一タ記憶部 9 6 から入力された数だけ画像上の検査ポィントとして判定する判定部 1 0 2と、 検 查ポイントとして判定された部分画像の位置 (アドレス) 情報を、 図示しない検 査装置に出力する出力部 1 0 4とを備えている。
上記出力部 1 0 4から、 判定部 1 0 2で判定された検査ボイン卜に関する位置 情報が検査装置に入力されると、 該検査装置ではその検査ポィン卜に対応する印 刷物上の検査ボイントに前記部分入力力メラ (図示せず) を移動させ、 該カメラ により同検査ポィン卜から検査画像を入力する。
本実施形態の無地領域選択装置について詳述すると、 前記全体画像入力部 9 0 は、 印刷ラインに設置された C C Dカメラ等の撮像装置であっても、 予め正常な 印刷物を画像入力して保存してあるデータベース等の記憶装置であつてもよい。 前記部分画像切出し部 9 4では、 図 6 7に概^;的に示したように、 全体画像入 力部 9 0により入力された全体画像から、 実際に検査する印刷物上の範囲に相当 する大きさを単位とする部分画像を抜き出す (切り出す) 処理を行う。 この部分 画像の大きさは、 前述した如く、 別途設定してあるパラメ一夕として上記パラメ 一夕記憶部 9 6から入力される。
具体的な切出し方法としては、 例えば、 図 6 8に概念的に示したように、 全体 画像の左側上端の部分画像 P G 1 から、 全体を右方向に 1画素分ずらした部分画 像 P G2 のように、 順次 1画素分ずつ横方向にずらしながら、 矢印で示した方向 に移動して切出していき、 最終的に右側下端の最終部分画像 P Gn まで切出す。 その際、 横方向の全幅について 1段目の切出しが終了し、 次の段の切出し位置に 移る際の縦方向の移動量は、 縱方向に隙間が生じない画素数であれば任意である。 上記部分画像切出し部 9 4により、 例えば上記図 6 8に示した方法で切出した、 全体画像に含まれる全ての部分画像について、 評価値算出部 9 8により輝度の平 坦性を表わす評価値を計算する。
この算出部 9 8では、 評価 (直として、 以下に説明する (1 ) 部分画像に含まれ る全画素に関する輝度分布 (ヒストグラム) の最大度数、 (2 ) 同輝度分布の分 散、 ( 3 ) 同輝度分布を高輝度側又は低輝度側に偏つた所定の割合に分割する輝 度値 (以下、 偏分割輝度値ともいう) のうち、 いずれか 1つ力; '採用されるように なっている。
上記 (1 ) 輝度分布の最大度数は、 図 6 9 (A) に概念的に示した 1つの部分 画像に含まれる全画素に関する輝度分布を図 6 9 ( B ) に示したように、 該部分 画像中で同一の輝度値 (階調値) を有する画素の数 (度数) に関するヒストグラ ムの中での最大値である。
本実施形態では、 全体画像内の全ての部分画像について、 上記最大度数を計算 し、 それぞれ評価値記憶部 1 0 0に記憶しておくと共に、 前記判定部 1 0 2では、 最大度数が大きいほど印刷物上では濃淡が少ない (濃^が小さい) ベタ部、 即 ち無地領域に近いと判断する。 なお、 このように最大度数を採用する場合には、 全体画像に混入するノィズの影響を考慮して、 上記最大度数の画素値を中心とし て前後の任意幅に含まれる各画素値に関するそれぞれの度数を合計した値を評価 値としてもよい。
評価値として、 このような最大度数を用いる場合は、 次に説明する分散を用い る場合に比較して、 計算処理が速く、 しかも無地部分がほとんど無い場合や、 輝 度分布にピークが複数ある場合でも、 より無地に近い領域を選ぶことができると いう利点がある。
前記 (2 ) の輝度分布の分散は、 次の (1 5 ) 式により算出される。
N
σ = ( 1 /Ν2 ) ∑ ( a i - a ) 2 … ( 1 5 )
i。l
但し、 N:部分画像中の画素数
a i : i番面の画素値
1:部分画像の平均画素値
評価値として上記分散ひを採用する場合も、 全体画像から切出した全ての部分 画像についてこの値を求めると共に、 同様に記憶部 2 0に記憶する。 そして、 前 記判定部 2 2では、 分散が小さいほどその部分画像に該当する印刷物上ではべ夕 部に近いと判定する。
評価値として上記分散 σを採用する場合も、 全体画像から切出した全ての部分 画像についてこの値を求めると共に、 同様に記憶部 1 0◦に記憶する。 そして、
5 前記判定部 1 0 2では、 分散が小さいほどその部分画像に該当する印刷物上では ベタ部に近いと判定する。
又、 前記 (3 ) の偏分割輝度値は、 図 7 0に i番目の部分画像について輝度分 布が高輝度側に偏っている場合の例を概念的に示したように、 全分布 (総度数- 全画素数) を、 高輝度側に 8 0 %、 低輝度側に 2 0 %となるように分割できる輝 度値 (画素値) P i として求められる。
この偏分割画素値は、 全ての部分画像について計算し、 同様に記憶部 1 0 0に 言己憶し、 判定部 1 0 2による判定に使用する。 この偏分割画素値 P i は、 大きい ほど明るい領域と判断できる。 又、 この偏分割画素値 P i は、 その値が大きいほ どべ夕部となる可能性も高くなるという特徴を有している。
又、 この 分割画素値 P i は、 輝度分布を分割する比を変えることにより、 平 坦性の評価を変更できると共に、 偏分割の方向をも、 例えば上記の 2 0 % : 8 0 %を 8 0 % : 2 0 %に変えることにより、 暗い部分についても同様の方法でベタ 部を選択することができる。
又、 前記判定部 1 0 2では、 前記記憶部 1 0◦に記憶してある全ての部分画像 についての評価値を読み出し、 その評価値を基に、 前記パラメータ記憶部 9 6か ら入力された、 予め設定されている数だけ検査ポイントを選択する。 その際、 評 価値のみからベタ部に近いと思われる順に複数の検査ポィン卜を選択すると、 あ る狭い範囲に検査ポイントが集中してしまう可能性がある。 そこで、 これを防ぐ ために、 各部分画像の位置情報をも用いて、 同程度の評価値を有し、 且つ画像上 の領域力 <重なっている場合には、 一方を除外して fi ^ボイントを選択するように してもよい。
又、 前記出力部 1 0 4では、 前述した如く、 判定部 1◦ 2で選択された画像上 の検査ボイン卜の位置情報を、 図示しない検査装置へ出力する。
本実施形態では、 図 7 1に示したフローチャートに従って、 無地領域の選択を 行う。
まず、 前記全体画像入力部 9 0により、 正常な印刷状態にある印刷物上の絵柄 全体が含まれている全体画像を取得 (入力) し、 全体画像記憶部 9 2に保存する (ステップ S 1 )。 この全休画像の取得は、 印刷開始後に印刷が安定した段階で直接全体入力力メ ラ (図示せず) により入力しても、 又は、 既に同一の絵柄について全体画像のデ —夕が保存されていれば、 データベース等から人力してもよい。
次いで、 部分画像切出し部 9 4において、 上記記億部 9 2から読み出した全体 画像から、 前記図 6 8に示したようにして、 部分画像の切出しを行う (ステップ S 2 ) o
次いで、 切出された最初の部分画像について評価値の算出を行い (ステップ S 3 ) 、 同様の計算を全ての部分画像について順次実行する (ステップ S 4 ) 。 次いで、 前記判定部 1 0 2において、 全ての部分画像についての評価値を用い て、 平坦性の高いものから所定の数を画像上の検査ポイントと判定 (選択) し、 各検査ボイン卜の位置情報を検査装置に出力する。
画像上の各検査ボイン卜の位置情報が検査装置に入力されると、 該検査装置で はその位置情報に基づいて、 対応する印刷物上の検査ボイントに当る幅方向位置 に部分入力カメラを移動させ、 該検査ボイントの流れ方向位置に対応するタイミ ングで画像入力して検査画像とする。
その結果、 検査画像として無地又は無地に近いべ夕部分を絵柄全体の中から検 査ポィントとして選んで画像入力することができるため、 ドク夕一筋等の微細な 印刷欠陥をも確実に検出することができる。
図 7 2は、 本発明に係る第 1 5実施形態の無地領域選択装置の概略構成を示す プロック図である。
本実施形態の無地領域選択装置は、 図中符号 9 8 - 1 ~ 9 8— nと 1 0 0— 1 〜 1 0 0— nを付して示したように、 評価値算出部 9 8と評価値記憶部 1 0 0を、 それぞれ n個 (複数) 備えており、 n種類の評価値をそれぞれ独立に計算し、 記 憶できるようになつていると共に、 判定部 1 0 2では、 各評価値毎に予め設定し てある所定数の検査ポィントを判定し、 出力部 1 0 4では各評価値毎に検査ボイ ントにつ 、ての位置情報を順次出力する並列処理が実行されるようになっている。 本実施形態においては、 上記のような並列処理を行う場合、 便宜上評価値が 2 種類であり、 且つ全体画像を所定の幅寸法で縦方向に複数分割した検査領域毎に、 各評価値について 1箇所ずつ、 即ち各検査領域毎に計 2箇所の検査ポィントを設 定する場合として説明すると、 判定部 1 0 2では、 評価値毎に決定された所定 数の画像上の検査ボイン卜に関する位置情報を、 該所定数を単位として交互に出 力する。
従って、 出力部 1 04から検査装置に評価値毎の検査ボイントに関する位置情 報が入力されると、 該検査装置では、 1つ目の評価値により 5個の検査ポイント が決定される場合を、 絵柄全体を含む印刷物との関係を図 7 3 (A) に概念的に 示したように、 図中 5個の四角形で示した印刷物上の検査ボイントを検査画像と して入力することができる。
又、 その後、 同様に 2つ目の評価値に基づいて決定された検査ポイントに関す る位置情報が入力されると、 図 7 3 ( B ) に示したように、 1つ目の評価値の場 合とは絵柄の傾向が異なる印刷物上の検査ボイン卜を画像入力することができる。 本実施形態では、 上述した 1つ目の評価値 (例えば、 前記 (1 ) の最大度数) に基づく検査と、 2つ目の評価値 (例えば、 前記 (3) の偏分割画素値) に基づ く検査とを、 交互に行うことができる。 従って、 図 74に示したように、 絵柄全 体のうち、 幅 Wの領域内で検査ポイントを決める場合であれば、 1つ目の評価値 で①の位置が検査ボイントとして選択されたとすると、 この^ Sボイント①で検 査を行う限り、 この位置に該ポイント①における絵柄の色と同一の色(又は、 各 色の印刷順によつて検査ボイント①上では見えない色) でドクター筋等が発生し たとしても、 その欠陥を検出することができない。
ところ力 <、 本実施形態では、 図 7 5に示したように、 上記検査ポイント①の選 択に使用した 1つ目の評価値とは異なる評価値、 特に領域内の明るさをも考慮す るような 2つ目の評価値 (前記偏分割画素値) により、 別の ポイント②を選 択し、 該ポイント②でも検査を行うことができる。 ^の結果、 例えば、 検査ボイ ント①が青で、 縦方向に連続して発生しているドク夕一筋も青又はそれに近い色 の場合には、 該検査ボイント①を画像入力して検査してもドクター筋は検出でき ない力、 検査ポイント②が略白地で選択されいると、 上記青色のドク夕一筋をも 確実に検出することができる。 従って、 このように画像データとしての特徴が異 なる 2つの平坦性の評価碴を併用することにより、 検査の信頼性を一段と向上す ることができる。 なお、 以上の説明では、 検査ポイントが各領域毎に 2箇所としたが、 3種類以 上の評肺値を使用し、 それぞれから求まる 3箇所以上の検査ボイントを選択する ようにしてもよい。
又、 本実施形態では、 前記判定部 1 0 2において、 複数種類の評価値のそれぞ れに基づいて別々に検査ボイントを選択する場合について説明した力 複数の評 価値の計算結果を総合判定して、 縦方向の各検査領 毎にそれぞれ 1つの最適な 検査ボイントを選択するようにしてもよい。
即ち、 評価値が 2つである前記図 7 3の場合の例であれば、 同一の検査領域に ついて、 図 7 3 (A) と (B ) のように、 2箇所の検査ポイントを交互に検査す るのではなく、 図 7 3 (A) と (B ) の中から最適な方を選択し、 同一の検査領 域については 1箇所の検査ボイントを選択するようにしてもよい。
図 7 6は、 本発明に係る第 1 6実施形態の無地領域選択装置の概略構成を示す ブロック図である。
本実施形態の無地領域選択装置は、 図中符号 1 0 2— 1 ~ 1 0 2— nを付して 示したように、 前記第 1 5実施形態の場合の評価値算出部 9 8、 評価値記憶部 1 0 0に加えて、 判定部 1 0 2をも n個 (複数) 備え、 し力、も、 各評価値について 評価値算出部 9 8から判定部 1 0 2までを単位として直列接続され、 最終的な判 定結果が出力部 1 04から出力されるようになっている以外は、 前記第 1 4実施 形態と実質的に同一である。
本実施形態では、 1つ目の評価値から n個目の評価値まで全てについて判定ま での処理が実行できるため、 1つ目の評価値からそれぞれ判定することにより次 第に検査ポィントの候捕を絞り込んでいくことができる。
従って、 例えば計算処理力 <速い評価値程早目に計算できるようにすることによ り、 適切な検査ボイントを迅速に選択することができる。
なお、 前記実施形態では、 具体的な評価値として 3種類を示したが、 これらに 限定されず、 輝度値の平坦性を評価することができるものであれば特に制限され ることなく用いることができる。
以上説明した第 1 4〜第 1 6実施形態によれば、 入力した検査画像に含まれる 絵柄部分が、 微細な欠陥の誤検出の原因とならないように、 印刷物上の絵柄全体
5 の中から、 濃度差の小さい部分を検査画像として入力することができる。
以上、 本発明について具体的に説明した力 本発明は、 前記実施形態に示した ものに限られるものでなく、 その要旨を逸脱しない範囲で種々変更可能である。 例えば、 前記実施形態では、 縦方向の筋状欠陥を検出する場合について説明し ナ:が、 縱方向のみに限定されるものではなく、 例えば水平方向であっても、 更に は計算処理が難しくなるが斜方向等任意の方向であつてもよい。 産業上の利用可能性
本発明によれば、 印刷物を検査する際に、 絵柄を含んでいる検査画像からコン 卜ラス卜が低 、上に微細な筋状欠陥をも確実に検出することができる。

Claims

請 求 の 範 囲
1 . 印刷物を画像入力した検査画像から、 印刷物上に発生している筋状欠陥を検 出する印刷物の筋状欠陥検査方法であつて、
検査画像から絵柄部分を除外処理する絵柄除外ステップと、
該除外処理後の画像に存在する筋部分を強調処理する筋強調ステップと、 該強調処理後の画像に基づいて筋状欠陥を判定する判定ステツプと、 を有することを特徴とする印刷物の筋状欠陥検査方, 。
2. 請求項 1において、 前記絵柄除外ステツプが、
検査画像から抽出される絵抦部分のエツジをマスクするためのマスク部分を有 するマスク画像を作成するステップと、
検査画像から抽出される任意のエツジを含むェッジ画像を作成するステップと、 作成されたエッジ画像とマスク画像を合成するステップと、
を含むことを特徴とする印刷物の筋状欠陥^ S方法。
3. 請求項 2において、
前記マスク画像を作成するステツプでは、 前記マスク部分を^ i画像から抽出 されるエツジ領域で作成するとともに、
該ェッジ領域を抽出する際に、 パラメータとして、 少なくとも画素値を比較す る位置を規定するための画素数 Lと、 エツジがエツジ領域に含まれないようにす る平坦部の最大幅を規定するためのエツジ間画素数 Wとを設定するステップと、 注目画素を中心としてそれぞれ反対方向に L画素離れた位置の画素値を比較し、 その差が、 所定の閾値を超えている場合の該注目画素をエツジ領域として抽出す るステップと、
前記エツジ間画素数 Wの幅の平坦部について抽出された一対のエツジ領域の幅 を、 それぞれ画素単位で膨張させた場台に、 該両エッジ領域が繫ることのない膨 張画素数 Nを計算するステップと、
膨張後のェッジ領域を収縮させる収縮画素数 Pを計算するステップと、 入力画像から抽出された全てのエツジ領域の幅を、 その両側で N画素ずつ膨張 させるステップと、 膨張させたエツジ領域の幅を、 その両側で P画素ずつ収縮させるステップと、 を含むことを特徴とする印刷物の筋状欠陥検査方法。
4. 請求項 3において、 前記収縮画素数 Pを、 前記膨張画素数 Nと等しくするこ とを特徴とする印刷物の筋状欠陥検査方法。
5. 請求項 3において、 前記収縮画素数 Pを、 前記膨張画素数 Nと (W+ 1 ) / 2の和にすることを特徴とする印刷物の筋状欠陥検査方法。
6. 請求項 3において、 前記収縮画素数 Pを、 前記膨張画素数 Nと (L一 1 ) の 和にすることを特徴とする印刷物の筋状欠陥検査方法。
7. 請求項 1において、 前記筋強調ステップが、 絵柄部分が除外された前記除外 処理後の画像について、 注目画素の画素値を該注目画素を含み、 且つ、 同一方向 に並ぶ所定数の画素の各画素値を加算した値に置き換える処理であることを特徴 とする印刷物の筋状欠陥検査方法。
8. 請求項 1において、 前記判定ステップが、 筋部分が強調された前記強調処理 後の画像において、 画素値の絶対値が所定値以上の画素が、 実質的に同一の方向 に所定数以上存在するか否かを判定する処理であることを特徴とする印刷物の筋 状欠陥検査方法。
9. 印刷物を画像入力した検査画像から、 印刷物上に発生している筋状欠陥を検 出する印刷物の筋状欠陥検査装置であつて、
検査画像から絵柄部分を除外処理する絵柄除外手段 (1 2 ) と
該除外処理後の画像に存在する筋部分を強調処理する筋強調手段 (1 4 ) と、 該強調処理後の画像に基づいて筋状欠陥を判定する判定手段 ( 1 6 ) と、 を備えていることを特徴とする印刷物の筋状欠陥検査装置。
1 0. 請求項 9において、 前記絵柄除外手段 (1 2 ) が、
検査画像から抽出される絵柄部分のエッジをマスクするためのマスク部分を有 するマスク画像を作成する手段 (1 2 A) と、
検査画像から抽出される任意のエツジを含むエツジ画像を作成する手段 ( 1 2 B ) と、
作成されたエッジ画像とマスク画像を合成する手段 ( 1 2 C ) と、
を含むことを特徴とする印刷物の筋状欠陥検査装置。
1 1. 請求項 1 0において、
前記マスク画像を作成する手段が、 前記マスク部分を検査画像から抽出される ェッジ領域で作成する機能を有して 、るとともに、
該エッジ領域を抽出するために、 パラメータとして、 少なくとも画素値を比較 する位置を規定するための画素数しと、 エツジがェッジ領域に含まれないように する平坦部の最大幅を規定するためのエツジ間画素数 Wとを設定する手段 ( 2 2 ) と、
注目画素を中心としてそれぞれ反対方向に L画素離れた位置の画素値を比較し、 その差が、 所定の閾値を超えている場合の該注目画素をエツジ領域として抽出す る手段 ( 24 ) と、
前記ェッジ間画素数 Wの幅の平坦部について抽出された一対のェッジ領域の幅 を、 それぞれ画素単位で膨張させた場合に、 該両エッジ領域が繫ることのない膨 張画素数 Nを計算すると共に、 膨張後のエツジ領域を収縮させる収縮画素数 Pを 計算する手段 ( 2 8) と、
入力画像から抽出された全てのエツジ領域の幅を、 その両側で N画素ずつ膨張 させる手段 ( 3 0 ) と、
膨張させたエッジ領域の幅を、 その両側で P画素ずつ収縮させる手段 (34 ) と、
を備えていることを特徴とする印刷物の筋状欠陥検査装置。
1 2. 請求項 9において、 前記筋強調手段 (1 4 ) が、 絵柄部分が除外された前 記除外処理後の画像について、 注目画素の画素値を、 該注目画素を含み、 且つ、 同一方向に並ぶ所定数の画素の各画素値を加算した値に置き換える処理機能を有 していることを特徴とする印刷物の筋状欠陥検査装置。
1 3. 請求項 9において、 前記判定手段 (1 6 ) が、 筋部分が強調された前記強 調処理後の画像において、 所定画素値以上の画素が、 実質的に同一の方向に所定 数以上存在する力、否かを判定する処理機能を有していることを特徴とする印刷物 の筋状欠陥検査装置。
1 4. 印刷物をカラーで画像入力した検査画像から、 印刷物上に発生している筋 状欠陥を検出する印刷物の筋状欠陥検査方法であつて、 入力した検査画像を、 R、 G、 Bの各フレームのモノクロ画像に分離するステ ップと、
各モノクロ画像に対して、 それぞれ所定の画像処理を行うステップと、 画像処理後の各モノク口画像を合成して合成画像を作成するステツプと、 該合成画像に基づ L、て筋状欠陥の有無を判定するステツプと、
を有することを特徴とする印刷物の筋状欠陥検査方法。
1 . 請求項 14において、 前記所定の画像処理を行ぅステツプが、
検査画像から絵抦部分を除外処理する絵柄除外ステップと、
該除外処理後の画像に存在する筋部分を強調処理する筋強調ステップと、 を含むことを特徴とする印刷物の筋状欠陥検査方法。
16. 請求項 15において、 前記絵柄除外ステップが、
検査画像から抽出される絵柄部分のェッジをマスクするためのマスク部分を有 するマスク画像を作成するステップと、
検査画像から抽出される任意のエツジを含むエツジ画像を作成するステップと、 作成されたエツジ画像とマスク画像を合成するステップと、
を含むことを特徴とする印刷物の筋状欠陥検査方法。
17. 請求項 14において、 前記合成画像を作成するステツプで各モノク口画像 を合成する際、 R、 G、 Bの各画像における同一座標位置 (n, m) の画素の階 調値を、 R (n, m)、 G (n, m)、 B (n, m) とした場合、 合成画像の階 調値 RGB (n, m) を、 RGB (n, m) =A r xR (n, m) + A g x G (n, m)
+ Ab x B (n, m)
(A r : Rの重み係数、 Ag: Gの重み係数、 Ab: Bの重み係数) により算出することを特徴とする印刷物の筋状欠陥検査方法。
18. 印刷物を力ラ一で画像入力した検査画像から、 印刷物上に発生して 、る筋 状欠陥を検出する印刷物の筋状欠陥検査装置であつて、
入力した検査画像を、 R、 G、 Bの各フレームのモノクロ画像に分離する手段 と、
各モノクロ画像に対して、 それぞれ所定の画像処理を行う手段と、 画像処理後の各モノクロ画像を合成して合成画像を作成する手段 (19) と、 該合成画像に基づいて筋状欠陥の有無を判定する手段 (16) と、
を備えていることを特徴とする印刷物の筋状欠陥検査装置。
19. 請求項 18において、 前記所定の画像処理を行う手段が、
検査画像から絵柄部分を除外処理する絵柄除外手段 (12) と、
該除外処理後の画像に存在する筋部分を強調処理する筋強調手段 (14) と、 を含むことを特徴とする印刷物の筋状欠陥検査装置。
20. 請求項 19において、 前記絵柄除外手段 (12) が、
検査画像から抽出される絵柄部分のェッジをマスクするためのマスク部分を有 するマスク画像を作成する手段 (12A) と、
検査画像から抽出される任意のエッジを含むエッジ画像を作成する手段 (12 B) と、
作成されたエッジ画像とマスク画像を合成する手段 (12C) と、
を含むことを特徴とする印刷物の筋状欠陥検査装置。
21. 請求項 18において、 前記合成画像を作成する手段 (19) により各モノ クロ画像を合成する際、 R、 G、 Bの各画像における同一座標位置 (n, rn) の 画素の階調値を、 R (n, m) 、 G (n, m) 、 B (n, m) とした場合、 合成 画像の階調暄 RGB (n, m) を、
RGB (n, m) =A r XR (n, m) +A g x G (n, m)
+ A b x B (n, m)
(A r : Rの重み係数、 Ag: Gの重み係数、 Ab: Bの重み係数) により算出することを特徴とする印刷物の筋状欠陥検査装置。
22. 請求項 1において、
実質上同一方向に連続する筋部分 (L) の存在が予想される前記強調処理後の 画像を入力するステップと、
入力された画像を、 前記筋部分 (L) に直交する 1ライン以上の幅からなる連 続した部分画像 (I 1、 I 2〜) に分割するステップと、
分割された各部分画像毎に Pタイル法を適用して各画素を二値化するステツプ と、 二値化された画像に基づいて筋状欠陥を判定する判定ステップと、
を有することを特徴とする印刷物の筋伏欠陥検査方法。
2 3. 請求項 2 2において、 前記絵柄除外ステツプが、
検査画像から抽出される絵柄部分のェッジをマスクするためのマスク部分を有 するマスク画像を作成するステップと、
検査画像から抽出される任意のエツジを含むエツジ画像を作成するステップと、 作成されたエッジ画像とマスク画像を合成するステップと、
を含むことを特徴とする印刷物の筋状欠陥検査方法。
24. 請求項 9において、
実質上同一方向に連続する筋部分 (L ) の存在が予想される前記強調処理後の 画像を入力する手段 (4 2 ) と、
入力された画像を、 前記筋部分 (L ) に直交する 1ライン以上の幅からなる連 続した部分画像 (I I 、 1 2 · ♦ · ) に分割する手段 (4 4 ) と、
分割された各部分画像毎に Pタイル法を適用して各画素を二値化する手段 (4 4 ) と、
二値化された画像に基づいて筋状欠陥を判定する判定手段と、
を備えていることを特徴とする印刷物の筋状欠陥検査装置。
2 5. 入力画像の水平方向及び垂直方向の少なくとも一方について、 画素値が急 激に変化するエツジに基づいてエツジ領域を抽出するエツジ領域抽出方法におい て、
画素値の変化が無いか又は小さ 、平坦部の幅が所定値以下の場合には、 該平坦 部の両端に位置するエツジが、 エツジ領域に含まれないようにし、
それ以外の場合は、 ェッジがェッジ領域に含まれるようにすることを特徴とす る筋状欠陥検査用のエツジ領域抽出方法。
2 6. 入力画像の水平方向及び垂直方向の少なくとも一方について、 画素値が急 激に変化するエツジに基づいてエツジ領域を抽出するエツジ領域抽出装置におい て、
対象物に関する画像を入力する手段と、
入力画像からエッジ領域を抽出する際に、 パラメータとして、 少なくとも画素 値を比較する位置を規定するための画素数 Lと、 ェッジがェッジ領域に含まれな いようにする平坦部の最大幅を規定するためのエツジ間画素数 Wとを設定する手 段 (22) と、
注目画素を中心としてそれぞれ反対方向に L画素離れた位置の画素値を比較し、 その差が、 所定の閾値を超えている場台の該注目画素をエツジ領域として抽出す る手段 (24) と、
前記ェッジ間画素数 Wの幅の苹坦部について抽出された一対のエツジ領域の幅 を、 それぞれ画素単位で膨張させた場合に、 該両エッジ領域が繫ることのない膨 張画素数 Nを計算すると共に、 膨張後のエツジ領域を収縮させる収縮画素数 Pを 計算する手段 (28) と、
入力画像から抽出された全てのエツジ領域の幅を、 その両側で N画素ずつ膨張 させる手段 (30) と、
膨張させたエッジ領域の幅を、 その両側で P画素ずつ収縮させる手段 (34) と、
を備えたことを特徴とする筋状欠陥検査用のエツジ領域抽出装置。
27. 請求項 26において、
入力画像がカラ一画像である場台、 エッジ領域を抽出する手段 (24A、 24 B、 24 C) が R、 G、 Bの各画像毎に設けられ、 且つ、
R、 G、 Bの各画像毎に抽出されたエッジ領域を合成する手段 (19) が設け られていることを特徴とする筋状欠陥検査用のェッジ領域抽出装置。
28. 請求項 26において、
入力画像がカラー画像である場合、 エッジ領域を抽出する手段 (24A、 24 B、 24 C) 、 エッジ領域の幅を膨張させる手段 (30A、 30B、 30C) 、 及び、 膨張させたエッジ領域を収縮させる手段 (34 A、 34 B、 34C) が、 それぞれ R、 G、 Bの各画像毎に設けられ、 且つ、
R、 G、 Bの各画像毎に収縮されたエッジ領域を 成する手段 (19) が設け られていることを特徴とする筋状欠陥検査用のエツジ領域抽出装置。
29. 実質上同一方向に連続する筋部分 (L) の存在が予想される画像を入力す るステップと、 入力された画像を、 前記筋部分 (L) に直交する 1ライン以上の幅からなる連 铙した部分画像 (Π 、 12 ♦ ♦ ♦ ) に分割するステップと、
分割された各部分画像毎に Pタイル法を適用して各画素を二値化するステツプ と、
を有することを特徴とする筋状欠陥検査用の二値画像作成方法。
30. 実質上同一方向に連続する筋部分 (L) の存在が予想される画像を入力す る手段と、
入力された画像を、 前記筋部分 (L) に直交する 1ライン以上の幅からなる連 続した部分画像 (I I 、 12 ♦ · ·) に分割する手段と、
分割された各部分画像毎に Pタイル法を適用して各画素をニ暄化する手段と、 を備えていることを特徴とする筋状欠陥検査用の二値画像作成装置。
31. 版胴により走行する原反 (W) に印刷された ¾抦を検査対象として、 移動 機構 (62) により原反 (W) の幅方向に移動可能な部分入力カメラ (58) に より絵柄の一部を画像入力した部分画像に基づいて、 印刷状態を検査する際に適 用する印刷物検査用の画像入力方法において、
前記部分入力カメラ (58) から、 原反 (W) の流れ方向に所定距離隔てて設 置された全体入力カメラ (72) により、 絵柄全体を含む全体画像を入力するス テツプと、
前記部分入力カメラ (58) が前記移動機構 (62) 上に設定された原点上に ある時に、 該部分入力カメラ (58) により入力可能な部分画像の全体画像上の 位置と、 全体画像上に設定された幅方向基準点 (S) との関係から、 該全体画像 上の幅方向位置と前記移動機構 (62) 上の幅方向位置を対応付けるステップと、 全体画像上で、 部分入力カメラ (58) により入力すべき撮影ポイントを幅方 向に位置決めして設定するステップと、
全体画像上で、 設定された撮影ポイントと前記幅方向基準点 (S) との間の幅 方向画素数を算出するステップと、
算出された幅方向画素数に、 全体画像の幅方向解像度を乗算して、 前記移動機 構 (62) 上の幅方向移動量を算出するステップと、
前記部分入力カメラ (58) を、 前記幅方向移動量に対応する目標位置まで、 前記移動機構 (62) により移動させるステップと、
該目標位置に移動させた部分入力カメラ (58) により、 任意のタイミングで 部分画像を入力するステップと、
を有することを特徴とする印刷物検査用の画像入力方法。
32. 請求項 31において、
前記全体入力カメラ (72) と部分入力カメラ (58) との流れ方向の離間距 離 (L) 及び版胴周長 (T) に基づいて、 全体画像上の流れ方向基準点に位置す る絵柄部分を、 部分入力カメラ (58) で入力可能な基準入力タイミングを算出 するステップと、
全体画像上で、 部分入力カメラ (58) により入力すべき撮影ポイントを、 前 記幅方向以外に流れ方向にも位置決めして設定するステツプと、
全体画像上で、 設定された撮影ボイントと前記流れ方向基準点との間の流れ方 向画素数を算出するステップと、
算出された流れ方向画素数に、 全体画像の流れ方向解像度を乗算して求められ る実際の距離に基づいて、 前記基準入力タイミングからの待ち時間を算出するス テップと、
前記移動機構 (62) により前記目標位置に移動させた部分入力カメラ (58) により、 前記基準入力タイミングから前記待ち時間カ<経過したタイミングで部分 画像を入力するステップと、
を有することを特徴とする印刷物検査用の画像入力方法。
33. 請求項 32において、 前記部分入力カメラ (58) を前記全体入力カメラ (72) より上流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出する口一タリ エンコーダ (88) から出力されるパルス数で設定する場合、 該基準入カタイミ ングを、 次式
B= (T-Lmod T) ÷R
(T:版胴周長、 Lmod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R : 口一タリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力方法。
34. 請求項 32において、 前記部分入力カメラ (58) を前記全体入力カメラ (72) より下流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出するロータリ エンコーダ (88) から出力されるパルス数で設定する場合、 該基準入力夕イミ ングを、 次式
B= (Lmod T) ÷R
(T:版胴周長、 Lmod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R: 口一タリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする画像入力方法。
35. 版胴により走行する原反 (W) に印刷された絵柄を ^対象として、 移動 機構 (62) により原反 (W) の幅方向に移動可能な部分入力カメラ (58) に より絵柄の一部を画像入力した部分画像に基づいて、 印刷伏態を検査する際に適 用する印刷物検査用の画像入力装置において、
前記部分入力カメラ (58) 力ヽら、 原反 (W) の流れ方向に所定距離隔てて設 置された、 絵柄全体を含む全体画像を入力する全体入力カメラ (72) と、 前記部分入力カメラ (58) 力 <前記移動機構 (62)上に設定された原点上に ある時に、 該部分入力カメラ (58) により入力可 な部分画像の全体画像上の 位置と、 全体画像上に設定された幅方向基準点 (S) との関係から、 該全体画像 上の幅方向位置と前記移動機構 (62) 上の幅方向位置を対応付ける手段と、 全体画像上で、 部分入力カメラ (58) により入力すべき撮影ポイントを幅方 向に位置決めして設定する手段と、
全体画像上で、 設定された撮影ポイントと前記幅方向基準点 (S) との間の幅 方向画素数を算出する手段と、
算出された幅方向画素数に、 全体画像の幅方向解像度を乗算して、 前記移動機 構 (62) 上の幅方向移動量を算出する手段と、
前記部分入力カメラ (58) を、 前記幅方向移動量に対応する目標位置まで、 前記移動機構により移動させる手段と、
該目標位置に移動させた部分入力カメラ (58) により、 任意のタイミングで 部分画像を入力する手段と、
を備えていることを特徴とする印刷物検査用の画像入力装置。
36. 請求項 35において、
前記全体入力カメラ (72) と部分入力カメラ (58) との流れ方向の離間距 離 (L) 及び版胴周長 (T) に基づいて、 全体画像上の流れ方向基準点に位置す る絵柄部分を、 部分入力カメラ (58) で入力可能な基準入力タイミングを算出 する手段と、
全体画像上で、 部分入力カメラ (58) により入力すべき撮影ポイントを前記 幅方向以外に流れ方向にも位置決めして設定する手段と、
全体画像上で、 設定された撮影ボイントと前記流れ方向基準点との間の流れ方 向画素数を算出する手段と、
算出された流れ方向画素数に、 全体画像の流れ方向解像度を乗算して求められ る実際の距離に基づいて、 前記基準入力タイミングからの待ち時間を算出する手 段と、
前記移動機構 (62) により前記目標位置に移動させた部分入力カメラ (58) により、 前記基準入力タイミングから前記待ち時間力経過したタイミングで部分 画像を入力する手段と、
を備えていることを特徴とする印刷物検査用の画像入力装置。
37. 請求項 36において、 前記部分入力カメラ (58) を前記全体入力カメラ (72) より上流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出するロータリ エンコーダ (88) 力、ら出力されるパルス数で設定する場台、 該基準入カタイミ ングを、 次式
B= (T-Lmod T) ÷R
(T:版胴周長、 Lmod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R :口一タリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力装置。
38. 請求項 36において、 前記部分入力カメラを前記全体入力カメラ (72) より下流に配置し、
前記基準入力タイミングを、 原反 (w) の流れ方向移動量を検出するロータリ エンコーダ (88) から出力されるパルス数で設定する場合、 該基準入カタイミ ングを、 次式
B= (Lmod T) ÷R
(T:版胴周長、 Lmod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R: 口一タリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力装置。
39. 請求項 31において、 前記全体入力カメラ (72) により、 絵柄全体を含 む全体画像を基準画像として入力し、 該基準画像に基づいて前記処理を行うと共 前記全体入力カメラ (72) により、 全体画像を適宜最新画像として入力し、 該最新画像と前記基準画像との幅方向の差に基づいて、 前記部分入力カメラ (58) の幅方向移動量を補正することを特徴とする印刷物 用の画像入力方
40. 請求項 39において、
前記全体入力カメラ (72) と部分入力カメラ (58) との流れ方向の離間距 離 (L) 及び版胴周長 (T) に基づいて、 基準画像上の流れ方向基準点に位置す る絵柄部分を、 部分入力カメラ (58) で入力可能な基準入力タイミングを算出 するステップと、
基準画像上で、 部分入力カメラ (58) により入力すべき撮影ポイントを、 前 記幅方向以外に流れ方向にも位置決めして設定するステツプと、
基準画像上で、 設定された撮影ボイントと前記流 方向基準点との間の流れ方 向画素数を算出するステップと、
算出された流れ方向画素数に、 基準画像の流れ方向解像度を乗算して求められ る実際の距離に基づいて、 前記基準入力タイミングからの待ち時間を算出するス テツプと、
前記移動機構 (62) により前記目標位置に移動させた部分入力カメラ (58) により、 前記基準入力タイミングから前記待ち時間が経過したタイミングで部分 画像を入力するステップと、
前記最新画像と前記基準画像との流れ方向の差に基づいて、 前記部分入力カメ ラ (58) の部分画像入力タイミングを補正するステップと、
を有することを特徴とする印刷物検査用の画像入力方法。
41. 請求項 40において、 前記部分入力カメラ (58) を前記全体入力カメラ (72) より上流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出する口一タリ エンコーダ (88) から出力されるパルス数で設定する場合、 該基準入カタイミ ングを、 次式
B= (T- Lmod T) ÷R
(T:版胴周長、 Lmod Τ:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R: ロータリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力方法。
42. 請求項 40において、 前記部分入力カメラ (58) を前記全体入力カメラ (72) より下流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出する口一タリ エンコーダ (88) から出力されるパルス数で設定する場合、 該基準入カタイミ ングを、 次式
B= (Lmod T) ÷R
(T:版胴周長、 Lmod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R : ロータリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力方法。
43. 請求項 35において、 前記全体入力カメラ (72) 力、ら、 絵柄全体を含む 全体画像を基準画像として入力し、 該基準画像に基づいて前記処理を行うと共に、 前記全体入力カメラ (72) により、 全体画像を適宜最新画像として入力する 手段と、 該最新画像と前記基準画像との幅方向の差に基づいて、 前記部分入力カメラ
(58) の幅方向移動量を補正する手段と、
を備えていることを特徴とする印刷物検査用の画像入力装置。
44. 請求項 43において、 前記全体入力カメラ (72) と部分入力カメラ (5 8) との流れ方向の離間距離 (L) 及び版胴周長 (T) に基づいて、 基準画像上 の流れ方向基準点に位置する絵柄部分を、 部分入力カメラ (58) で入力可能な 基準人力タイミングを算出する手段と、
基準画像上で、 部分入力カメラ (58) により入力すべき撮影ポイントを、 前 記幅方向以外に流れ方向にも位置決めして設定する手段と、
基準画像上で、 設定された撮影ポィントと前記流れ方向基準点との間の流れ方 向画素数を算出する手段と、
算出された流れ方向画素数に、 基準画像の流れ方向解像度を乗算して求められ る実際の距離に基づいて、 前記基準入力夕ィミングからの待ち時間を算出する手 段と、
前記移動機構 (62) により前記目標位置に移動させた部分入力カメラ (58) により、 前記基準入力タイミングから前記待ち時間力《経過したタイミングで部分 画像を入力する手段と、
前記最新画像と前記基準画像との流れ方向の差に基づ L、て、 前記部分入力力メ ラ ( 58 ) の部分画像入力タイミングを補正する手;¾と、
を備えていることを特徴とする印刷物検査用の画像入力装置。
45. 請求項 44において、 前記部分入力カメラ (58) を前記全体入力カメラ (72) より上流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出する口一タリ エンコーダ (88) 力、ら出力されるパルス数で設定する場台、 該基準入カタイミ ングを、 次式
B = (T-Lmod T) ÷R
(T:版胴周長、 Lmod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R: ロータリエンコーダのパルス分!^能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力装置。
4 6. 請求項 4 4において、 前記部分入力カメラ (5 8 ) を前記全体入力カメラ ( 7 2 ) より下流に配置し、
前記基準入力タイミングを、 原反 (W) の流れ方向移動量を検出するロータリ エンコーダ (8 8 ) 力、ら出力されるパルス数で設定する場合、 該基準入力夕イミ ングを、 次式
B = ( L mod T) ÷ R
( T:版胴周長、 L mod T:全体入力カメラと部分入力カメラの離間距離 L を Tで除した余り、 R : 口一タリエンコーダのパルス分解能)
により算出される基準シフトパルス Bで設定することを特徴とする印刷物検査用 の画像入力装置。
4 7 . 印刷物上の絵柄全体の中から無地領域を選択し、 該無地領域を検査ポイン トとして、 検査装置が有する部分入力カメラ (5 8 ) により画像入力した検査画 像に基づいて印刷状態を検査する際に適用する印刷物検査用の無地領域選択方法 であって、
印刷された絵柄全体が含まれている全体画像を入力するステップと、 入力された全体画像から検査画像に相当する大きさを単位として、 部分画像を 切り出すステップと、
切り出された各部分画像について、 輝度の平坦性を表わす評価値を計算するス テツプと、
計算された評価値に基づいて、 各部分画像の中から輝度の平坦性の高いものを 画像上の無地領域として選択するとともに、 所定の数を画像上の検査ボイン卜と して判定するステップと、
判定された検査ボイントに関する位置情報を前記検査装置に出力するステップ と、
を有する印刷物検査用の無地領域選択方法。
4 8. 請求項 4 7において、 輝度の平坦性を表わす評価値が、 部分画像に含まれ る全画素に関する輝度分布の最大度数、 該輝度分布の分散、 及び該輝度分布を高 輝度側又は低輝度側に偏った所定の割台に分割する輝度値の少なくとも 1つであ
7 ることを特徴とする印刷物検査用の無地領域選択方法。
4 9. 請求項 4 7において、 前記部分画像を、 前記全体画像上で少なくとも横方 向に 1画素分ずつずらしな力 <ら、 該全体画像の全体に亘つて順次切り出すことを 特徴とする印刷物検査用の無地領域選択方法。
5 0. 印刷物上の絵柄全体の中から無地領域を選択し、 該無地領域を検査ポイン トとして、 検査装置が有する部分入力カメラ (5 8) により画像入力した検査画 像に基づいて印刷状態を検査する際に適用する印刷物検査用の無地領域選択装置 であって、
印刷された絵柄全体が含まれている全体画像を入力する手段 ( 9 0) と、 入力された全体画像から検査画像に相当する大きさを単位として、 部分画像を 切り出す手段 ( 9 4 ) と、
切り出された各部分画像について、 輝度の平坦性を表わす評価暄を計算する手 段 (9 8) と、
計算された評価値に基づ L、て、 各部分画像の中から輝度の平坦性の高 ^、ものを 画像上の無地領域として選択するとともに、 所定の数を画像上の^ Sボイントと して判定する手段 (1 0 2 ) と、
判定された検査ボイントに関する位置情報を前記検査装置に出力する手段 ( 1 0 4 ) と、
を備えている印刷物検査用の無地領域選択装置。
5 1. 請求項 5 0において、 輝度の平坦性を表わす評価値が、 部分画像に含まれ る全画素に関する輝度分布の最大度数、 該輝度分布の分散、 及び該輝度分布を高 輝度側又は低輝度側に偏った所定の割合に分割する輝度値の少なくとも 1つであ ることを特徴とする印刷物検査用の無地領域選択装置。
5 2. 請求項 5 0において、 前記部分画像を、 前記全体画像上で少なくとも横方 向に 1画素分ずつずらしながら、 該全体画像の全体、こ亘つて順次切り出すことを 特徴とする印刷物検査用の無地領域選択装置。
PCT/JP1997/003611 1996-10-09 1997-10-08 Procede et appareil de detection de defauts de raies sur des documents imprimes WO1998015919A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US09/077,553 US6366358B1 (en) 1996-10-09 1997-10-08 Method and apparatus for detecting stripe defects of printed matter
EP97943155A EP0872810A4 (en) 1996-10-09 1997-10-08 METHOD AND APPARATUS FOR DETECTING LINE DEFECTS ON PRINTED DOCUMENTS

Applications Claiming Priority (10)

Application Number Priority Date Filing Date Title
JP8/268375 1996-10-09
JP26837596A JP3816994B2 (ja) 1996-10-09 1996-10-09 エッジ領域抽出方法及び装置
JP8/319230 1996-11-29
JP31923096A JP3902823B2 (ja) 1996-11-29 1996-11-29 筋状欠陥検査方法及び装置
JP9/213211 1997-08-07
JP9/212976 1997-08-07
JP9213212A JPH1148457A (ja) 1997-08-07 1997-08-07 筋状欠陥検査方法及び装置
JP21321197A JP3835898B2 (ja) 1997-08-07 1997-08-07 二値画像作成方法及び装置並びに筋状欠陥検査方法及び装置
JP9/213212 1997-08-07
JP21297697A JP3865880B2 (ja) 1997-08-07 1997-08-07 無地領域選択方法及び装置

Publications (1)

Publication Number Publication Date
WO1998015919A1 true WO1998015919A1 (fr) 1998-04-16

Family

ID=27529546

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1997/003611 WO1998015919A1 (fr) 1996-10-09 1997-10-08 Procede et appareil de detection de defauts de raies sur des documents imprimes

Country Status (3)

Country Link
US (1) US6366358B1 (ja)
EP (1) EP0872810A4 (ja)
WO (1) WO1998015919A1 (ja)

Families Citing this family (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3687405B2 (ja) * 1999-04-07 2005-08-24 富士ゼロックス株式会社 画像読取装置および画像読取方法
JP3664231B2 (ja) * 2000-08-09 2005-06-22 日本電気株式会社 カラー画像処理装置
EP1273444B1 (en) 2001-07-04 2012-04-11 Dainippon Screen Mfg. Co., Ltd. Patch measurement device and method
DE10261221A1 (de) * 2002-12-20 2004-07-15 Océ Document Technologies GmbH Verfahren und Vorrichtung zur Echtzeitkontrolle von Druckbildern
JP4472260B2 (ja) * 2003-02-07 2010-06-02 日本ボールドウィン株式会社 印刷面検査方法
US7436504B2 (en) * 2003-09-10 2008-10-14 Shear Graphics, Llc Non-destructive testing and imaging
EP1673226B1 (de) * 2003-09-12 2012-03-14 Eyec GmbH Verfahren und vorrichtung zum prüfen von druckergebnissen
US7356180B2 (en) * 2003-09-30 2008-04-08 Sharp Laboratories Of America, Inc. Systems and methods for correcting image color balance
CN1797429A (zh) * 2004-12-29 2006-07-05 鸿富锦精密工业(深圳)有限公司 二维图像分析处理系统及方法
EP1867979B1 (en) * 2006-06-13 2009-03-11 ABB Oy Method and apparatus for recognizing repeating patterns
US8223385B2 (en) * 2006-12-07 2012-07-17 Xerox Corporation Printer job visualization
US20100039510A1 (en) * 2008-08-13 2010-02-18 Apollo Systems, Llc Method and DEVICE for PRINT INSPECTION
JP5462522B2 (ja) * 2009-05-07 2014-04-02 キヤノン株式会社 画像処理装置、画像処理方法、当該画像処理方法をコンピュータに実現させるためのプログラム
JP4967065B2 (ja) 2011-02-24 2012-07-04 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP2011134343A (ja) 2011-02-24 2011-07-07 Nintendo Co Ltd 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5178860B2 (ja) 2011-02-24 2013-04-10 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP4989768B2 (ja) 2011-02-24 2012-08-01 任天堂株式会社 画像処理プログラム、画像処理装置、画像処理システム、および画像処理方法
JP5026604B2 (ja) 2011-02-24 2012-09-12 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP5016723B2 (ja) 2011-02-24 2012-09-05 任天堂株式会社 画像認識プログラム、画像認識装置、画像認識システム、および画像認識方法
JP5714173B2 (ja) 2011-03-29 2015-05-07 ヒューレット−パッカード デベロップメント カンパニー エル.ピー.Hewlett‐Packard Development Company, L.P. イメージのスクラッチの検出
JP6015189B2 (ja) 2011-08-16 2016-10-26 株式会社リコー 画像検査装置、画像形成装置、画像検査方法及び画像形成システム
US8749843B2 (en) * 2012-04-10 2014-06-10 Palo Alto Research Center Incorporated Robust recognition of clusters of streaks at multiple scales
US9417366B2 (en) 2013-07-30 2016-08-16 Northrop Grumman Systems Corporation Hybrid diffractive optical element and spectral beam combination grating
JP2015088910A (ja) * 2013-10-30 2015-05-07 株式会社沖データ 画像処理装置
CN109334252B (zh) * 2013-11-22 2020-10-20 惠普深蓝有限责任公司 打印机、打印的方法以及非瞬态计算机可读介质
JP6465765B2 (ja) 2015-07-01 2019-02-06 キヤノン株式会社 画像処理装置および画像処理方法
JP7367461B2 (ja) * 2019-10-29 2023-10-24 コニカミノルタ株式会社 画像検査装置及び画像検査システム
CN110732558B (zh) * 2019-10-29 2020-09-08 燕山大学 冷轧带材板形在线立体监控方法
JP7367462B2 (ja) * 2019-10-29 2023-10-24 コニカミノルタ株式会社 画像検査装置及び画像検査システム
JP7367460B2 (ja) * 2019-10-29 2023-10-24 コニカミノルタ株式会社 画像検査装置及び画像検査システム
JP7463701B2 (ja) * 2019-11-19 2024-04-09 株式会社リコー 画像診断装置、故障診断装置及びプログラム
CN111242896A (zh) * 2019-12-31 2020-06-05 电子科技大学 一种彩色印刷标签缺陷检测与质量评级方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6319078A (ja) * 1986-07-11 1988-01-26 Toshiba Corp 物品の外観検査装置
JPH03264359A (ja) * 1990-03-14 1991-11-25 Toppan Printing Co Ltd 印刷物検査装置
JPH07175926A (ja) * 1993-12-20 1995-07-14 Toppan Printing Co Ltd 絵柄検査装置
JPH07234933A (ja) * 1994-02-22 1995-09-05 Nec Corp 印字背景除去方法およびその装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2321229A1 (fr) * 1975-08-13 1977-03-11 Cit Alcatel Procede et appareillage pour controle automatique de graphisme
US4172524A (en) * 1977-05-04 1979-10-30 The Upjohn Company Inspection system
DE3347645C1 (de) * 1983-12-30 1985-10-10 Dr.-Ing. Ludwig Pietzsch Gmbh & Co, 7505 Ettlingen Verfahren und Einrichtung zum opto-elektronischen Pruefen eines Flaechenmusters an einem Objekt
JP2539856B2 (ja) * 1987-10-15 1996-10-02 株式会社ヒューテック 印刷パタ―ン周期長のずれ検知方法
DE69330813T2 (de) * 1992-03-06 2002-06-13 Omron Tateisi Electronics Co Bildprozessor und verfahren dafuer
US5619596A (en) * 1993-10-06 1997-04-08 Seiko Instruments Inc. Method and apparatus for optical pattern recognition
US5517234A (en) * 1993-10-26 1996-05-14 Gerber Systems Corporation Automatic optical inspection system having a weighted transition database

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6319078A (ja) * 1986-07-11 1988-01-26 Toshiba Corp 物品の外観検査装置
JPH03264359A (ja) * 1990-03-14 1991-11-25 Toppan Printing Co Ltd 印刷物検査装置
JPH07175926A (ja) * 1993-12-20 1995-07-14 Toppan Printing Co Ltd 絵柄検査装置
JPH07234933A (ja) * 1994-02-22 1995-09-05 Nec Corp 印字背景除去方法およびその装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0872810A4 *

Also Published As

Publication number Publication date
EP0872810A4 (en) 2000-04-19
EP0872810A1 (en) 1998-10-21
US6366358B1 (en) 2002-04-02

Similar Documents

Publication Publication Date Title
WO1998015919A1 (fr) Procede et appareil de detection de defauts de raies sur des documents imprimes
US6570612B1 (en) System and method for color normalization of board images
EP1330111B1 (en) Automatic image quality evaluation and correction technique
JPH0957201A (ja) 特定色領域抽出方式および特定色領域除去方式
JP2011076204A (ja) 印刷物検査方法及び印刷物検査装置
JP7350637B2 (ja) 画像検査のための高速画像歪み補正
JP5037166B2 (ja) 表面疵検査システム、表面疵検査方法、及びコンピュータプログラム
JP3816994B2 (ja) エッジ領域抽出方法及び装置
JP3902823B2 (ja) 筋状欠陥検査方法及び装置
JP5195096B2 (ja) 画像処理検査方法及び画像処理検査システム
JP3984418B2 (ja) 欠陥検査方法
JP3433331B2 (ja) 画像検査方法及び装置
JPH1148457A (ja) 筋状欠陥検査方法及び装置
JP3768216B2 (ja) 印刷物の検査装置および方法
JP3835898B2 (ja) 二値画像作成方法及び装置並びに筋状欠陥検査方法及び装置
JP3501967B2 (ja) すき入れ検査装置
JP5190619B2 (ja) 被検査物の検査方法及びその検査装置
JP6665903B2 (ja) 特徴画像生成装置、検査装置、特徴画像生成方法及び特徴画像生成プログラム
JP4276608B2 (ja) 帯状体や柱状体の周期性疵検出方法およびその装置
JP4395057B2 (ja) 帯状体や柱状体の周期疵検出方法およびその装置
JP4491922B2 (ja) 表面欠陥検査方法
JP2002074332A (ja) 包装材及び包装体のシール不良検出方法及びシール不良検出装置
JP2004093486A (ja) 欠陥布片検出装置における欠陥レベル情報設定方法
JP4805495B2 (ja) 透過パターン検出装置
JP2876999B2 (ja) 印刷欠陥検査装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH DE DK ES FI FR GB GR IE IT LU MC NL PT SE

WWE Wipo information: entry into national phase

Ref document number: 09077553

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 1997943155

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 1997943155

Country of ref document: EP