WO2016158118A1 - 画像処理装置及び方法、並びにプログラム - Google Patents

画像処理装置及び方法、並びにプログラム Download PDF

Info

Publication number
WO2016158118A1
WO2016158118A1 PCT/JP2016/055705 JP2016055705W WO2016158118A1 WO 2016158118 A1 WO2016158118 A1 WO 2016158118A1 JP 2016055705 W JP2016055705 W JP 2016055705W WO 2016158118 A1 WO2016158118 A1 WO 2016158118A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image data
color
read
signal value
Prior art date
Application number
PCT/JP2016/055705
Other languages
English (en)
French (fr)
Inventor
修平 堀田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2016158118A1 publication Critical patent/WO2016158118A1/ja
Priority to US15/690,463 priority Critical patent/US10250779B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6016Conversion to subtractive colour signals
    • H04N1/6019Conversion to subtractive colour signals using look-up tables
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6005Corrections within particular colour systems with luminance or chrominance signals, e.g. LC1C2, HSL or YUV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0082Image hardcopy reproducer

Definitions

  • the present invention relates to an image processing apparatus and method, and a program, and more particularly, to an image inspection technique for detecting color inconsistency between original image data and printed matter.
  • Patent Document 1 describes a method for inspecting a defect in a printed image by comparing an inspection image obtained by capturing a printed image with a reference image generated from original image data used for printing. Has been. According to the method described in Patent Document 1, the reference integrated value distribution obtained by integrating the pixel values arranged in the printing direction in the reference image and the pixel values arranged in the printing direction in the inspection image are integrated. Sensitivity correction for increasing or decreasing each integrated value by a predetermined process is performed on at least one of the inspection integrated values, and the reference integrated value distribution and the inspection integrated value distribution are compared after the sensitivity correction. .
  • Patent Document 2 divides a master image and a read image of a printed matter into preset areas, the density level of the area image of the divided master image, and the corresponding read image. The defect of the printed matter is detected based on the difference from the density level in the area image. In the method described in Patent Document 2, if the image signal value (that is, the density level) between the master image and the read image of the printed material is close, the determination criterion is good (no defect).
  • Patent Document 2 discloses a method of creating a master image, which is a criterion for determining the quality of a printed material, based on design data (digital data) designed by a computer.
  • the “design data” referred to in Patent Document 2 is a term corresponding to “original image data used for printing” referred to in Patent Document 1.
  • image data representing the image content for printing is referred to as “original image data” or simply “original image”.
  • Original image data used for printing in Patent Document 1 and “design data” in Patent Document 2 correspond to document image data.
  • Neither method of Patent Document 1 nor Patent Document 2 assumes that there is an error in the document image data itself, and that there is no discrepancy between the document image data and the printed material to be reproduced. It is a prerequisite.
  • a printing apparatus performs color conversion processing of image data using a color conversion table such as an ICC (International Color Consortium) profile in order to perform target color reproduction.
  • a color management system (CMS; Color Management System) using an ICC profile requires an input profile representing a color reproduction target and an output profile representing a color reproduction of a printing apparatus.
  • a profile used for printing is usually created for each printing apparatus based on a color measurement result of a color chart printed out by the printing apparatus.
  • client image data and a target printed material that is a color sample printed material are provided from a client or the like as a client, and it may be required to match the color of the printed material to the color of the target printed material.
  • the target printed matter to be provided may have an unknown feature due to what printing conditions are used for printing. That is, the target profile necessary for printing the document image data is unknown, and the actual target printed matter itself is the target for color reproduction. In such a case, it is necessary for an operator of the plate making process and the printing process to manually correct the image data and adjust the printing conditions, and to perform color matching by trial and error, which is very troublesome.
  • the inventor of the present application creates a target profile corresponding to the color reproduction of the target printed material based on the original image data and the read image of the target printed material (color sample printed material), and creates the created target profile.
  • a color adjustment technology that uses the input profile as a color transform for the original image and performs color matching between the printed material and the target printed material.
  • color mismatch between the provided document image data and the target printed matter may occur.
  • Data processing that adjusts the image data so that the original image has the same image signal value area, but is retouched and partially has a different image signal value due to partial correction of the original image in the design process, etc.
  • Color adjustment work including Thereafter, the original image data before color adjustment and the target printed material after color adjustment are mistakenly transferred to the plate making process and / or printing process even though the target printed material is output using the original image data after color adjustment. It can happen.
  • the present invention has been made in view of such circumstances, and can detect a color mismatch between the document image data and the target printed matter, and can solve at least one of the above-described problems.
  • An object is to provide an image processing apparatus and method, and a program.
  • An image processing apparatus includes an image reading unit that reads a target printed matter and obtains first read image data representing a read image of the target printed matter, and first read image data or first read image data.
  • An image associating unit that performs processing for associating the positional relationship between the read image data that is one of the second read image data obtained by color conversion and the original image data of the target print; and the same original image in the original image data
  • a statistical processing unit that generates statistical information reflecting the distribution of the read image signal value of the read image data, and the original image data and the target based on the statistical information
  • an inconsistency detection unit that detects inconsistencies in the color of printed matter.
  • the “original image data of the target print” is print original data corresponding to the image content of the target print.
  • the target print may be printed from document image data, or printed from document image data after color adjustment in which the image signal value of the document image data is partially adjusted (changed). Also good.
  • Original image data before color adjustment which is the basis of original image data after color adjustment, also corresponds to “original image data of target printed matter”.
  • each pixel of the document image data is classified into a set of pixels having the same document image signal value based on the document image signal value of each pixel of the document image data.
  • it can be configured to include an area classification processing unit that performs processing for dividing the document image data into image regions of the same document image signal value.
  • the statistical processing unit determines a pixel group of the read image data belonging to the image area of the read image data corresponding to the image area of the same document image signal value. It is possible to adopt a configuration in which statistical processing as a population is performed, and at least one piece of statistical information that represents a variation in the read image signal value of pixels belonging to the population and a histogram of the read image signal value is generated.
  • the read image signal value of the first read image data acquired by the image reading unit and the value of the device-independent color space A color conversion unit that converts a read image signal value of the first read image data into a chromaticity value using a first color conversion table that represents a correspondence relationship with the chromaticity value represented by Can be configured to generate statistical information using the chromaticity value of the read image color-converted by the color conversion unit as the read image signal value.
  • the inconsistency detection unit detects a color inconsistency region between the document image data and the read image data based on the statistical information. It can be.
  • the original image signal value of the pixel belonging to the inconsistent area in the original image data is adjusted based on the read image signal value of the pixel belonging to the inconsistent area of the read image data. It can be set as the structure provided with the image adjustment part to perform.
  • the image adjustment unit converts the read image signal value of the pixel belonging to the inconsistent area of the read image data into a signal value based on the color space of the original image data, and The adjustment amount can be calculated based on the difference between the signal value obtained by converting the read image signal value of the pixel belonging to the matching area into the color space of the document image data and the representative value of the signal value group in the mismatching area. .
  • the image adjustment unit adds the adjustment amount to the original image signal value of the pixel belonging to the inconsistent area in the original image data, and the adjusted original image signal value It can be set as the structure to do.
  • the adjusted original image data in which the original image signal value is adjusted by the image adjustment unit, and the first read image data Based on the correspondence with the second read image data obtained by converting the read image signal value into the chromaticity value represented by the value of the device-independent color space, the original image signal value and the chromaticity in the color space of the original image data It can be configured to include a color conversion table creation unit that creates a second color conversion table representing the correspondence between values.
  • An image processing method includes an image reading step of acquiring a first read image data representing a read image of a target print by reading the target print, and the first read image data or the first read image data.
  • An image associating step for associating the positional relationship between the read image data, which is the second read image data obtained by color conversion, and the original image data of the target print; and the same original image signal value in the original image data
  • Statistical processing step for generating statistical information reflecting the distribution of the read image signal value of the read image data for each image area of the read image data corresponding to the image area, and the color of the original image data and the target print based on the statistical information
  • an inconsistency detection step of detecting an inconsistency in the image processing method.
  • the same matters as those specified in the second to ninth aspects can be combined as appropriate.
  • the means responsible for the process and function specified in the image processing apparatus can be grasped as an element of the “process (step)” of the corresponding process and operation.
  • a program includes a function of acquiring first read image data representing a read image of a target print from an image reading unit that reads the target print, and the first read image data or the first read image.
  • An image associating function for associating the positional relationship between the read image data, which is the second read image data obtained by color conversion of the data, and the original image data of the target printed material, and the same original image signal in the original image data
  • Statistical processing function for generating statistical information reflecting the distribution of the read image signal value of the read image data for each image area of the read image data corresponding to the image area of the value, and the original image data and the target printed matter based on the statistical information
  • the processing unit and the function unit as a means for performing the processing and function specified in the image processing apparatus can be grasped as an element of the “function” of the program that performs the corresponding processing and operation.
  • FIG. 1A is a diagram illustrating an example of a document image
  • FIG. 1B is a diagram illustrating an example of a target printed matter.
  • FIG. 2 is a block diagram showing the configuration of the image processing apparatus according to the first embodiment.
  • FIG. 3 is a block diagram showing the configuration of the image processing apparatus according to the second embodiment.
  • FIG. 4 is a block diagram showing the configuration of the image processing apparatus according to the third embodiment.
  • FIG. 5 is a block diagram illustrating a specific example of image alignment processing in the image association unit.
  • FIG. 6A is a diagram illustrating an example of a document image
  • FIG. 6B is a diagram illustrating an example of a target printed matter.
  • FIG. 7 is a block diagram of a configuration for performing image association processing including preprocessing.
  • FIG. 1A is a diagram illustrating an example of a document image
  • FIG. 1B is a diagram illustrating an example of a target printed matter.
  • FIG. 2 is a block diagram showing the configuration of
  • FIG. 8 is a block diagram showing the configuration of the image processing apparatus according to the fourth embodiment.
  • FIG. 9 is a block diagram showing a configuration of an image processing apparatus according to the fifth embodiment.
  • FIG. 10 is a block diagram showing a configuration of an image processing apparatus according to the sixth embodiment.
  • FIG. 11 is a block diagram showing a configuration of an image processing apparatus according to the seventh embodiment.
  • FIG. 12 is a block diagram showing the configuration of the image processing apparatus according to the eighth embodiment.
  • FIG. 13 is a chart showing an example of correspondence data between document image signals and chromaticity values.
  • FIG. 14 is an explanatory diagram showing grid points in the color space (here, the CM plane) of the document image data corresponding to the input side of the color conversion table.
  • FIG. 14 is an explanatory diagram showing grid points in the color space (here, the CM plane) of the document image data corresponding to the input side of the color conversion table.
  • FIG. 15 is an explanatory diagram of a method of calculating chromaticity values using a Neugebauer model.
  • FIG. 16 is a block diagram illustrating a configuration example of a printing system including an image processing apparatus according to an embodiment of the present invention.
  • FIG. 17 is a block diagram showing an overview of a target profile creation function and a printing function in the printing system.
  • the target printed matter is a printed matter that becomes a color sample of the target color to be reproduced, and is given as an actual color sample printed matter.
  • the document image data is digital image data representing the image content of a printed document corresponding to the target printed matter.
  • the document image data may be entire image data indicating the entire image content on the printing surface, or may be data of an image component (document component) as a part of an image recorded on the printing surface. .
  • the data format of the document image data is not particularly limited.
  • the document image data is a CMYK image in which signal values of each color component of cyan (C), magenta (M), yellow (Y), and black (K) are determined for each pixel.
  • the CMYK image refers to a digital image having a C signal value, an M signal value, a Y signal value, and a K signal value for each pixel.
  • the signal value of each color component is represented by a signal value of 8 bits (0 to 255 gradations).
  • the document image data is not limited to a CMYK image, but may be, for example, an RGB image in which signal values of red (R), green (G), and blue (B) color components are defined for each pixel. Alternatively, it may be a combination of CMYK signals and spot color signals. Further, the number of gradations (number of bits) of the image signal is not limited to this example.
  • the document image data When the document image data is given as an RGB image, it can be converted into a CMYK image by RGB-to-CMYK conversion color conversion processing.
  • original image is used as a term meaning “original image data”. That is, the document image includes the meaning of digital image data representing the image content of the printed document, and is synonymous with the document image data.
  • the L * a * b * color system is used as the color system (color coordinate system) of the device-independent color space that represents color values. Is not limited to this.
  • Yxy color system L * u * v * color system defined by the International Lighting Commission, HSV color system, HLS color system, YCbCr color system, etc. may be used. Is possible.
  • the XYZ color system colors are represented by stimulus values Y including luminance (brightness) and color stimulus values X and Z.
  • the Yxy color system colors are represented by luminance Y and chromaticity coordinates x and y.
  • colors are represented by hue H (hue), saturation S (saturation), and lightness V (value) or B (brightness).
  • luminance Y and color differences Cb and Cr are represented by luminance Y and color differences Cb and Cr.
  • chromaticity value means not only the XYZ color system but also a color value represented by the color coordinates of the device-independent color space.
  • the color space of the L * a * b * color system is denoted as “Lab color space”
  • the chromaticity value represented by the coordinate value of the Lab color space is denoted as “Lab value”.
  • image data in which the image signal value of each pixel is described by a Lab value is denoted as “Lab image”.
  • the color mismatch between the original image and the target printed material means that the original image has the same image signal value (CMYK value) but has a different color on the target printed material.
  • the influence of the in-plane variation of printing performed by the printing apparatus is, for example, a color difference of about 5 at most. In an average of a general business printing apparatus, the in-plane variation of printing is about 1 color difference. Such in-plane variation of printing caused by the printing apparatus is referred to as “allowable color difference”. Of course, the description of “about 5 color differences” and “about 1 color difference” described above are merely examples, and the in-plane variation of printing caused by the printing apparatus is not necessarily limited to the above-described examples.
  • the original image should have the same image signal value, but there is a color difference sufficiently larger than the allowable color difference on the printed material, it is suspected that an incorrect original image is provided.
  • the image signal value of the printed document is partially adjusted on the data at the time of color sample printing in the design process for creating the document image or intentionally on the client side, the plate making process and / or the printing process, Alternatively, there is a possibility that image data before adjustment is erroneously provided as a document image to the printing company.
  • FIG. 1A is a diagram showing an example of a document image
  • FIG. 1B is a diagram showing an example of a target printed matter.
  • a document image 1 in FIG. 1A is a document image of a target printed material, and shows a document image before adjustment before partially adjusting the image signal value.
  • the document image 1 shown in FIG. 1A has a star-shaped region 2 that is a star-shaped image region and a crescent-shaped region 3 that is a crescent-shaped image region.
  • the CMYK values of the star-shaped area 2 and the crescent-shaped area 3 of the document image 1 are the same image signal value.
  • the target printed matter 4 shown in FIG. 1B shows a printed matter printed based on the adjusted original image (not shown) after adjusting the image signal value of the original image 1.
  • the image signal value of the crescent-shaped area 3 is changed, and the star-shaped area 5 and the crescent-shaped area 6 in the target print 4 are printed in different colors.
  • a target profile is created by associating the image signal value of the original image 1 with the signal value of the read image of the target printed matter 4 from the combination of the original image 1 and the target printed matter 4.
  • the difference between the color of the star-shaped region 5 and the color of the crescent-shaped region 6 in the target printed matter 4 is replaced with a color between them (for example, an average value).
  • the Lab values corresponding to the CMYK values of the star-shaped region 2 and the crescent-shaped region 3 in FIG. 1A in the created target profile are the colors of the star-shaped region 5 and the crescent-shaped region 6 of the target print 4. This causes a problem that the color matching accuracy decreases.
  • FIG. 2 is a block diagram illustrating a configuration of the image processing apparatus 10 according to the first embodiment.
  • FIG. 2 shows the flow of data together with the configuration of the processing unit.
  • the image processing apparatus 10 includes an image reading unit 12, an image association unit 14, a statistical processing unit 16, and a mismatch detection unit 18.
  • the image processing apparatus 10 is composed of a CPU and the like. The various functions of the image processing apparatus 10 are exhibited by loading various programs into the CPU. The same applies to image processing apparatuses in other embodiments described later.
  • the image reading unit 12, the image association unit 14, the statistical processing unit 16, and the mismatch detection unit 18 are exhibited.
  • the image processing apparatus 10 serves as an image inspection apparatus that detects color mismatch between the document image 20 and the target printed material 22.
  • the document image 20 is document image data corresponding to the print image of the target print 22.
  • each pixel of the document image 20 is CMYK image data having signal values of CMYK color components.
  • the target printed material 22 is a printed material printed based on the original image 20 or a printed material printed based on the original image after color adjustment in which the image signal value of the original image 20 is partially changed.
  • the document image 20 of the target print 22 may be a pre-adjustment document image before color adjustment that is not directly used for printing the target print 22.
  • the image reading unit 12 reads a printed matter, converts an optical image into electronic image data, and generates read image data as a color image representing the read image.
  • a color image scanner capable of outputting the read image as RGB image data represented by image signals of RGB color components can be used.
  • a scanner capable of acquiring a read image represented by an image signal of R / G / B color components is used.
  • a read image acquired from the image reading unit 12 may be referred to as a “scanned image”.
  • An RGB image obtained from the image reading unit 12 is referred to as a “scan RGB image”, and an image signal value in the scan RGB image is referred to as a “scan RGB value”.
  • the image reading unit 12 may use a camera instead of the scanner. However, when a camera is used for the image reading unit 12, it is preferable to perform shading correction or the like because it is easily affected by uneven illumination in the imaging surface.
  • a photographed image obtained by photographing with a camera corresponds to a “read image”.
  • the term “photographing” is synonymous with “imaging”.
  • the camera has a two-dimensional image sensor as an image sensor, converts a captured optical image into electronic image data, and generates captured image data as a color image representing the captured image.
  • the specific form of the camera is not particularly limited.
  • the camera may be a single-plate imaging device in which R, G, and B color filters are arranged in a mosaic pattern corresponding to each photosensitive pixel on the light receiving surface of the two-dimensional image sensor.
  • R, G, and B color filters are arranged in a mosaic pattern corresponding to each photosensitive pixel on the light receiving surface of the two-dimensional image sensor.
  • a three-plate type imaging device that includes a two-dimensional image sensor for each channel may be used.
  • the read image 24 of the target print 22 is obtained by reading the target print 22 with the image reading unit 12.
  • the read image 24 is target print product read image data obtained by reading the target print product 22, and corresponds to one form of “first read image data”.
  • the image reading unit 12 serves as a read image unit that acquires the read image 24 of the target printed matter 22.
  • the process of acquiring the read image 24 by reading the target printed matter 22 by the image reading unit 12 corresponds to one form of the image reading process.
  • Data of the read image 24 acquired via the image reading unit 12 is sent to the image association unit 14.
  • the image association unit 14 performs processing for associating the positional relationship between the read image 24 obtained by reading the target printed matter 22 and the document image 20. That is, the image association unit 14 associates image positions (that is, pixel positions) between the read image 24 and the document image 20. Details of processing contents by the image association unit 14 will be described later (FIGS. 5 to 7).
  • the correspondence between the pixel positions of the document image 20 and the read image 24 is specified in the image association unit 14, and the image signal value of the document image 20 (CMYK value in this example) and the image signal value of the read image 24 (this example).
  • data referred to as “correspondence data 26 between the document image and the read image” indicating the correspondence relationship with the RGB values
  • the process of associating the positional relationship between the read image 24 and the document image 20 by the image association unit 14 corresponds to one form of the image association process. Further, the processing function of the image association unit 14 corresponds to one form of the image association function.
  • the read image 24 input to the image association unit 14 is an RGB image.
  • the color conversion unit (reference numeral 42 in FIG. 3) described later converts RGB to a device-independent chromaticity value.
  • a chromaticity value image (for example, a Lab image) converted into an XYZ value or a Lab value may be used.
  • a Lab image obtained by converting the scanned RGB image from RGB to Lab is referred to as a “scan Lab image”, and an image signal value of the scan Lab image is referred to as a “scan Lab value”.
  • the read image 24 or a chromaticity value image created by color-converting the read image 24 is collectively referred to as a “target printed matter read image”, and a read image signal value that is an image signal value of the target printed matter read image is “target”. This is referred to as “printed image signal value”.
  • the statistical processing unit 16 reflects the dispersion (distribution) of the target printed matter read image signal values using the target printed matter read image signal values corresponding to the same document image signal value (in this example, the same CMYK value) as a population. Statistical processing is performed for generating statistical information for each channel of the image signal of the target printed matter read image.
  • the target printed material read image signal value corresponding to the same document image signal value corresponds to the image region of the same document image signal value in the document image 20 according to the association of the image position specified by the image association unit 14.
  • a read image signal value that is a signal value of a pixel belonging to the image area of the read image 24 to be read.
  • the number of colors used in the document image 20 is “corresponding to the same document image signal value”. It can be divided into “a population of target printed matter read image signal values”.
  • the target printed matter read image signal value is an RGB value
  • the statistical processing unit 16 generates statistical information for each channel of each component of R / G / B.
  • the target printed matter read image signal value is a Lab value obtained by color-converting the RGB value
  • the statistical processing unit 16 creates statistical information for each channel of each component of L / a / b.
  • the same document image signal value indicates that, for example, CMYK values represented by 8 bits (0-255 gradations) of each color of CMYK match.
  • the original image is very narrow data such as image data expressed by 16 bits (0 to 65535) of each color of CMYK
  • the same image is displayed on the original image.
  • the image data of 16 bits for each color (0-65535) is converted into image data of 8 bits for each color (0-255 gradation), and the original image data after conversion is “same” May be handled as “the image signal value”.
  • the statistical information created by the statistical processing unit 16 can be at least one piece of information among a statistic indicating a variation (scattering) of the target printed matter read image signal value and a histogram of the target printed matter read image signal value.
  • Statistics representing variations in target printed material read image signal values include variance, standard deviation, range, and the like. Alternatively, a statistical amount (average value, average value, average value, median value, etc.) is set as a population from the representative values (average value, median value, mode value, etc.) The median or maximum value may be calculated.
  • the distance D from the average value is (R AV , G AV , B AV ), the distance D from the average value is It is represented by the following formula 1.
  • the distance D from the average value is (L AV , a AV , b AV ), the distance D from the average value is It is represented by the following formula 2.
  • the distance D from the average value exemplified by Expression 1 and Expression 2 represents the color difference from the average value.
  • the median value or the mode value is adopted, and the distance D May be defined.
  • a statistic such as an average value, a median value, and a maximum value of the distance D is obtained by using the distance D from the representative value of the target printed material read image signal value corresponding to the same document image signal value as a population.
  • the statistic of the distance D calculated in this way is a value reflecting the distribution (scattering) of the target printed material read image signal values corresponding to the same document image signal value (CMYK value).
  • the statistical processing unit 16 generates the above statistical information for all image signal values (CMYK values) of the document image 20. Note that the statistical information generated by the statistical processing unit 16 may be only one of the multiple types of information exemplified above.
  • the histogram of the target printed material read image signal value with respect to the same document image signal value is a single peak type and has a narrow base when there is no color mismatch between the document image 20 and the target printed product 22.
  • the histogram has a multi-peak type or a shape with a wide base even if it is a single-peak type. Therefore, if there is a mismatch, a statistical quantity serving as an index representing the dispersion of data, such as the dispersion, standard deviation, or range of the target printed matter read image signal value, becomes large.
  • the distribution is concentrated near the distance “0” when there is no mismatch.
  • a statistic such as an average value, a median value, or a maximum value of the distance from the representative value of the target printed material read image signal value increases.
  • the histogram of the read image signal value of the target print 22 for the same document image signal value and the histogram of the distance from the representative value of the target print image signal value for the same document image signal value are the same document. This can be utilized as information reflecting the dispersion of the target printed material read image signal value with respect to the image signal value. Therefore, the statistical processing unit 16 replaces the above-described calculation of the statistic with the histogram of the target printed matter read image signal value for the same document image signal value, and the representative printed matter read image signal value for the same document image signal value. It may be configured to create a histogram of distances from values.
  • Statistical information obtained from statistical processing of a read image signal value (for example, RGB value) that is a signal value of the read image 24 is referred to as “read image signal statistical information”, and a signal value of a chromaticity value image obtained by color-converting the read image 24.
  • Statistical information obtained from statistical processing of the read chromaticity value (for example, Lab value) is referred to as “chromaticity value statistical information”.
  • the statistical processing unit 16 creates data indicating the correspondence between the document image signal and the read image signal statistical information.
  • Data indicating the correspondence between the document image signal and the read image signal statistical information is referred to as “correspondence data 28 between the document image signal and the read image signal statistical information”.
  • the step of generating statistical information by the statistical processing unit 16 corresponds to one form of the statistical processing step.
  • the function of generating statistical information of the statistical processing unit 16 corresponds to one form of the statistical processing function.
  • the mismatch detection unit 18 determines whether or not there is a color mismatch between the document image 20 and the target print 22 based on the statistical information obtained for each identical document image signal value created by the statistical processing unit 16.
  • the inconsistency detection unit 18 outputs inconsistency determination information 30 indicating the presence or absence of inconsistency.
  • the mismatch detection unit 18 detects a color mismatch between the document image 20 and the target printed material 22 when the statistic calculated for each identical document image signal value exceeds a preset threshold value.
  • the threshold value may be set in consideration of the in-plane variation of printing and the size of the in-plane variation of scanning by the image reading unit 12. That is, the dispersion of data due to the in-plane variation of printing and the in-plane variation of scanning should be within an allowable range and should not be detected as a color mismatch between the document image 20 and the target print 22.
  • the in-plane variation of normal printing is grasped as an allowable value, and the in-plane variation of printing is clearly larger than usual due to some abnormality (for example, insufficient adjustment of ink supply amount in offset printing machine, etc.) In such a case, the inconsistency may be detected.
  • the magnitude of the statistic of the scan RGB value (or the scan Lab value) for the same original image signal value caused by the variation in the read image signal value due to the in-plane variation of printing or the in-plane variation of scanning is known in advance.
  • the threshold may be set by the user.
  • the mismatch detection unit 18 may determine the presence or absence of mismatch from the shape of the histogram obtained for each identical document image signal value.
  • the mismatch detection unit 18 can determine whether or not there is a mismatch and can detect a mismatched image region.
  • the process of detecting inconsistency by the inconsistency detection unit 18 corresponds to one form of the inconsistency detection process.
  • the function of detecting inconsistency by the inconsistency detection unit 18 corresponds to one form of the inconsistency detection function.
  • FIG. 3 is a block diagram showing the configuration of the image processing apparatus 40 according to the second embodiment. 3, elements that are the same as or similar to those shown in FIG. 2 are given the same reference numerals, and descriptions thereof are omitted.
  • the image processing device 40 shown in FIG. 3 has a configuration in which a color conversion unit 42 is added between the image association unit 14 and the statistical processing unit 16 as compared with the image processing device 10 described in FIG. It has become.
  • the color conversion unit 42 converts the signal value (Lab value in this example) of the color component in the device-independent color space from the read image signal value represented by the signal value (RGB value in this example) of the color component in the device-dependent color space.
  • the color conversion unit 42 uses the first color conversion table 44 prepared in advance to convert a read image signal value (RGB value in this example) that is a signal value of the read image 24 into a device-independent chromaticity value. Color conversion processing for conversion into (Lab value in this example) is performed.
  • the first color conversion table 44 is a color conversion table of a scanner profile, and shows a correspondence relationship between RGB values, which are read image signal values in a device-dependent color space obtained by the image reading unit 12, and device-independent Lab values. It is a table to prescribe.
  • the Lab color space is used as the device-independent color space, but other device-independent color spaces such as an XYZ color space can also be used.
  • the statistical processing unit 16 Based on the correspondence data 46 between the document image signal and the chromaticity value, the statistical processing unit 16 sets the chromaticity value signal value of the target printed material read image corresponding to the same document image signal value (CMYK value) as a population. Statistical processing for generating statistical information reflecting the dispersion (distribution) of chromaticity value signal values for each channel is performed. The statistical processing unit 16 creates data indicating the correspondence between the document image signal and chromaticity value statistical information (referred to as “correspondence data 48 between the document image signal and chromaticity value statistical information”).
  • FIG. 2 illustrates a case where statistical information is calculated from RGB values
  • FIG. 3 illustrates a case where statistical information is calculated from Lab values, but it is more preferable to calculate statistical information from chromaticity values such as Lab values.
  • the RGB value is a device-dependent value, that is, a value depending on the model and setting of the scanner used in the image reading unit 12, but the chromaticity value such as the Lab value is a value independent of the device (model and setting). Therefore, statistical information calculated from chromaticity values such as Lab values can also be handled as a value that does not depend on the device (the value does not vary greatly depending on the device).
  • FIG. 4 shows a modification of the configuration shown in FIG. 4, elements that are the same as or similar to those described in FIG. 3 are given the same reference numerals, and descriptions thereof are omitted.
  • the image processing apparatus 50 has a configuration in which the processing order of the image association unit 14 and the color conversion unit 42 is switched as compared with the configuration illustrated in FIG. 3. .
  • color conversion processing by the color conversion unit 42 is performed on the first read image 24 ⁇ / b> A that is an RGB image obtained from the image reading unit 12 to obtain a second read image 24 ⁇ / b> B. Since the color conversion unit 42 in this example performs RGB ⁇ Lab conversion using the first color conversion table 44, the second read image 24B is a Lab image.
  • the first read image 24A corresponds to a form of “first read image data”
  • the second read image 24B corresponds to a form of “second read image data”.
  • the image association unit 14 associates the positions of the second read image 24B created by the color conversion of the color conversion unit 42 and the document image 20 with each other. Thereby, the correspondence data 46 between the document image and the chromaticity value is obtained.
  • the subsequent processing is the same as the example described in FIG.
  • the configuration shown in FIG. 4 can achieve the same effects as the configuration shown in FIG.
  • the second read image 24B after color conversion obtained by performing color conversion processing by the color conversion unit 42 on the first read image 24A obtained from the image reading unit 12 is obtained. This is called “reading chromaticity value image”.
  • the read image of the target printed matter 22 obtained from the above is represented. Therefore, the read image 24, the first read image 24A, and the second read image 24B are collectively referred to as a read image.
  • the read image 24 obtained from the image reading unit 12 described with reference to FIGS. 2 and 3 and the first read image 24A described with reference to FIG. 4 are read images before color conversion, and the second read image described with reference to FIG.
  • the read image 24B is a read image after color conversion.
  • the scanned image before color conversion is a scanned RGB image.
  • the first read image 24 ⁇ / b> A obtained from the image reading unit 12 is a read image after color conversion obtained by performing color conversion processing by the color conversion unit 42.
  • the second read image 24B is a scanned Lab image.
  • the image association unit 14 associates the document image data with the image position (that is, pixel position) of the read image data obtained by reading the printed matter.
  • the read image data here is a general term for the read image 24 obtained from the image reading unit 12 described with reference to FIGS. 2 and 3, the first read image 24A described with reference to FIG. 4, and the second read image 24B. is there. That is, the scanned image data includes either a scanned RGB image obtained from the image scanning unit 12 or a scanned Lab image that is a scanned chromaticity value image obtained by performing color conversion on the scanned RGB image in the color converting unit 42. Applicable.
  • the read image data in the configuration shown in FIGS. 2 and 3 is an RGB image
  • the read image data in the configuration shown in FIG. 4 is a read chromaticity value image (Lab image).
  • a known image alignment method can be used for the process of associating (positioning) the image position between the document image data and the read image data.
  • the method described in paragraphs ⁇ 0064>- ⁇ 0068> of JP2013-30996A can be used as an image alignment method.
  • FIG. 5 is a block diagram showing a specific example of image alignment processing in the image association unit 14.
  • the image association unit 14 includes a geometric correspondence relationship estimation unit 62 and a geometric conversion unit 64.
  • the geometric correspondence relationship estimation unit 62 takes in the original image 20 and the read image 24C, and estimates the geometric correspondence relationship between these two images.
  • the geometric correspondence includes at least one element of an image displacement amount, a rotation angle, and a scaling factor between the two images to be compared.
  • the read image 24C is any one of the read image 24 obtained from the image reading unit 12 described in FIGS. 2 and 3, the first read image 24A described in FIG. 4, and the second read image 24B. Represents image data.
  • the geometric transformation unit 64 performs a geometric transformation process for matching one or both of the two images based on the geometric correspondence estimated by the geometric correspondence estimation unit 62.
  • the geometric conversion may be performed on the data of the read image 24C, and the geometric conversion may not be performed on the data of the document image 20.
  • affine transformation can be applied as an example of geometric transformation.
  • the geometric conversion parameter can be obtained.
  • the geometric conversion parameter is obtained by obtaining the correspondence between the point indicating the position of the marker feature point in the document image data and the point indicating the position of the marker feature point in the read image data.
  • it is known to match two point patterns by performing, for example, affine transformation on one of the two images. Therefore, in order to obtain the geometric transformation parameter, it is only necessary to find an optimal affine parameter that approximates each position of the two point patterns.
  • an affine parameter evaluation function for affine transformation of the marker feature point in the read image data to the marker feature point in the document image data is defined, and the affine parameter when the evaluation function is minimized is used as the geometric transformation parameter. .
  • a template matching method is an example of a method for estimating only the displacement amount.
  • the template matching method one image is used as a template, the degree of coincidence with the other image is obtained while gradually shifting the position, and the position with the highest degree of coincidence is detected.
  • a method for estimating the rotation angle such as Hough transform
  • a method for estimating the amount of magnification such as multi-scale analysis.
  • one image is divided into blocks, and the displacement amount can be obtained by detecting the position having the highest degree of coincidence with the other image for each block.
  • the block matching method it is also possible to estimate the rotation angle and magnification from the displacement amount for each block.
  • phase only correlation POC
  • RIPOC rotation invariant phase only correlation
  • the phase only correlation method uses a phase image obtained by subjecting an image to a discrete Fourier transform, and detects the position where the correlation between the two phase images obtained from the two images to be compared is the highest. This is a method for obtaining a displacement amount.
  • the rotation-invariant phase-only correlation method is such that the rotation angle and the scaling factor can be detected as a displacement amount on the converted phase image by logarithmic polar coordinate conversion of the phase image.
  • the geometric transformation unit 64 After obtaining the geometric transformation parameters by the above-described exemplary methods (a) to (c), the geometric transformation unit 64 performs geometric transformation on the read image 24C and / or the document image 20.
  • the pixel value may be derived appropriately using a pixel interpolation method. Examples of pixel interpolation methods include bilinear methods and bicubic methods.
  • the correspondence of the positional relationship between the document image 20 and the read image 24C is determined, and the corresponding read image 25 is obtained.
  • the correspondence data 26 between the original image and the read image explained with reference to FIGS. 2 and 3 or the correspondence data 46 between the original image and the chromaticity value explained with reference to FIG. 4 is created from the associated read image 25 and the original image 20. can do.
  • the set of the associated read image 25 and the original image 20 is set to the correspondence data 26 between the original image and the read image described with reference to FIGS. 2 and 3, or the original image and chromaticity value described with reference to FIG. It can be handled as correspondence data 46.
  • the image association unit 14 performs resolution conversion that matches the resolution of the document image 20 with respect to the read image 24C.
  • the image association unit 14 includes a resolution conversion unit (not shown) for performing resolution conversion processing.
  • the image alignment unit 14 performs image alignment. Before performing (association), it is preferable to convert both into grayscale and convert them to the same color space.
  • the read image 24C is converted into a Lab value by using a color conversion table (first color conversion table 44 in FIG. 3) of the scanner profile, and a monochrome image in which only the L value (lightness) is extracted is obtained.
  • a typical profile such as Japan Color (registered trademark) can be used.
  • an edge extraction process is further performed on the grayscale image to obtain a binary value.
  • the alignment may be performed after conversion to the edge image.
  • a Sobel method, a Prewitt method, or the like can be used for the edge extraction process.
  • edge thickness of the two edge images may be different
  • further thinning processing is performed on each edge image, and alignment is performed after aligning the edge thickness. Also good.
  • the Hilditch method or Tamura method can be used.
  • preprocessing may be performed even when the document image 20 and the read image 24C are in the same color space.
  • the target printed matter 22 and the document image 20 do not have a one-to-one correspondence.
  • the following example can be given as a case where the target print 22 and the document image 20 do not have a one-to-one correspondence.
  • Example 1 When the target printed material 22 is a printed material in which a large number of the same document images 20 are arranged on the same printing surface.
  • Example 2> When the target printed material 22 is a printed material in which the original image 20 and another image data that is not a color matching target (other image data different from the original image 20) are arranged on the same printing surface. Note that disposing a plurality of different image data on the same printing surface is called “heterogeneous imposition” or “ganging”.
  • the target original image 20 is selected from the read images of the target printed matter 22. It is useful to perform a partial image extraction process for extracting a corresponding partial image.
  • the target printed material 22 is a printed material in which the same original image 20 is nested (imposed) in the same printing surface.
  • FIGS. 6 (A) and 6 (B) Examples are shown in FIGS. 6 (A) and 6 (B).
  • FIG. 6A shows an example of an original image
  • FIG. 6B shows an example of a target printed matter.
  • the target printed matter shown in FIG. 6B is a printed matter obtained by printing a plurality of document image data shown in FIG. 6A in a nested manner (imposition) on the printing surface.
  • the read image data of the target printed matter is not used as it is, but a partial image corresponding to the document image data is previously extracted from the read image data before alignment by the image association unit 14. preferable.
  • a method of extracting a partial image a method of automatically extracting a partial image corresponding to a document image by using known pattern matching, or reading on a display unit (denoted by reference numeral 234 in FIG. 16) as a monitor.
  • a method is conceivable in which an image is displayed and the user manually designates a range of a partial image corresponding to the original image.
  • FIG. 7 is a block diagram of a configuration for performing image association processing including the preprocessing described above.
  • the image association unit 14 illustrated in FIG. 7 includes a document correspondence image extraction unit 70, a gray scale conversion unit 72, an edge extraction unit 74, a thinning unit 76, a geometric correspondence relationship estimation unit 62, and a geometric conversion unit. 64.
  • the document corresponding image extracting unit 70 reads a document image from a read original image 80 that is an original image of a read image obtained by reading the target print 22 on which a plurality of images are arranged as shown in FIG. 6B. A process of extracting a partial image corresponding to 20 is performed.
  • the read original image 80 is read image data generated by reading the entire printing surface of the target printed material as shown in FIG.
  • the read original image 80 may be an RGB image or a Lab image.
  • the data of the partial image extracted by the document corresponding image extraction unit 70 becomes a read image 24 ⁇ / b> C to be compared with the document image 20.
  • the gray scale conversion unit 72 performs a process of converting each of the document image 20 and the read image 24C into a gray scale.
  • the edge extraction unit 74 performs edge extraction processing from the grayscale image.
  • the thinning unit 76 performs thinning processing on the edge image generated by the edge extraction unit 74.
  • the edge image thinned by the thinning unit 76 is input to the geometric correspondence estimation unit 62, and the geometric correspondence estimation unit 62 specifies the geometric correspondence between the document image 20 and the read image 24C. Using the geometric correspondence obtained in this way, the geometric conversion process is performed on the read image 24C by the geometric conversion unit 64, and the associated read image 25 is obtained.
  • the association processing function by the image association unit 14 corresponds to an “image association function”. If the original image 20 and the print image of the target print 22 have a one-to-one correspondence, the read original image 80 in FIG. 7 is handled as the read image 24C as it is.
  • FIG. 8 shows a modification of the configuration shown in FIG.
  • the same or similar elements as those described in FIG. 2 are denoted by the same reference numerals, and the description thereof is omitted.
  • the image processing device 90 according to the fourth embodiment illustrated in FIG. 8 has a region classification processing unit 15 between the image association unit 14 and the statistical processing unit 16 as compared with the image processing device 10 described in FIG. Is added.
  • the area classification processing unit 15 classifies each pixel of the document image 20 into a set of pixels having the same document image signal value based on the document image signal value of each pixel of the document image 20, and the document image 20 is the same document. A process of dividing the image signal value into image regions is performed.
  • the document image 20 is divided into regions for each color used in the document image 20 (that is, for each image signal value used in the document image 20), and the same number of image regions (pixels) as the number of colors used. Group).
  • each of the image areas classified for each color by the area classification processing unit 15 is referred to as “same document image signal value area”. Since the correspondence between the positions of the document image 20 and the read image 24 is grasped by the processing of the image association unit 14, the image region on the read image 24 corresponding to the same document image signal value region in the document image 20 is specified. be able to. That is, the read image 24 can also be divided into image areas corresponding to the same document image signal value areas.
  • the process of performing the process of dividing the document image 20 into image areas having the same document image signal value by the area classification processing unit 15 corresponds to one form of the area classification process.
  • the processing function of the region classification processing unit 15 corresponds to one form of the region classification processing function.
  • the statistical processing unit 16 performs statistical processing using the pixel group of the read image belonging to the image region of the read image corresponding to each of the same document image signal value regions classified by the region classification processing unit 15 as a population, At least one piece of statistical information representing a variation of the read image signal value of the pixel to which the pixel belongs and a histogram of the read image signal value is generated.
  • the statistical processing unit 16 described with reference to FIGS. 2 to 4 substantially includes a function corresponding to the processing of the region classification processing unit 15 described with reference to FIG.
  • FIG. 9 is a block diagram showing a configuration of the image processing apparatus 100 according to the fifth embodiment. 9, elements that are the same as or similar to those shown in FIGS. 2 and 8 are given the same reference numerals, and descriptions thereof are omitted.
  • the image processing apparatus 100 illustrated in FIG. 9 has a configuration in which an image adjustment unit 102 is added as compared with the image processing apparatus 90 described in FIG.
  • the image adjustment unit 102 adjusts the image signal value of the document image 20 based on the inconsistency area information obtained from the inconsistency detection unit 18.
  • the adjustment of the image signal value means correcting (changing) the image signal value to a different value.
  • the inconsistency detection unit 18 detects an inconsistency area having a different color on the target print 22 even though it is an image area of the same original image signal value on the data of the original image 20.
  • the image adjusting unit 102 adjusts the original image signal value in the inconsistent area so that the color can be separated on the original image signal value in the same manner as the target printed matter 22.
  • the adjusted document image 104 is obtained by adjusting the document image signal value in the inconsistent area by the image adjusting unit 102.
  • Each of the image processing device 40 shown in FIG. 3 and the image processing device 90 shown in FIG. 4 can also be configured to include the image adjustment unit 102 as in FIG.
  • FIG. 10 is a block diagram showing the configuration of the image processing apparatus 110 according to the sixth embodiment.
  • An image processing apparatus 110 shown in FIG. 10 has a configuration in which an image adjustment unit 102 is added to the configuration of the image processing apparatus 40 described in FIG. 10, elements that are the same as or similar to those shown in FIGS. 3 and 9 are given the same reference numerals, and descriptions thereof are omitted.
  • the scan RGB value group (Rs, Gs, Bs) in the original image signal value (Cd, Md, Yd, Kd) area detected as the inconsistency area by the inconsistency detection unit 18 is obtained by the following equation (3). Convert to (Cs0, Ms0, Ys0).
  • the image signal value is described as an 8-bit value from 0 to 255.
  • Cs min (255, max (0, Cs0 ⁇ Kd)
  • Ms min (255, max (0, Ms0 ⁇ Kd)
  • Ys min (255, max (0, Ys0-Kd)
  • Ks Kd ... Equation 4
  • min (a, b) is a function that returns the smaller value of a and b
  • max (a, b) is a function that returns the larger value of a and b.
  • an adjustment amount (Ca, Ma, Ya, Ka) based on the difference between the scan CMYK value group of the inconsistent region and the average value (or the center value or the mode value) of the scan CMYK value group is calculated.
  • the adjustment amount (Ca, Ma, Ya, Ka) can be expressed by the following equation (5).
  • W is a coefficient for adjusting the magnitude of the adjustment amount. Normally, “1.0” is set.
  • Cs A , Ms A , Ys A , Ks A represents an average value, a center value, or a mode value in the scan CMYK value group in the inconsistent area.
  • Cs A , Ms A , Ys A , Ks A corresponds to a representative value of the scan CMYK value group in the inconsistent region.
  • the image adjustment unit 102 converts the read image signal value (scan RGB value) of the pixel belonging to the mismatched area of the scanned RGB image that is the scanned image to the signal value (CMYK color space that is the color space of the document image 20) (Cs MMYK values), and (Cs A , Ms A , Ys A , Ks A ), which are representative values of the signal value group in the mismatch region, are obtained, and the scan CMYK signal values of the pixels belonging to the mismatch region and the above
  • the adjustment amount (Ca, Ma, Ya, Ka) is calculated based on the difference from the representative value. Then, the image signal value of the document image 20 is adjusted by adding the obtained adjustment amount to the document image signal value of the corresponding pixel in the inconsistent region.
  • noise is mixed into the scan RGB value due to noise at the time of scanning or dust and / or scratches on the printed matter.
  • noise is also mixed in the document image signal value adjusted by the above-described procedure.
  • an adjustment amount is calculated after performing a smoothing process (for example, a process such as averaging on several sides of the surrounding pixels) on the printed material scan image, or for the calculated adjustment amount Smoothing processing (processing such as averaging with surrounding pixels) is preferably performed.
  • smoothing processing may be applied to both the scanned image and the adjustment amount.
  • FIG. 11 shows a modified example of the configuration shown in FIG. 10, and is a block diagram showing the configuration of the image processing apparatus 120 according to the seventh embodiment. 11, elements that are the same as or similar to those shown in FIG. 10 are given the same reference numerals, and descriptions thereof are omitted.
  • the image adjustment unit 102 in the image processing apparatus 120 illustrated in FIG. 11 includes the mismatch area information 32 obtained from the mismatch detection unit 18, the original image obtained through the color conversion process of the color conversion unit 42, and the chromaticity value. Based on the correspondence data 46, a scan Lab value corresponding to the inconsistent area is acquired. Then, the image adjustment unit 102 converts the scan CMYK values (Cs, Ms, Ys, Ks) corresponding to the inconsistent regions using the third color conversion table 122 prepared in advance.
  • the third color conversion table 122 may employ a Lab ⁇ CMYK conversion table of an appropriate print profile such as a Japan® Color (registered trademark) profile or other standard profile, or a profile of a printing apparatus used for printing. wear.
  • an appropriate print profile such as a Japan® Color (registered trademark) profile or other standard profile, or a profile of a printing apparatus used for printing. wear.
  • the processing after the scan Lab value corresponding to the inconsistent area is converted into the scan CMYK values (Cs, Ms, Ys, Ks) by the third color conversion table 122 is the same as the first example of the image adjustment method described above. It is. However, in this second example, Ka is not necessarily “0”. Comparing the first example and the second example of the image adjustment method, the second example via the device-independent chromaticity value is more preferable.
  • FIG. 12 is a block diagram illustrating a configuration of an image processing apparatus 130 according to the eighth embodiment.
  • 112 has a configuration in which a color conversion table creation unit 134 is added to the configuration of the image processing apparatus 120 described in FIG. 12, elements that are the same as or similar to those shown in FIG. 11 are given the same reference numerals, and descriptions thereof are omitted.
  • the color conversion table creation unit 134 in FIG. 12 is a second color conversion table that represents the correspondence between the original image signal (CMYK) and the chromaticity value (Lab) based on the correspondence between the adjusted original image and the chromaticity value. 136 (corresponding to the target profile) is created.
  • the adjusted original image 104 is created by the image adjustment unit 102, whereby the image signal value (CMYK value in this example) of each pixel in the adjusted original image 104 and the target printed matter 22. Data representing the correspondence with the chromaticity value (Lab value in this example) of each pixel in the read image is obtained. Data representing the correspondence between the image signal value of the adjusted original image 104 and the chromaticity value of the read image of the target printed matter 22 is referred to as “correspondence data between the adjusted original image and chromaticity value”. 132.
  • the color conversion table creation unit 134 in FIG. 12 uses the chromaticity value (CMYK) from the original image signal value (CMYK) based on the “correspondence data 132 between the adjusted original image and chromaticity value” created by the image adjustment unit 102.
  • a second color conversion table 136 that defines the conversion relationship (CMYK ⁇ Lab) for conversion to Lab) is created.
  • the target printed matter 22 which is the actual reproduction target and the adjusted original image 104 as the original image data are used as the basis, the image signals having a partial and irregular arrangement in the color space are used. It is necessary to create a color conversion table from the correspondence between values and chromaticity values. Therefore, the conventional general interpolation method cannot be used. Therefore, the following method is taken.
  • the adjusted document image 104 is simply referred to as a document image or document image data, and the image signal of the adjusted document image 104 is referred to as a document image signal.
  • FIG. 13 shows an example of correspondence data between the document image signal (CM) and the chromaticity value (Lab).
  • FIG. 14 shows grid points in the color space (here, the CM plane) of the document image data corresponding to the input side of the color conversion table.
  • the possible range (range, value range) of the signal value is represented by 0-100%, and the grid points are set in increments of 10% for each axis.
  • the step size of the signal of each axis that defines the lattice point is not limited to 10%.
  • the grid points in 10% increments shown in FIG. 14 indicate the grid points of the original image signal on the input side in the color conversion table.
  • the corresponding Lab value assigned to each grid point corresponds to the color conversion table.
  • ID in FIG. 13 is an identification code for specifying the color (CM value) used in the document image data.
  • the C value and M value represent signal values in the 0-100% range, respectively.
  • the Lab value includes the value of each component of the L value, the a value, and the b value.
  • the corresponding chromaticity value (Lab value) is set at the grid point of the color conversion table corresponding to the document image signal value (CM value) for each ID shown in FIG.
  • grid points that are not related to the original image signal value are not used for color conversion of the original image 20, and are set to appropriate values.
  • CM 2 color conversion table 13 and 14 have been described as a CM 2 color conversion table for the sake of simplicity of explanation, chromaticity values can be set at lattice points in the same manner for a color conversion table of 3 colors or more.
  • the maximum number of grid points surrounding any CM value is 4, but in the case of 3 colors, the maximum is 8 points, and in the case of 4 colors, the maximum is 16 points.
  • the point is referred to and interpolated with the chromaticity value of the adjacent grid point. For this reason, it is also preferable to set the same chromaticity value not only to the directly corresponding grid points but also to adjacent neighboring grid points.
  • the entire color space (even the color portion not directly related to the original image data) has a corresponding chromaticity value (imagined by the operator). It is preferable that the color is close to the color) and the smoothness of the color change is ensured. In order to ensure such smooth continuity of the entire color space, it is preferable to use a method such as the implementation method 2, 3, or 4 described below.
  • Embodiment Method 2 Method for Correcting Temporary Color Conversion Table with Correspondence Data between Document Image Signal and Chromaticity Value
  • the smoothness of the corresponding color change is secured in advance in the entire color space.
  • a “temporary color conversion table” is prepared, and the temporary color conversion table is locally (partially) corrected using correspondence data between the document image signal and the chromaticity value.
  • the “provisional color conversion table” used here is, for example, Japan Color (registered trademark), SWOP (Specifications Web Offset Printing), GRACoL (General Requirements for Applications in Commercial Offset Lithography), Fogra, etc. Any one of color conversion tables representing standard color reproduction in offset printing can be used, and any RGB color conversion table such as sRGB or AdobeRGB can be used.
  • the standard color conversion table as described above and the color conversion table created by the method of the present embodiment 2 in the past are stored in the database, and a new image is read out from the read image of the target print 22 and the original image 20 this time. It is also possible to select a color conversion table closest to the correspondence data between the original image signal and the chromaticity value acquired from the database and use the selected color conversion table as a “temporary color conversion table”. .
  • the average color difference between the original image signal and the correspondence data between chromaticity values is the smallest, Those having the smallest color difference with the correspondence data of the chromaticity values are automatically extracted from the database, and can be used as a “temporary color conversion table”.
  • a configuration in which the candidates are displayed on the display unit (reference numeral 234 in FIG. 16) and selected by the user is also possible. .
  • the chromaticity values are set in the same manner as in the implementation method 1, and the tentative color conversion table is corrected so that the chromaticity values for the lattice points indicated by white circles in FIG. To do.
  • the corrected color conversion table obtained in this way replaces the chromaticity value of the grid point locally with respect to the temporary color conversion table, so the chromaticity value between the grid point with the replaced chromaticity value and the grid point without replacement. It is expected that the continuity (smoothness) will deteriorate. Therefore, it is preferable to further smooth the color conversion table after correction to ensure smoothness of conversion of chromaticity values.
  • a color reproduction model for example, a Neugebauer model can be used.
  • the Neugebauer model is a color that is reproduced by multiplying the area ratio of each color material by adding the chromaticity values of the multiplied colors of 0% and 100% of each color material (primary color) according to the area ratio of each color material. This is a model for obtaining the chromaticity value of.
  • XYZ values are generally used as “chromaticity values”.
  • the color reproduction model will be described with reference to FIG. 15 using an example of CMY3 color materials.
  • the CMY area ratio of the color to be predicted is (fc, fm, fy)
  • w represents the base material (printing base material) itself of the printed matter such as printing paper.
  • the area ratio indicates the coverage per unit area on the printing substrate.
  • the area ratio is expressed as a value between 0 and 1.
  • fc, fm, and fy are values grasped from the signal value (image signal value) of the image data.
  • chromaticity value for example, XYZ value X
  • Xpi w, c, m, y, cm, my, yc, cmy
  • CMY area ratio The chromaticity value X for fc, fm, fy
  • the Y and Z values of the XYZ values can be obtained in the same manner, and the conversion from the XYZ values to the Lab values can be easily performed. In addition, printing of two colors or four or more colors other than three-color printing can be similarly applied.
  • the image signal value (CMYK) grasped from the reading of the target printed matter 22 and the chromaticity value of the target printed matter 22 ( In the correspondence relationship of (XYZ), the color of 0% and 100% of each color material does not necessarily exist.
  • the chromaticity values (Xpi, Ypi, Zpi) corresponding to the multiplication of each color material 0% and 100% of the Neugebauer model are set as unknowns, and the image signal value (CMYK), that is, “Fi”, and the chromaticity of the target printed matter.
  • CMYK image signal value
  • (Xpi, Ypi, Zpi) is estimated by an optimization method using the correspondence of values (Xm, Ym, Zm) as correct data. That is, optimization is performed to find (Xpi, Ypi, Zpi) that minimizes the sum of squares of the differences shown in the following equation.
  • the following expression is an expression related to X.
  • the expressions for Y and Z can be expressed in the same way.
  • j is a subscript meaning an ID (that is, each pixel) of correspondence data between the image signal value (CMYK) and the chromaticity value (XmYmZm) of the target printed matter.
  • Optimized methods such as Newton's method, quasi-Newton's method, and simplex method can be used. It is possible to use a method other than the method exemplified here, and the method to be applied is not limited.
  • the chromaticity value of each grid point of the color conversion table can be calculated by the Neugebauer model.
  • (Xpi, Ypi, Zpi) is estimated by the optimization calculation. If there is a color multiplied by 0% and 100% of the color material in the image signal, the corresponding chromaticity value is (Xpi) as it is. , Ypi, Zpi). Unknowns are reduced and optimization becomes easier.
  • n is a so-called Yule-Nielsen correction coefficient that corrects the nonlinearity of multiplication for the Neugebauer model.
  • optimization may be performed by adding n to the unknown.
  • n may be common to XYZ values, or may be obtained as different coefficients (nx, ny, nz) for X, Y, and Z, respectively.
  • Image processing method The processing contents and procedures of the image processing apparatuses 10, 40, 50, 90, 100, 110, 120, and 130 described in the first to eighth embodiments are grasped as image processing methods. be able to.
  • FIG. 16 is a block diagram illustrating a configuration example of a printing system including an image processing apparatus according to an embodiment of the present invention.
  • the printing system 210 includes an image editing device 212, a print control device 214, and a printing unit 216.
  • the image editing device 212 plays a role as an image processing device according to the embodiment.
  • the image editing device 212 functions as the image processing device described in each of the first to eighth embodiments.
  • the image editing apparatus 212 functions as an image inspection apparatus that detects color mismatch between the original image 20 and the target printed matter 22 and performs color conversion processing using the color conversion table, image data processing (editing), and the like.
  • the print image data generated by the image editing device 212 is sent to the print control device 214.
  • the print control device 214 controls the printing operation by the printing unit 216 based on the print image data generated by the image editing device 212.
  • the print control device 214 can include a halftone processing unit that converts continuous tone image data into binary or multilevel halftone image data.
  • the image editing device 212 and the print control device 214 are illustrated as separate configurations, but a configuration in which the functions of the print control device 214 are installed in the image editing device 212 is also possible. For example, a configuration in which one computer functions as the image editing device 212 and the print control device 214 is possible.
  • the printing unit 216 is an image forming unit that performs printing under the control of the print control device 214.
  • the printing method in the printing unit 216 and the type of color material to be used are not particularly limited.
  • various printers such as an ink jet printer, an electrophotographic printer, a laser printer, an offset printer, and a flexographic printer can be employed.
  • the term “printer” is understood as synonymous with terms such as a printing press, a printing apparatus, an image recording apparatus, an image forming apparatus, and an image output apparatus.
  • As the color material, ink, toner, or the like can be used depending on the type of the printing unit 216.
  • a configuration in which the printing control device 214 and the printing unit 216 are combined is described as a printing device 218 assuming a plateless digital printing machine. It is possible to configure the printing device 218 in which the printing control device 214 and the printing unit 216 are integrally combined. Alternatively, the printing control device 214 and the printing unit 216 may be configured as separate devices, and wired or wireless. A mode in which signals are exchanged by communication connection is also possible.
  • the system configuration includes a plate making device (not shown) such as a plate recorder that creates a printing plate from image data in addition to the printing control device 214. .
  • a plate making device such as a plate recorder that creates a printing plate from image data in addition to the printing control device 214.
  • a configuration in which a plate making device (not shown), the print control device 214, and the printing unit 216 are combined corresponds to the printing device 218.
  • the printing system 210 of this example is an inkjet that can form a color image using four colors of ink of cyan (C), magenta (M), yellow (Y), and black (K) as an example of the printing apparatus 218.
  • C cyan
  • M magenta
  • Y yellow
  • K black
  • the number of ink colors and combinations thereof are not limited to this example.
  • CMYK four colors
  • the image editing device 212 includes an image data input unit 220, an image data storage unit 222, an image processing unit 224, and a control unit 226.
  • the image editing apparatus 212 includes an image reading unit 12, a colorimeter 232, a display unit 234, and an input device 236.
  • the image editing device 212 can be realized by a combination of computer hardware and software. Specifically, the CPU operates by loading various programs into a CPU (Central Processing Unit) (not shown), the image data input unit 220 in the image editing device 212, the image data storage unit 222, and the image processing. The unit 224 and the control unit 226 are controlled. Software is synonymous with program.
  • the image editing device 212 can be realized as one function of a RIP (Raster image processor) device.
  • the image data input unit 220 is a data acquisition unit for taking in the original image 20.
  • the image data input unit 220 can be configured by a data input terminal that takes in the document image 20 from the outside or another signal processing unit in the apparatus.
  • a wired or wireless communication interface unit may be employed, a media interface unit that reads and writes an external storage medium such as a memory card may be employed, or an appropriate one of these modes may be employed. It may be a combination.
  • the image data storage unit 222 is means for storing the document image 20 acquired via the image data input unit 220.
  • the document image 20 captured from the image data input unit 220 is stored in the image data storage unit 222.
  • the image reading unit 12 reads a printed material such as the printed material 250 printed by the target printed material 22 or the printing apparatus 218, and generates read image data of the reading object.
  • the function of taking the read image data obtained by the image reading unit 12 into the image processing unit 224 corresponds to the “function of acquiring read image data”.
  • the image processing unit 224 performs processing for detecting a color mismatch between the document image 20 and the target print 22 based on the read image data acquired from the image reading unit 12 and the document image 20.
  • the image processing unit 224 can perform a process of adjusting the image signal value of the document image 20 in which inconsistency is detected and creating an adjusted document image 104 (see FIG. 11).
  • the image processing unit 224 can perform a process of creating a color conversion table (second color conversion table 136 described with reference to FIG. 12) necessary for color reproduction by the printing unit 216.
  • the image processing unit 224 performs color conversion processing using the color conversion table of the target profile on the original image 20 or the adjusted original image 104 (see FIG. 11), and generates image data to be transferred to the printing apparatus 218. It has the function to do.
  • the image processing unit 224 has a function of performing processing such as resolution conversion and gradation conversion on the document image 20 and the read image data as necessary.
  • the printing system 210 of this example includes a colorimeter 232 in order to increase the accuracy of color information of an image read by the image reading unit 12.
  • a spectrocolorimeter is used as the colorimeter 232. The spectrocolorimeter measures the reflectance of the visible light wavelength region at a predetermined wavelength increment, calculates the XYZ value using the XYZ color matching function representing the human visual spectral sensitivity, and obtains the colorimetric value To do.
  • the spectrocolorimeter used as the colorimeter 232 measures the reflectance in the wavelength range of 380 nm to 730 nm, which is the wavelength range of visible light, with a wavelength step size (wavelength step) of 10 nm, and obtains a colorimetric value. .
  • the XYZ values obtained from the colorimeter 232 can be converted into color coordinate values in a device-independent color space such as an L * a * b * color system by a known conversion formula.
  • the colorimeter 232 is a form of color measurement means (color measurement unit).
  • the image processing unit 224 can create a color conversion table in consideration of the colorimetric value information acquired from the colorimeter 232 in addition to the read image data obtained from the image reading unit 12.
  • the control unit 226 controls the operation of each unit of the image editing device 212.
  • the display unit 234 and the input device 236 function as a user interface.
  • the input device 236 can employ various means such as a keyboard, a mouse, a touch panel, and a trackball, and may be an appropriate combination thereof. Note that a configuration in which the display unit 234 and the input device 236 are integrally configured, such as a configuration in which a touch panel is arranged on the screen of the display unit 234, is also possible.
  • the operator uses the input device 236 while viewing the contents displayed on the screen of the display unit 234, inputs printing conditions, selects an image quality mode, specifies a colorimetric position, inputs / edits attached information, searches information, and the like. Various information can be input. Also, the input content and other various information can be confirmed through display on the display unit 234.
  • the display unit 234 functions as a notification unit that notifies error information.
  • information notifying the mismatch is displayed on the screen of the display unit 234.
  • FIG. 17 is a block diagram showing an overview of a target profile creation function and a printing function in the printing system 210.
  • the printing system 210 has a function of performing color matching based on the given target print 22 and the original image 20 so that the print device 218 can obtain a print 250 that reproduces the same color as the target print 22.
  • the “equivalent color” includes an acceptable range that can be satisfied as a substantially equivalent range of color differences that the client can accept.
  • the printing system 210 includes an image reading unit 12, and as shown in FIG. 17, an image association unit 14, a first color conversion unit 264, A target profile creation unit 266.
  • the first color conversion unit 264 corresponds to the color conversion unit 42 described with reference to FIG.
  • the first color conversion unit 264 reads the signal value of the color component in the device-independent color space (Lab in this example) from the read image data represented by the color component signal value in the device-dependent color space (RGB in this example).
  • the image data is converted into read image data after color conversion represented by
  • the first color conversion unit 264 uses the color conversion table of the scanner profile 268 (corresponding to the first color conversion table 44 described in FIG. 3) to perform color conversion processing (RGB ⁇ Lab conversion).
  • the scanner profile 268 is a color conversion table (“first color conversion table”) indicating the correspondence between RGB values, which are read image signal values in the device-dependent color space obtained from the image reading unit 12, and device-independent Lab values. )including.
  • the signal value of the read image before color conversion by the first color conversion unit 264 is “scan RGB value”, and the signal value of the read image after color conversion by the first color conversion unit 264 is “scan Lab value”. is there.
  • the Lab color space is used as the device-independent color space, but other device-independent color spaces can also be used.
  • the color space of the read image signal (RGB) obtained from the image reading unit 12 is “first color space”
  • the device-independent color space exemplified by the Lab color space is “second color space”
  • the first color conversion unit 264 performs processing for converting a signal value represented by the first color space into a signal value represented by the second color space.
  • the target profile creation unit 266 corresponds to the color conversion table creation unit 134 described with reference to FIG.
  • the target profile creation unit 266 determines the color conversion table of the target profile (“second color conversion table” from the correspondence between the original image 20 or the adjusted original image 104 (see FIG. 11) and the read image represented by the chromaticity value. ”).
  • the printing system 210 is obtained from the colorimeter 232 and a colorimetric position association unit 270 that performs a process of associating the colorimetric position from which the colorimetric value is obtained by the colorimeter 232 with the position in the document image 20.
  • a first profile correction unit 272 that corrects the scanner profile 268 using the colorimetric values.
  • a configuration including a chromaticity value replacement unit 274 that directly corrects the chromaticity value of the Lab image after color conversion by the first color conversion unit 264 is also possible. .
  • the components of the image association unit 14, the first color conversion unit 264, the target profile creation unit 266, the colorimetric position association unit 270, the first profile correction unit 272, and the chromaticity value replacement unit 274 are shown in FIG. It is included in the image processing unit 224 of the image editing apparatus 212 described.
  • the image processing unit 224 includes a second color conversion unit 280, a second profile correction unit 282, and a difference chromaticity value calculation unit 284.
  • the second color conversion unit 280 performs color conversion processing of the original image 20 or the adjusted original image 104 obtained by partially adjusting the image signal value of the original image 20.
  • the second color conversion unit 280 uses the target profile 292 conforming to the ICC profile format and the printer profile 294 to perform color conversion processing of the original image 20 or the adjusted original image 104, and is suitable for the printing apparatus 218.
  • An image signal having a data format is generated.
  • an output device signal in a CMYK signal format is generated as an image signal in a data format suitable for the printing apparatus 218.
  • the color conversion table (referred to as “input color conversion table”) of the target profile 292 is a color conversion table in which the target color (target color) of the document image signal is defined in a device-independent color space.
  • the color conversion table (corresponding to the “second color conversion table”) of the target profile 292 is a table describing the conversion relationship of CMYK ⁇ Lab. Assuming that the color space of the document image signal is the third color space, the input color conversion table changes from the signal value represented by the third color space to the signal value represented by the second color space independent of the device. This table defines the conversion relationship.
  • the printer profile 294 is also called an output profile.
  • the color conversion table (referred to as “output color conversion table”) of the printer profile 294 is a color conversion table that defines the correspondence between the CMYK signal output to the printing apparatus 218 and the Lab value of the output color by the printing apparatus 218.
  • the output color conversion table is a table describing the conversion relationship (Lab ⁇ CMYK) to the output CMYK value corresponding to the Lab value to be reproduced.
  • the differential chromaticity value calculation unit 284 reads the target chromaticity value (Lab value of the target printed matter 22) created by color conversion from the read image data of the target printed matter 22 by the first color converting unit 264 and the printed matter 250. It is a calculation part which calculates the difference chromaticity value (Lab difference) showing the difference of the printing chromaticity value (Lab value of the printed matter 250) produced
  • the difference information calculated by the difference chromaticity value calculation unit 284 is provided to the second profile correction unit 282.
  • the second profile correction unit 282 performs processing for correcting the target profile 292 based on the difference information.
  • the second profile correction unit 282 is not limited to the configuration for correcting the target profile 292, and may be configured to correct the printer profile 294.
  • the second profile correction unit 282 creates a color correction profile 296 based on the difference information, and combines the target profile 292, the color correction profile 296, and the printer profile 294, so that the second color conversion unit 280 The color conversion table can be modified.
  • the color adjustment operation for performing color matching between the target printed material 22 and the printed material 250 using the image reading unit 12 can be broadly divided into the following two stages.
  • the first stage is to estimate the target profile by reading the target printed matter 22 by the image reading unit 12, that is, to create the target profile.
  • each of the target printed matter 22 and the printed matter 250 printed by the printing apparatus 218 is read by the image reading unit 12 and applied to the second color conversion unit 280 based on the reading results. Is to improve the color matching accuracy.
  • the color adjustment technology installed in the printing system 210 has the following advantages.
  • the image reading unit 12 reads the chromaticity value of the target printed matter acquired by reading the target printed matter 22 with the image reading unit 12 and the color printed using the temporary input color conversion table. Based on the acquired chromaticity value of the printed matter, the provisional input color conversion table can be corrected, the output color conversion table can be corrected, or the color correction table can be created. Thereby, the color conversion table applied to the second color conversion unit 280 can be made more appropriate, and the accuracy of color conversion can be improved. Further, by repeating such processing, the color of the printed material can be made closer to the color of the target printed material 22.
  • a color conversion table (second color conversion table) representing a multidimensional correspondence relationship between chromaticity values corresponding to document image signal values is created, and a target print product and a print product are displayed. Since the colors are matched, the degree of freedom in color correction is higher than in the conventional method, and more accurate color correction (color matching) is possible. According to the present embodiment, sufficient color matching accuracy can be obtained even when the color reproduction characteristics of the printing machine that outputs the target printed matter and the printing device 218 used for printing the printed matter 250 are greatly different.
  • a program for causing a computer to function is a CD-ROM (Compact Disc read-only memory), a magnetic disk, or other computer-readable medium (a non-transitory information storage medium as a tangible object). It is possible to provide a program through an information storage medium. Instead of providing the program by storing the program in such an information storage medium, it is also possible to provide the program signal as a download service using a communication network such as the Internet.
  • a communication network such as the Internet.
  • each function of the image processing apparatus can be realized by the computer.
  • the computer can realize the creation function and the color conversion processing function.
  • each embodiment can be realized by a single computer, or can be realized by a plurality of computers.
  • the color matching process for the target printed matter can be made more efficient, and the number of man-hours for color adjustment can be reduced.
  • DESCRIPTION OF SYMBOLS 10 ... Image processing apparatus, 12 ... Image reading part, 14 ... Image matching part, 15 ... Area classification
  • Color converter , 44 First color conversion table, 50, 90, 100: Image processing apparatus, 102: Image adjustment unit, 104: Document image after adjustment, 110, 120, 130: Image processing apparatus, 134: Color conversion table creation unit DESCRIPTION OF SYMBOLS 136 ... 2nd color conversion table, 210 ... Printing system, 212 ... Image editing apparatus, 214 ... Print control apparatus, 216 ... Printing part, 218 ... Printing apparatus, 224 ... Image processing part, 226 ... Control part, 264 ... The color conversion unit 1, 266 ... target profile creating section, 280 ... second color conversion unit, 292 ... target profile, 294 ... printer profile

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Processing (AREA)

Abstract

原稿画像データと目標印刷物の色の不整合を検出することができ画像処理装置及び方法、並びにプログラムを提供する。画像処理装置(10)は画像読取部(12)により目標印刷物(22)を読み取って得られる第1の読取画像データ(24)を取得する。画像処理装置(10)は第1の読取画像データ(24)、又は第1の読取画像データ(24)を色変換して得られる第2の読取画像データのいずれかである読取画像データと目標印刷物(22)の原稿画像データ(20)との位置関係を対応付ける処理を行う画像対応付け部(14)と、原稿画像データ(20)における同一の原稿画像信号値の画像領域に対応する読取画像データの画像領域ごとに、読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理部(16)と、統計情報に基づいて原稿画像データ(20)と目標印刷物(22)の色の不整合を検出する不整合検出部(18)と、を備える。

Description

画像処理装置及び方法、並びにプログラム
 本発明は画像処理装置及び方法、並びにプログラムに係り、特に、原稿画像データと印刷物の色の不整合を検出する画像検査技術に関する。
 特許文献1には、印刷された画像を撮像して得られる検査画像と、印刷に用いられる元画像データから生成される基準画像とを比較して、印刷画像中の欠陥を検査する方法が記載されている。特許文献1に記載の方法によれば、基準画像中の印刷方向に並ぶ画素の値を積算して得られる基準積算値分布と、検査画像中の印刷方向に並ぶ画素の値を積算して得られる検査積算値との少なくとも一方について、予め定められた処理により各積算値を増加又は減少させる感度補正を行い、感度補正後に基準積算値分布と検査積算値分布とを比較する構成となっている。
 また、特許文献2に示された印刷物の検査方法は、マスタ画像と印刷物の読取画像とを予め設定されたエリアに区分けし、区分けされたマスタ画像のエリア画像の濃度レベルと、対応する読取画像のエリア画像における濃度レベルとの差に基づいて印刷物の欠陥を検出している。特許文献2に記載の方法では、マスタ画像と印刷物の読取画像の画像信号値(つまり、濃度レベル)が近ければ、良好(欠陥がない)という判定基準となる。また、特許文献2は、印刷物の良否判定の基準となるマスタ画像を、コンピュータによりデザインされたデザインデータ(デジタルデータ)に基づいて作成する方法を開示している。特許文献2でいう「デザインデータ」は、特許文献1でいう「印刷に用いられる元画像データ」に対応する用語である。
特開2011-209105号公報 特開2008-8841号公報
 本明細書では、印刷用の画像内容を表す画像データを「原稿画像データ」、又は単に「原稿画像」という。特許文献1でいう「印刷に用いられる元画像データ」や特許文献2でいう「デザインデータ」は、原稿画像データに該当する。特許文献1及び特許文献2のいずれの方法も、原稿画像データ自体に誤りがあることは想定されておらず、原稿画像データと、再現目標とする印刷物との間に不一致がないことが検査の前提条件となっている。
 ところが、現実の印刷業務におけるワークフローにおいては、例えば、デザイン工程などにおいて原稿画像データを部分的に修正して目標とする印刷物の色を調整したにもかかわらず、色調整前の元の原稿画像データと、色調整後の目標印刷物(色調整後の原稿画像データに基づいて印刷された印刷物)とが製版工程及び/又は印刷工程に引き渡されるといったことが人為的なミス等により起こりうる。
 また、印刷装置は、一般に、目標の色再現を行うためにICC(International Color Consortium)プロファイル等の色変換テーブルを利用して画像データの色変換処理が行われる。ICCプロファイルを利用したカラーマネージメントシステム(CMS;Color Management System)は、色再現の目標を表す入力プロファイルと、印刷装置の色再現を表す出力プロファイルが必要となる。印刷に用いるプロファイルは、通常、印刷装置ごとに、その印刷装置により印刷出力されたカラーチャートの測色結果に基づいて作成される。
 しかし、実際の印刷業務においては、依頼者であるクライアント等から原稿画像データと色見本印刷物である目標印刷物のみが提供され、印刷物の色を目標印刷物の色に合わせることが要求される場合がある。提供される目標印刷物は、どのような印刷条件により印刷されたか素性が不明であることがある。つまり、原稿画像データの印刷に必要な目標プロファイル等は未知であり、現物の目標印刷物そのものが色再現の目標となる。このような場合、製版工程や印刷工程のオペレータが、画像データの修正や印刷条件の調整を手作業で行い、試行錯誤により、色の合わせ込みを実施する必要があり、非常に手間がかかる。
 このような課題に対して、本願の発明者は、原稿画像データと目標印刷物(色見本印刷物)の読取画像に基づいて目標印刷物の色再現に対応した目標プロファイルを作成し、作成した目標プロファイルを入力プロファイルとして用いて原稿画像を色変換して、印刷物と目標印刷物との色合わせを行う色調整技術を開発した。
 この色調整技術において、原稿画像データと目標印刷物の読取画像に基づいて目標プロファイルに相当する色変換テーブルを作成する場合、原稿画像と目標印刷物の色が整合していること、つまり、原稿画像データで同一の画像信号値の領域は、目標印刷物上の色再現もほぼ同一であることが前提条件となる。
 ところが、既述のように現実のワークフローでは、提供される原稿画像データと目標印刷物との色の不整合が起こりうる。デザイン工程等における原稿画像の部分修正により、元の原稿画像では同一画像信号値の領域であったが、レタッチして部分的に異なる画像信号値となるように画像データを調整するようなデータ加工を含む色調整の作業が行われる。その後、色調整後の原稿画像データを用いて目標印刷物を出力したにも関わらず、誤って色調整前の原稿画像データと色調整後の目標印刷物とが製版工程及び/又は印刷工程へと引き渡されるといったことが起こり得る。
 このような場合、提供された色調整前の原稿画像データと、色調整後の目標印刷物との組み合わせから色変換テーブルを作成したとしても、色が整合しない領域では色合わせ精度が低くなる問題が発生する。
 また、色変換テーブルを作成しない場合であっても、製版工程及び/又は印刷工程において原稿画像データと整合しない色見本と印刷物の色を合わせるための調整工数の増大や、結果的に十分に色が合わせられない等の問題が起こる。
 本発明はこのような事情に鑑みてなされたもので、原稿画像データと目標印刷物の色の不整合を検出することができ、上述した複数の課題のうち少なくとも一つの課題を解決することができる画像処理装置及び方法、並びにプログラムを提供することを目的とする。
 課題を解決するために、次の発明態様を提供する。
 第1態様の画像処理装置は、目標印刷物を読み取って目標印刷物の読取画像を表す第1の読取画像データを取得する画像読取部と、第1の読取画像データ、又は第1の読取画像データを色変換して得られる第2の読取画像データのいずれかである読取画像データと目標印刷物の原稿画像データとの位置関係を対応付ける処理を行う画像対応付け部と、原稿画像データにおける同一の原稿画像信号値の画像領域に対応する読取画像データの画像領域ごとに、読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理部と、統計情報に基づいて原稿画像データと目標印刷物の色の不整合を検出する不整合検出部と、を備える画像処理装置である。
 「目標印刷物の原稿画像データ」とは、目標印刷物の画像内容に対応する印刷原稿のデータである。目標印刷物は原稿画像データから印刷されたものであってもよいし、原稿画像データの画像信号値が部分的に調整(変更)された色調整後の原稿画像データから印刷されたものであってもよい。色調整後の原稿画像データの元となる色調整前の原稿画像データも「目標印刷物の原稿画像データ」に該当する。
 原稿画像データと目標印刷物の色の不整合が存在する場合、同一の原稿画像信号値の画像領域に対応する目標印刷物の読取画像データの画像領域における読取画像信号値のばらつき(データの散らばり)が大きくなる。このことを利用して、同一の原稿画像信号値の画像領域に対応する目標印刷物の読取画像信号値の分布を反映する統計情報から原稿画像データと目標印刷物の色の不整合を検出することができる。これにより、原稿画像データを用いて印刷される印刷物を目標印刷物の色に合わせる色合わせの作業を効率化することができる。
 第2態様として、第1態様の画像処理装置において、原稿画像データの各画素の原稿画像信号値を基に、原稿画像データの各画素を同じ原稿画像信号値を有する画素の集合に分類することにより、原稿画像データを同一の原稿画像信号値の画像領域に分ける処理を行う領域分類処理部を備える構成とすることができる。
 第3態様として、第1態様又は第2態様の画像処理装置において、統計処理部は、同一の原稿画像信号値の画像領域に対応する読取画像データの画像領域に属する読取画像データの画素群を母集団とする統計処理を行い、母集団に属する画素の読取画像信号値のばらつきを表す統計量及び読取画像信号値のヒストグラムの少なくとも一つの統計情報を生成する構成とすることができる。
 第4態様として、第1態様から第3態様のいずれか一態様の画像処理装置において、画像読取部により取得される第1の読取画像データの読取画像信号値と、デバイス非依存色空間の値により表される色度値との対応関係を表す第1の色変換テーブルを用いて、第1の読取画像データの読取画像信号値を色度値に変換する色変換部を備え、統計処理部は、色変換部により色変換された読取画像の色度値を読取画像信号値として統計情報を生成する構成とすることができる。
 第5態様として、第1態様から第4態様のいずれか一態様の画像処理装置において、不整合検出部は、統計情報に基づき原稿画像データと読取画像データの色の不整合領域を検出する構成とすることができる。
 第6態様として、第5態様の画像処理装置において、原稿画像データにおける不整合領域に属する画素の原稿画像信号値を、読取画像データの不整合領域に属する画素の読取画像信号値に基づいて調整する画像調整部を備える構成とすることができる。
 第7態様として、第6態様の画像処理装置において、画像調整部は、読取画像データの不整合領域に属する画素の読取画像信号値を原稿画像データの色空間による信号値に変換して、不整合領域に属する画素の読取画像信号値を原稿画像データの色空間に変換した信号値と、不整合領域の信号値群の代表値との差分に基づき調整量を算出する構成とすることができる。
 第8態様として、第7態様の画像処理装置において、画像調整部は、原稿画像データにおける不整合領域に属する画素の原稿画像信号値に、調整量を加算して調整後の原稿画像信号値とする構成とすることができる。
 第9態様として、第6態様から第8態様のいずれか一態様の画像処理装置において、画像調整部によって原稿画像信号値が調整された調整後の原稿画像データと、第1の読取画像データの読取画像信号値をデバイス非依存色空間の値で表される色度値に変換した第2の読取画像データとの対応関係に基づいて、原稿画像データの色空間による原稿画像信号値と色度値の対応関係を表す第2の色変換テーブルを作成する色変換テーブル作成部を備える構成とすることができる。
 第10態様の画像処理方法は、目標印刷物を読み取って目標印刷物の読取画像を表す第1の読取画像データを取得する画像読取工程と、第1の読取画像データ、又は第1の読取画像データを色変換して得られる第2の読取画像データである読取画像データと目標印刷物の原稿画像データとの位置関係を対応付ける処理を行う画像対応付け工程と、原稿画像データにおける同一の原稿画像信号値の画像領域に対応する読取画像データの画像領域ごとに、読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理工程と、統計情報に基づいて原稿画像データと目標印刷物の色の不整合を検出する不整合検出工程と、を含む画像処理方法である。
 第10態様において、第2態様から第9態様で特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う手段は、これに対応する処理や動作の「工程(ステップ)」の要素として把握することができる。
 第11態様のプログラムは、コンピュータに、目標印刷物を読み取る画像読取部から目標印刷物の読取画像を表す第1の読取画像データを取得する機能と、第1の読取画像データ、又は第1の読取画像データを色変換して得られる第2の読取画像データである読取画像データと目標印刷物の原稿画像データとの位置関係を対応付ける処理を行う画像対応付け機能と、原稿画像データにおける同一の原稿画像信号値の画像領域に対応する読取画像データの画像領域ごとに、読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理機能と、統計情報に基づいて原稿画像データと目標印刷物の色の不整合を検出する不整合検出機能と、を実現させるためのプログラムである。
 第11態様のプログラムについて、第2態様から第9態様により特定した事項と同様の事項を適宜組み合わせることができる。その場合、画像処理装置において特定される処理や機能を担う手段としての処理部や機能部は、これに対応する処理や動作を行うプログラムの「機能」の要素として把握することができる。
 本発明によれば、原稿画像データと目標印刷物の色の不整合を検出することができる。
図1(A)は原稿画像の例を示す図であり、図1(B)は目標印刷物の例を示す図である。 図2は第1実施形態に係る画像処理装置の構成を示すブロック図である。 図3は第2実施形態に係る画像処理装置の構成を示すブロック図である。 図4は第3実施形態に係る画像処理装置の構成を示すブロック図である。 図5は画像対応付け部における画像の位置合わせ処理の具体例を示したブロック図である。 図6(A)は原稿画像の例を示す図であり、図6(B)は目標印刷物の例を示す図である。 図7は前処理を含む画像対応付けの処理を行う構成のブロック図である。 図8は第4実施形態に係る画像処理装置の構成を示すブロック図である。 図9は第5実施形態に係る画像処理装置の構成を示すブロック図である。 図10は第6実施形態に係る画像処理装置の構成を示すブロック図である。 図11は第7実施形態に係る画像処理装置の構成を示すブロック図である。 図12は第8実施形態に係る画像処理装置の構成を示すブロック図である。 図13は原稿画像信号と色度値の対応関係データの例を示す図表である。 図14は色変換テーブルの入力側に相当する原稿画像データの色空間(ここではCM面)の格子点を表す説明図である。 図15はノイゲバウア(Neugebauer)モデルによる色度値の算出方法の説明図である。 図16は本発明の実施形態に係る画像処理装置を含んだ印刷システムの構成例を示すブロック図である。 図17は印刷システムにおける目標プロファイルの作成機能と印刷機能の概要を示したブロック図である。
 以下、添付図面に従って本発明の好ましい実施の形態について詳説する。
 [用語について]
 まず、実施形態の説明で使用する用語について説明する。
 目標印刷物とは、再現すべき目標色の色見本となる印刷物であり、現物の色見本印刷物として与えられる。原稿画像データとは、目標印刷物に対応する印刷原稿の画像内容を表すデジタル画像データである。原稿画像データは、印刷面における全体の画像内容を示す全体画像のデータであってもよいし、印刷面に記録される画像の一部としての画像部品(原稿部品)のデータであってもよい。
 原稿画像データのデータ形式は、特に限定されない。本実施形態では、原稿画像データは、画素ごとにシアン(C)、マゼンタ(M)、イエロー(Y)、及びブラック(K)の各カラー成分の信号値が定められたCMYK画像であるとする。CMYK画像は、画素ごとにCの信号値、Mの信号値、Yの信号値、Kの信号値を有しているデジタル画像を指す。各色成分の信号値は、それぞれ8ビット(0-255階調)の信号値により表されるものとする。もちろん、原稿画像データは、CMYK画像に限らず、例えば、画素ごとに、赤(R)、緑(G)、及び青(B)の各カラー成分の信号値が定められたRGB画像などであってもよいし、CMYK信号と特色信号の組み合わせの形式などでもよい。また、画像信号の階調数(ビット数)についてもこの例に限らない。
 なお、原稿画像データがRGB画像により与えられる場合は、RGB→CMYK変換の色変換処理によってCMYK画像に変換することができる。
 本実施形態では、「原稿画像データ」を意味する用語として「原稿画像」という用語を用いる。すなわち、原稿画像は、印刷原稿の画像内容を表すデジタル画像データの意味を含んでおり、原稿画像データと同義である。
 本実施形態では、色の値を表すデバイス非依存色空間の表色系(色座標系)として、L***表色系を用いる例について説明するが、デバイス非依存の表色系はこれに限定されるものではない。例えば、国際照明委員会が定める、XYZ表色系、Yxy表色系、L***表色系の他、HSV表色系、HLS表色系、YCbCr表色系などを用いることが可能である。XYZ表色系は、輝度(明るさ)を含む刺激値Yと色の刺激値X,Zにより色が表される。Yxy表色系は輝度Yと色度座標x,yにより色が表される。HSV表色系は、色相H(hue)、彩度S(saturation)、及び明度V(value)又はB(brightness)により色が表される。HLS表色系は、色相H(hue)、彩度S(saturation)及び輝度L(luminance)により色が表される。YCbCr表色系は、輝度Yと色差Cb,Crにより色が表される。
 本明細書では、デバイス非依存の表色系により表される色の値を「色度値」という。つまり、本明細書において「色度値」という用語は、XYZ表色系に限らず、デバイス非依存色空間の表色座標により表される色の値を意味するものである。
 本明細書では表記を簡略化するため、L***表色系の色空間を「Lab色空間」と表記し、Lab色空間の座標値により表される色度値を「Lab値」と表記する。また、各画素の画像信号値がLab値によって記述される画像データを「Lab画像」と表記する。
 <原稿画像と目標印刷物の色の不整合について>
 原稿画像と目標印刷物の色の不整合とは、原稿画像上では同一の画像信号値(CMYK値)であるにもかかわらず、目標印刷物上では異なる色になっていることを指す。
 [不整合の具体例]
 印刷装置によって印刷される印刷の面内ばらつきの影響は、例えば、大きくても色差5程度である。一般的な業務用の印刷装置の平均では、印刷の面内ばらつきは、色差1程度である。このような印刷装置に起因する印刷の面内ばらつきを「許容色差」と呼ぶ。もちろん、上記に例示した「色差5程度」の記載や「色差1程度」の記載はあくまでも一例であり、印刷装置に起因する印刷の面内ばらつきは、必ずしも上記に例示の記載に限らない。
 原稿画像では同一画像信号値であるはずなのに、印刷物上において許容色差よりも十分大きい色の差異がある場合は、誤った原稿画像が提供されていることが疑われる。例えば、原稿画像を作成するデザイン工程にて、或いはクライアント側において意図的に、色見本印刷時のデータ上で部分的に印刷原稿の画像信号値を調整したが、製版工程及び/又は印刷工程、或いは印刷会社側には調整前の画像データが原稿画像として誤って提供された可能性がある。
 図1(A)は原稿画像の例を示す図であり、図1(B)は目標印刷物の例を示す図である。図1(A)の原稿画像1は、目標印刷物の原稿画像であり、画像信号値を部分的に調整する前の調整前原稿画像を示している。図1(A)に示した原稿画像1は、星形の画像領域である星形領域2と、三日月形の画像領域である三日月形領域3とを有している。原稿画像1の星形領域2と三日月形領域3のCMYK値は同一の画像信号値となっている。
 図1(B)に示した目標印刷物4は、原稿画像1の画像信号値を調整した後の調整後原稿画像(図示せず)に基づいて印刷された印刷物を示している。調整後原稿画像では、三日月形領域3の画像信号値が変更されており、目標印刷物4における星形領域5と三日月形領域6とは、それぞれ異なる色により印刷されている。
 このような事情を考慮せずに、原稿画像1と目標印刷物4の組み合わせから、原稿画像1の画像信号値と、目標印刷物4の読取画像の信号値との対応付けを行い、目標プロファイルを作成した場合、目標印刷物4における星形領域5の色と三日月形領域6の色の違いは、両者の間の色(例えば平均値)に置き換えられてしまう。その結果、作成された目標プロファイルにおける図1(A)中の星形領域2及び三日月形領域3のCMYK値に対するLab値は、目標印刷物4の星形領域5の色と三日月形領域6の色の間の色になってしまい、色合わせ精度が低下してしまう問題が発生する。
 また、上述の目標プロファイルを作成しない場合であっても、原稿画像1と目標印刷物4の組み合わせから、目標印刷物4の色を再現した印刷を実施しようとすると、製版工程及び/又は印刷工程において色調整に多くの手間がかかったり、十分に色が合わせられなかったりすることが起こり得る。なお、製版工程及び/又は印刷工程においては、画像を部分的に調整することは稀であり、トーンカーブや印刷濃度(インキ供給量)等により全体的な色調を調整する場合がほとんどである。この場合、そもそも星形領域5と三日月形領域6の両者を両立した色合わせは不可能であるが、製版工程の現場や印刷工程の現場では目標印刷物4の色再現に近づけようと不毛な調整作業に時間をとられることになる。以下に述べる実施形態は、上述した複数の課題の少なくとも一つを解決する。
 <第1実施形態>
 図2は第1実施形態に係る画像処理装置10の構成を示すブロック図である。図2では処理部の構成と併せて、データの流れを示した。画像処理装置10は、画像読取部12と、画像対応付け部14と、統計処理部16と、不整合検出部18と、を備える。画像処理装置10はCPU等により構成されている。そして、当該CPUに各種プログラムがロードされることにより、画像処理装置10が備える各機能を発揮する。後述する、他の実施形態における画像処理装置においても同様である。本実施形態においては画像読取部12と、画像対応付け部14と、統計処理部16と、不整合検出部18としての機能を発揮する。そして、画像処理装置10は、原稿画像20と目標印刷物22との色の不整合を検出する画像検査装置の役割を果たす。
 原稿画像20は、目標印刷物22の印刷画像に対応した原稿画像データである。ここでは、原稿画像20の各画素がCMYKの各色成分の信号値を有するCMYK画像のデータとする。目標印刷物22は、原稿画像20を基に印刷された印刷物、又は原稿画像20の画像信号値が部分的に変更された色調整後の原稿画像を基に印刷された印刷物である。つまり、目標印刷物22の原稿画像20は、目標印刷物22の印刷に直接的に使用されていない色調整前の調整前原稿画像である場合がある。
 画像読取部12は、印刷物を読み取って、光学像を電子画像データに変換し、読取画像を表すカラー画像としての読取画像データを生成する。画像読取部12には、例えば、読取画像をRGBの各色成分の画像信号で表したRGB画像のデータとして出力が可能なカラーイメージスキャナを用いることができる。本例の画像読取部12には、R/G/Bの色成分の画像信号により表される読取画像を取得できるスキャナが用いられる。画像読取部12から取得した読取画像を「スキャン画像」と呼ぶ場合がある。画像読取部12から得られるRGB画像を「スキャンRGB画像」といい、スキャンRGB画像における画像信号値を「スキャンRGB値」という。
 なお、画像読取部12は、スキャナに代えて、カメラを利用することも可能である。ただし、画像読取部12にカメラを使用する場合、撮像面内の照明ムラなどの影響を受けやすいため、シェーディング補正等をすることが好ましい。カメラによって撮影して得られる撮影画像が「読取画像」に相当する。「撮影」という用語は「撮像」と同義である。カメラは撮像素子としての二次元イメージセンサを有し、撮影した光学像を電子画像データに変換し、撮影画像を表すカラー画像としての撮影画像データを生成する。カメラの具体的な形態は特に限定されない。カメラは、二次元イメージセンサの受光面の各感光画素に対応してR,G,Bのカラーフィルタがモザイク状に配列された単板式の撮像装置であってもよいし、入射光をR,G,Bの色成分に分ける色分解光学系とR,G,Bの各チャンネルについて、チャンネルごとに二次元イメージセンサを備えた三板式の撮像装置であってもよい。
 目標印刷物22を画像読取部12により読み取ることにより、目標印刷物22の読取画像24が得られる。読取画像24は、目標印刷物22の読み取りによって得られる目標印刷物読取画像データであり、「第1の読取画像データ」の一形態に相当する。画像読取部12は、目標印刷物22の読取画像24を取得する読取画像手段としての役割を果たす。画像読取部12により目標印刷物22を読み取って読取画像24を取得する工程が画像読取工程の一形態に相当する。画像読取部12を介して取得した読取画像24のデータは画像対応付け部14に送られる。
 画像対応付け部14は、目標印刷物22を読み取って得られた読取画像24と、原稿画像20との位置関係を対応付ける処理を行う。すなわち、画像対応付け部14は、読取画像24と原稿画像20の画像位置(すなわち、画素位置)の対応付けを行う。画像対応付け部14による処理内容の詳細は後述する(図5~図7)。
 画像対応付け部14において原稿画像20と読取画像24の画素位置の対応関係が特定され、原稿画像20の画像信号値(本例の場合、CMYK値)と読取画像24の画像信号値(本例の場合、RGB値)との対応関係を示すデータ(「原稿画像と読取画像の対応関係データ26」という。)が得られる。
 画像対応付け部14により読取画像24と原稿画像20の位置関係を対応付ける処理を行う工程が画像対応付け工程の一形態に相当する。また、画像対応付け部14の処理機能が画像対応付け機能の一形態に相当する。
 なお、図2では、画像対応付け部14に入力する読取画像24がRGB画像であるとしているが、後述する色変換部(図3の符号42)により、RGBからデバイス非依存の色度値としてのXYZ値やLab値に変換した色度値画像(例えばLab画像)としてもよい。スキャンRGB画像をRGB→Lab変換して得られるLab画像を「スキャンLab画像」といい、スキャンLab画像の画像信号値を「スキャンLab値」という。
 読取画像24、又は読取画像24を色変換して作成される色度値画像を総称して「目標印刷物読取画像」といい、目標印刷物読取画像の画像信号値である読取画像信号値を「目標印刷物読取画像信号値」という。
 統計処理部16は、同一の原稿画像信号値(本例の場合、同一のCMYK値)に対応する目標印刷物読取画像信号値を母集団として、目標印刷物読取画像信号値の散らばり(分布)を反映する統計情報を、目標印刷物読取画像の画像信号のチャンネルごとに生成する統計処理を行う。
 同一の原稿画像信号値に対応する目標印刷物読取画像信号値とは、画像対応付け部14によって特定された画像位置の対応付けにしたがい、原稿画像20における同一の原稿画像信号値の画像領域に対応する読取画像24の画像領域に属する画素の信号値である読取画像信号値を指す。
 原稿画像20に使われている色ごとに、「同一の原稿画像信号値の画像領域」があるため、原稿画像20に使われている色の数だけ、「同一の原稿画像信号値に対応する目標印刷物読取画像信号値の母集団」に分けることができる。目標印刷物読取画像信号値がRGB値である場合、統計処理部16は、R/G/Bの各成分のチャンネルごとに統計情報を生成する。目標印刷物読取画像信号値がRGB値を色変換して得られるLab値である場合、統計処理部16は、L/a/bの各成分のチャンネルごとに統計情報を作成する。
 「同一の原稿画像信号値」とは、例えば、CMYK各色8ビット(0-255階調)により表されるCMYK値が一致することを指す。或いはまた、例えば、原稿画像がCMYK各色16ビット(0-65535)により表現される画像データのように「同一」の範囲が非常に狭いデータである場合について、この原稿画像上で「同一の画像信号値」を定義する代わりに、各色16ビット(0-65535)の画像データを各色8ビット(0-255階調)などの画像データに変換して、変換後の原稿画像のデータにおいて「同一の画像信号値」とする取り扱いをしてもよい。
 統計処理部16により作成する統計情報は、目標印刷物読取画像信号値のばらつき(散らばり)を表す統計量及び目標印刷物読取画像信号値のヒストグラムのうち少なくとも一つの情報とすることができる。
 目標印刷物読取画像信号値のばらつきを表す統計量として、分散、標準偏差、レンジなどを挙げることができる。或いは、同一の原稿画像信号値(CMYK値)に対応する目標印刷物読取画像信号値の代表値(平均値、中央値、最頻値など)からの距離を母集団として、統計量(平均値、中央値、又は最大値など)を算出してもよい。
 例えば、同一の原稿画像信号値(CMYK値)に対応する目標印刷物読取画像信号値であるスキャンRGB値の平均値を(RAV,GAV,BAV)とすると平均値からの距離Dは次の式1により表される。
Figure JPOXMLDOC01-appb-M000001
 また、同一の原稿画像信号値(CMYK値)に対応する目標印刷物読取画像信号値であるスキャンLab値の平均値を(LAV,aAV,bAV)とすると平均値からの距離Dは次の式2により表される。
Figure JPOXMLDOC01-appb-M000002
 式1や式2により例示される平均値からの距離Dは、つまり平均値からの色差を表している。
 RGB値の平均値(RAV,GAV,BAV)又はLab値の平均値(LAV,aAV,bAV)のそれぞれに代えて、中央値や最頻値を採用して、距離Dを定義してもよい。同一の原稿画像信号値に対応する目標印刷物読取画像信号値の代表値からの距離Dを母集団として、距離Dの平均値、中央値、最大値などの統計量を求める。このようにして算出された距離Dの統計量は、同一の原稿画像信号値(CMYK値)に対応する目標印刷物読取画像信号値の分布(散らばり)を反映した値である。
 統計処理部16は、原稿画像20の全ての画像信号値(CMYK値)に対して、上述の統計情報を生成する。なお、統計処理部16にて生成する統計情報は、上述に例示した複数種類の情報のうち、いずれか一種類のみでよい。
 同一の原稿画像信号値に対する目標印刷物読取画像信号値のヒストグラムは、原稿画像20と目標印刷物22との色の不整合が存在しない場合は単峰型となり裾野も狭い形状となる。これに対し、不整合が存在する場合にはヒストグラムは多峰型になったり、単峰型であっても裾野が拡がった形状となる。よって、不整合が存在すると目標印刷物読取画像信号値の分散や標準偏差、若しくはレンジなど、データの散らばりを表す指標となる統計量が大きくなる。
 また、同一の原稿画像信号値に対する目標印刷物読取画像信号値の代表値からの距離のヒストグラムは、不整合が存在しない場合は距離「0」に近いところに分布が集中する。不整合が存在する場合には距離「0」より大きいところの分布が多くなる。よって、不整合が存在すると目標印刷物読取画像信号値の代表値からの距離の平均値や中央値、若しくは最大値などの統計量が大きくなる。
 なお、不整合が存在しても、距離「0」より大きいところに分布が集中することは考えられるので、目標印刷物読取画像信号値の代表値からの距離の分散や標準偏差では、不整合の判定が困難である。
 上述のように、同一の原稿画像信号値に対する目標印刷物22の読取画像信号値のヒストグラムや、同一の原稿画像信号値に対する目標印刷物読取画像信号値の代表値からの距離のヒストグラムは、同一の原稿画像信号値に対する目標印刷物読取画像信号値の散らばりを反映した情報として活用できる。したがって、統計処理部16は、上述した統計量の算出に代えて、同一の原稿画像信号値に対する目標印刷物読取画像信号値のヒストグラムや、同一の原稿画像信号値に対する目標印刷物読取画像信号値の代表値からの距離のヒストグラムを作成する構成であってもよい。
 読取画像24の信号値である読取画像信号値(例えばRGB値)の統計処理から得られる統計情報を「読取画像信号統計情報」といい、読取画像24を色変換した色度値画像の信号値である読取色度値(例えばLab値)の統計処理から得られる統計情報を「色度値統計情報」という。
 図2では、統計処理部16により、原稿画像信号と読取画像信号統計情報の対応関係を示すデータが作成される。原稿画像信号と読取画像信号統計情報の対応関係を示すデータを「原稿画像信号と読取画像信号統計情報の対応関係データ28」という。統計処理部16により統計情報を生成する工程が統計処理工程の一形態に相当する。統計処理部16の統計情報を生成する機能が統計処理機能の一形態に相当する。
 不整合検出部18は、統計処理部16によって作成した、同一の原稿画像信号値ごとに求めた統計情報を基に、原稿画像20と目標印刷物22との色の不整合の有無を判定する。不整合検出部18は、不整合の有無を示す不整合判定情報30を出力する。
 例えば、不整合検出部18は、同一の原稿画像信号値ごとに算出した統計量が予め設定した閾値を越えたら原稿画像20と目標印刷物22の色の不整合として検出する。ここで閾値は、印刷の面内ばらつきや画像読取部12によるスキャンの面内ばらつきの大きさを考慮して設定するとよい。つまり、印刷の面内ばらつきやスキャンの面内ばらつきによるデータの散らばりは、許容範囲とし、原稿画像20と目標印刷物22の色の不整合として検出するべきではない。また、通常時の印刷の面内ばらつきを許容値として把握しておき、何らかの異常(例えば、オフセット印刷機でのインキ供給量の調整不足など)により、通常より明らかに印刷の面内ばらつきが大きい場合は、不整合として検出するようにしてもよい。
 このため、印刷の面内ばらつきやスキャンの面内ばらつきによる読取画像信号値のばらつきによって生じる同一原稿画像信号値に対するスキャンRGB値(又は、スキャンLab値)の統計量の大きさを把握しておき、例えば、その統計量の最大値より大きい値を閾値として設定するのが好ましい。なお、閾値はユーザが設定できるようにしてもよい。
 また、不整合検出部18は、同一の原稿画像信号値ごとに求めたヒストグラムの形状から、不整合の有無を判定してもよい。不整合検出部18は、不整合の有無を判定し、かつ、不整合の画像領域を検出することができる。
 不整合検出部18により不整合を検出する工程が不整合検出工程の一形態に相当する。不整合検出部18により不整合を検出する機能が不整合検出機能の一形態に相当する。
 <第2実施形態>
 図3は第2実施形態に係る画像処理装置40の構成を示すブロック図である。図3において、図2に示した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
 図3に示した画像処理装置40は、図2において説明した画像処理装置10と比較して、画像対応付け部14と統計処理部16との間に、色変換部42が追加された構成となっている。色変換部42は、デバイス依存色空間の色成分の信号値(本例ではRGB値)により表される読取画像信号値からデバイス非依存色空間の色成分の信号値(本例ではLab値)により表される色変換後読取画像信号値に変換する処理を行う。
 すなわち、色変換部42は、予め用意された第1の色変換テーブル44を用いて読取画像24の信号値である読取画像信号値(本例ではRGB値)を、デバイス非依存の色度値(本例ではLab値)に変換する色変換の処理を行う。第1の色変換テーブル44は、スキャナプロファイルの色変換テーブルであり、画像読取部12によって得られるデバイス依存色空間の読取画像信号値であるRGB値とデバイス非依存のLab値との対応関係を規定するテーブルである。ここでは、デバイス非依存色空間としてLab色空間を用いるが、XYZ色空間など他のデバイス非依存色空間を用いることも可能である。
 画像対応付け部14による画像対応付け処理と、色変換部42による色変換処理を経て、原稿画像信号(CMYK値)と色度値(Lab値)の対応関係を示すデータ(「原稿画像信号と色度値の対応関係データ46」)が得られる。
 統計処理部16は、原稿画像信号と色度値の対応関係データ46を基に、同一の原稿画像信号値(CMYK値)に対応する目標印刷物読取画像の色度値信号値を母集団として、色度値信号値の散らばり(分布)を反映する統計情報を、チャンネルごとに生成する統計処理を行う。統計処理部16により、原稿画像信号と色度値統計情報の対応関係を示すデータ(「原稿画像信号と色度値統計情報の対応関係データ48」という。)が作成される。
 図2ではRGB値から統計情報を算出する場合を例示し、図3ではLab値から統計情報を算出する場合を例示したが、Lab値等の色度値から統計情報を算出するのがより好ましい。RGB値はデバイス依存の値、つまり、画像読取部12に用いるスキャナの機種や設定に依存する値であるが、Lab値等の色度値はデバイス(機種や設定)に依存しない値である。したがって、Lab値等の色度値から算出した統計情報もデバイスに依存しない(デバイスに依って値が大きく変わらない)値として扱うことができるからである。
 <第3実施形態>
 図4は図3に示した構成の変形例である。図4中、図3で説明した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
 図4に示した第3実施形態の画像処理装置50は、図3に示した構成と比較して、画像対応付け部14と色変換部42の処理の順序が入れ替えられた構成となっている。図4の例では、画像読取部12から得られるRGB画像である第1の読取画像24Aに対して、色変換部42による色変換の処理を行い、第2の読取画像24Bを得る。本例の色変換部42は、第1の色変換テーブル44を用いてRGB→Lab変換を行うため、第2の読取画像24BはLab画像となる。第1の読取画像24Aが「第1の読取画像データ」の一形態に相当し、第2の読取画像24Bが「第2の読取画像データ」の一形態に相当する。
 画像対応付け部14は、色変換部42の色変換によって作成された第2の読取画像24Bと原稿画像20との位置の対応付けを行う。これにより、原稿画像と色度値の対応関係データ46が得られる。その後の処理は、図3で説明した例と同様である。図4に示す構成でも図3の構成と同様の効果を得ることができる。
 図4に示したように、画像読取部12から得られる第1の読取画像24Aに対して、色変換部42による色変換の処理を施して得られる色変換後の第2の読取画像24Bを「読取色度値画像」という。
 図2及び図3で説明した画像読取部12から得られる読取画像24と、図4で説明した第1の読取画像24Aと、第2の読取画像24Bとのそれぞれは、いずれも画像読取部12から得られた目標印刷物22の読取画像を表している。したがって、読取画像24と、第1の読取画像24Aと、第2の読取画像24Bとを総称して、読取画像ということができる。
 図2及び図3で説明した画像読取部12から得られる読取画像24と、図4で説明した第1の読取画像24Aは、色変換前の読取画像であり、図4で説明した第2の読取画像24Bは色変換後の読取画像である。
 色変換前の読取画像がスキャンRGB画像である。また、図4に示したように、画像読取部12から得られる第1の読取画像24Aに対して、色変換部42による色変換の処理を施して得られる色変換後の読取画像である第2の読取画像24BがスキャンLab画像である。
 [画像対応付け部14について]
 図2から図4の各構成に示した画像対応付け部14の処理について説明する。画像対応付け部14は、原稿画像データと、印刷物を読み取って得られた読取画像データの画像位置(すなわち、画素位置)の対応付けを行う。
 ここでいう読取画像データは、図2及び図3で説明した画像読取部12から得られる読取画像24と、図4で説明した第1の読取画像24Aと、第2の読取画像24Bの総称である。すなわち、読取画像データには、画像読取部12から得たスキャンRGB画像、或いはスキャンRGB画像を色変換部42において色変換をして得られる読取色度値画像であるスキャンLab画像のいずれかが該当する。図2及び図3に示した構成の場合の読取画像データはRGB画像、図4に示した構成の場合の読取画像データは読取色度値画像(Lab画像)となる。
 原稿画像データと読取画像データとの画像位置の対応付け(位置合わせ)の処理には、公知の画像位置合わせ方法を利用可能である。例えば、画像位置合わせ方法として、特開2013-30996号公報の段落<0064>-<0068>に記載の手法を用いることができる。
 図5は画像対応付け部14における画像の位置合わせ処理の具体例を示したブロック図である。画像対応付け部14は、幾何対応関係推定部62と、幾何変換部64とを備える。幾何対応関係推定部62は、原稿画像20と読取画像24Cとを取り込み、これら2つの画像の幾何対応関係を推定する。幾何対応関係には、対比される2画像間の画像の変位量、回転角、及び変倍率のうち少なくとも一つの要素が含まれる。
 読取画像24Cは、図2及び図3で説明した画像読取部12から得られる読取画像24と、図4で説明した第1の読取画像24Aと、第2の読取画像24Bとのいずれかの読取画像データを表している。
 幾何変換部64は、幾何対応関係推定部62にて推定された幾何対応関係に基づいて、2つの画像のどちらか一方、或いは両方に対し、両者を一致させるような幾何変換の処理を行う。例えば、読取画像24Cのデータに対して幾何変換を行うものとし、原稿画像20のデータについては幾何変換を実施しない構成とすることができる。また、幾何変換の一例としてアフィン変換を適用することができる。
 2つの画像の幾何対応関係の推定には、例えば、(a)マーカーを利用する方法、(b)パターンマッチングを用いる方法、(c)位相限定相関法を用いる方法などが利用できる。以下、特開2013-30996号公報の記載事項を援用しながら説明する。
 (a)マーカーを用いる方法
 印刷業界でいわゆる「トンボ」と呼ばれる基準位置を示すマーカーが原稿画像の四隅や各辺の中央に配置された印刷物が出力される。このようなマーカー付きの印刷物を読み取った際に、このマーカーの位置のずれ量を測定して、画像間の変位量や回転角、変倍率を求めることができる。
 例えば、1枚の印刷物に4つから6つのマーカーが形成される。原稿画像データ上のマーカーと印刷物の読取画像データ上のマーカーとの位置ずれを比較することにより、幾何学変換パラメータを求めることができる。
 原稿画像データにおけるマーカーの特徴点の位置を示す点と、読取画像データにおけるマーカーの特徴点の位置を示す点どうしの対応関係を求めることにより、幾何学変換パラメータが得られる。ここで、2つの画像のうち一方の画像に例えばアフィン変換を行うことにより2つの点パターンをマッチングさせることが知られている。したがって、幾何学変換パラメータを求めるには、2つの点パターンの各位置が最も近似する最適なアフィンパラメータを探し出せばよい。例えば、読取画像データにおけるマーカーの特徴点を原稿画像データにおけるマーカーの特徴点にアフィン変換するためのアフィンパラメータの評価関数を定め、評価関数が最小になるときのアフィンパラメータを幾何学変換パラメータとする。
 (b)パターンマッチング法を用いる方法
 変位量のみを推定する方法の一例としては、テンプレートマッチング法が挙げられる。テンプレートマッチング法は一方の画像をテンプレートとし、位置を少しずつずらしながら他方の画像と一致度を求め、最も一致度の高くなる位置を検出するものである。幾何学変換が変位だけに限定できない場合には、回転角を推定する方法(ハフ変換など)や変倍量を推定する方法(マルチスケール解析など)と組み合わせて利用する必要がある。
 テンプレートマッチングを応用したブロックマッチング法では、一方の画像をブロックに分割し、ブロックごとに他方の画像と最も一致度の高くなる位置を検出することにより変位量を求めることができる。ブロックマッチング法では、ブロックごとの変位量から回転角や変倍率を推定することも可能である。
 (c) 位相限定相関法を用いる方法
 高い精度で変位量や回転角、変倍率を求める方法の例として、位相限定相関法(POC;Phase Only Correlation)や回転不変位相限定相関法(RIPOC;Rotation Invariant Phase Only Correlation)がある。位相限定相関法は、画像に対して離散フーリエ変換をかけて得られる位相画像を用い、比較対象の2枚の画像から得られる2つの位相画像の相関が最も高くなる位置を検出することにより、変位量を求める手法である。また、回転不変位相限定相関法は、上記位相画像を対数極座標変換することにより、回転角と変倍率を変換された位相画像上での変位量として検出できるようにしたものである。
 上記例示の手法(a)~(c)などにより、幾何学変換パラメータを求めた後、幾何変換部64は読取画像24C及び/又は原稿画像20に幾何学変換を実行する。変換に際してサブピクセル精度の移動や何らかの回転、実数値での変倍などにより変換前後の画素が一対一で対応付かないようなケースでは、適宜画素補間手法を用いて画素値を導出すればよい。画素補間手法の例としては、バイリニア法、バイキュービック法などが挙げられる。
 こうして、原稿画像20と読取画像24Cとの位置関係の対応付けが定まり、対応付け済み読取画像25が得られる。対応付け済み読取画像25と原稿画像20から、図2及び図3で説明した原稿画像と読取画像の対応関係データ26、又は図4で説明した原稿画像と色度値の対応関係データ46を作成することができる。或いはまた、対応付け済み読取画像25と原稿画像20とのセットを、図2及び図3で説明した原稿画像と読取画像の対応関係データ26、又は図4で説明した原稿画像と色度値の対応関係データ46として扱うことができる。
 [画像対応付け(位置合わせ)のための前処理について]
 原稿画像20の解像度と読取画像24Cの解像度とが異なる場合には、画像対応付け部14にて、読取画像24Cに対し、原稿画像20の解像度と一致させる解像度変換を行うことが好ましい。画像対応付け部14は、解像度変換の処理を行うための解像度変換部(不図示)を含む構成となっている。
 また、例えば、原稿画像20がCMYK画像、読取画像24CがRGB画像である場合のように、原稿画像20と読取画像24Cの色空間が異なる場合には、画像対応付け部14による画像の位置合わせ(対応付け)を行う前に、両者をグレースケール変換し、同じ色空間に変換しておくのが好ましい。
 グレースケール変換は、例えば、読取画像24Cをスキャナプロファイルの色変換テーブル(図3における第1の色変換テーブル44)を用いてLab値に変換し、L値(明度)のみ取り出したモノクロ画像とすることで実現できる。原稿画像20に対しては、例えばJapan Color(ジャパンカラー)(登録商標)など代表的なプロファイルなどを利用できる。
 また、原稿画像20と読取画像24Cの両者をグレースケールに変換したとしても画素値(濃度値)が異なることが想定されるため、グレースケール画像に対し、さらにエッジ抽出処理を実施し、2値のエッジ画像に変換してから位置合わせを実施してもよい。エッジ抽出処理には、ソーベル(Sobel)法やプレウィット(Prewitt)法などが利用できる。
 また2つのエッジ画像のエッジ太さは異なってくることも想定されるため、それぞれのエッジ画像に対してさらに細線化処理を実施し、エッジ太さを揃えてから位置合わせを実施するようにしてもよい。細線化処理には、ヒルディッチ(Hilditch)の方法や田村の方法などが利用できる。
 このように原稿画像20と読取画像24Cとで画像の色空間が異なる場合は、画像の幾何対応関係を推定し易いように、位置合わせのための前処理をしておくことが好ましい。なお、原稿画像20と読取画像24Cが同じ色空間の場合でも前処理を実施してもよい。
 さらにまた、目標印刷物22と原稿画像20とが一対一対応していない場合が考えられる。例えば、目標印刷物22と原稿画像20とが一対一対応していない場合として、次のような例を挙げることができる。
 <例1>:目標印刷物22が、同じ原稿画像20を同一印刷面内に多数配置した印刷物の場合。
 <例2>:目標印刷物22が、原稿画像20と色合わせ対象ではない別の画像データ(原稿画像20とは異なる他の画像データ)とを同一印刷面内に配置した印刷物の場合。なお、互いに異なる複数の画像データを同一印刷面内に配置することを「異種面付け」又は「ギャンギング」などと言う。
 <例3>:原稿画像20が目標印刷物22の一部(デザイン/レイアウトの一部)を構成している場合。
 上記の<例1>から<例3>に例示したように目標印刷物22と原稿画像20とが一対一対応していない場合には、目標印刷物22の読取画像の中から注目する原稿画像20に対応する部分画像を抜き出す部分画像抜き出し処理を行うことが有用である。
 ここでは、<例1>の更なる具体例として、目標印刷物22が同じ原稿画像20を同一印刷面内に入れ子状に多数配置(面付け)された印刷物である場合を説明する。
 図6(A)(B)にその例を示す。図6(A)は原稿画像の例を示し、図6(B)は目標印刷物の例である。図6(B)に示した目標印刷物は、図6(A)の原稿画像データを印刷面内に入れ子状に多数配置(面付け)して印刷した印刷物である。
 このような場合、目標印刷物の読取画像データをそのまま使用するのではなく、画像対応付け部14による位置合わせの前に読取画像データ中において原稿画像データと対応する部分画像を予め抜き出しておくのが好ましい。
 部分画像を抜き出す処理の方法としては、公知のパターンマッチングを用いて原稿画像と対応する部分画像を特定して自動で抜き出す方法や、モニタとしての表示部(図16の符号234として記載)に読取画像を表示させ、ユーザが原稿画像と対応する部分画像の範囲を手動で指定する方法などが考えられる。
 <例1>の場合に限らず、<例2>や<例3>の場合でも同様に、部分画像抜き出し処理を行うことが有用である。
 なお、上記の部分画像抜き出し処理は、例えば、依頼者から原稿画像1つ分の色見本が提供されている場合など、原稿画像20と目標印刷物22とが一対一対応していれば不要である。
 図7は上述した前処理を含む画像対応付けの処理を行う構成のブロック図である。図7に示した画像対応付け部14は、原稿対応画像抜き出し部70と、グレースケール変換部72と、エッジ抽出部74と、細線化部76と、幾何対応関係推定部62と、幾何変換部64と、を備える。
 原稿対応画像抜き出し部70は、図6(B)で例示したような複数の画像が面付け配置された目標印刷物22を読み取って得られた読取画像の原画像である読取原画像80から原稿画像20に対応する部分画像を抽出する処理を行う。読取原画像80は図6(B)のような目標印刷物の印刷面の全体を読み取って生成される読取画像のデータである。読取原画像80はRGB画像でもよいし、Lab画像でもよい。
 原稿対応画像抜き出し部70によって抜き出された部分画像のデータが、原稿画像20と対比される読取画像24Cとなる。
 グレースケール変換部72は、原稿画像20と読取画像24Cのそれぞれについて、グレースケールに変換する処理を行う。エッジ抽出部74は、グレースケール画像からエッジ抽出の処理を行う。細線化部76は、エッジ抽出部74において生成されたエッジ画像の細線化処理を行う。
 細線化部76により細線化処理されたエッジ画像が幾何対応関係推定部62に入力され、幾何対応関係推定部62にて、原稿画像20と読取画像24Cの幾何対応関係が特定される。こうして求めた幾何対応関係を利用して、幾何変換部64により読取画像24Cに対する幾何変換の処理が実施され、対応付け済み読取画像25が得られる。
 画像対応付け部14による対応付けの処理機能が「画像対応付け機能」に相当する。なお、原稿画像20と目標印刷物22の印刷画像とが一対一対応している場合は、図7における読取原画像80がそのまま読取画像24Cとして扱われる。
 <第4実施形態>
 図8は図2に示した構成の変形例である。図8中、図2で説明した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
 図8に示した第4実施形態の画像処理装置90は、図2で説明した画像処理装置10と比較して、画像対応付け部14と統計処理部16との間に、領域分類処理部15が追加された構成となっている。
 領域分類処理部15は、原稿画像20の各画素の原稿画像信号値を基に、原稿画像20の各画素を同じ原稿画像信号値を有する画素の集合に分類し、原稿画像20を同一の原稿画像信号値の画像領域に分ける処理を行う。原稿画像20は、原稿画像20に使用されている色ごと(つまり、原稿画像20において使用されている画像信号値ごと)に領域分けされ、使用されている色の数と同数の画像領域(画素の集合)に分類される。
 領域分類処理部15によって色ごとに分類された画像領域のそれぞれを「同一原稿画像信号値領域」と呼ぶ。画像対応付け部14の処理によって原稿画像20と読取画像24の位置の対応付けは把握されているため、原稿画像20における同一原稿画像信号値領域に対応する読取画像24上の画像領域を特定することができる。つまり、読取画像24も同一原稿画像信号値領域のそれぞれに対応する画像領域に分けることができる。
 領域分類処理部15により原稿画像20を同一の原稿画像信号値の画像領域に分ける処理を行う工程が領域分類処理工程の一形態に相当する。領域分類処理部15の処理機能が領域分類処理機能の一形態に相当する。
 統計処理部16は、領域分類処理部15によって分類された同一原稿画像信号値領域のそれぞれに対応する読取画像の画像領域に属する読取画像の画素群を母集団として統計処理を行い、母集団に属する画素の読取画像信号値のばらつきを表す統計量及び読取画像信号値のヒストグラムの少なくとも一つの統計情報を生成する。
 図2から図4で説明した統計処理部16の中に、図8で説明した領域分類処理部15の処理に相当する機能が実質的に内包されていると理解することができる。
 或いはまた、図8で説明した例と同様に、図3や図4の構成における色変換部42と統計処理部16との間に、領域分類処理部15を追加した構成を採用することができる。
 <第5実施形態>
 図9は第5実施形態に係る画像処理装置100の構成を示すブロック図である。図9において、図2及び図8に示した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。図9に示した画像処理装置100は、図5で説明した画像処理装置90と比較して、画像調整部102が追加された構成となっている。
 画像調整部102は、不整合検出部18から得られる不整合領域情報を基に、原稿画像20の画像信号値の調整を行う。画像信号値の調整とは、画像信号値を異なる値に修正(変更)することを意味する。
 不整合検出部18は、原稿画像20のデータ上において同一の原稿画像信号値の画像領域であるにもかかわらず、目標印刷物22上では異なる色となっている不整合領域を検出する。不整合領域を検出した場合に、画像調整部102は、不整合領域の原稿画像信号値を調整して、原稿画像信号値上において目標印刷物22と同様に、色を分離できるようにする。
 画像調整部102によって、不整合領域の原稿画像信号値が調整されることにより、調整後原稿画像104が得られる。こうして作成された調整後原稿画像104と、目標印刷物22の読取画像24を基に、目標プロファイルの色変換テーブルを作成することにより、目標印刷物22に対する色合わせの調整作業を簡易化でき、色の再現精度を高めることができる。
 図3に示した画像処理装置40や、図4に示した画像処理装置90のそれぞれについても、図9と同様に、画像調整部102を備える構成とすることができる。
 <第6実施形態>
 図10は第6実施形態に係る画像処理装置110の構成を示すブロック図である。図10に示す画像処理装置110は、図3で説明した画像処理装置40の構成に、画像調整部102を追加した構成となっている。図10において、図3及び図9に示した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
 [画像調整方法の第1例]
 ここで、画像調整部102における画像調整方法の具体例について説明する。
 不整合検出部18により、不整合領域として検出された原稿画像信号値(Cd,Md,Yd,Kd)領域におけるスキャンRGB値群(Rs,Gs,Bs)を次の式3によってスキャンCMY値群(Cs0,Ms0,Ys0)に変換する。なお、画像信号値は0-255の8ビット値として記載している。
 Cs0=255-Rs, Ms0=255-Gs, Ys0=255-Bs …式3
 さらに、次に示す式4によりスキャンCMYK値群(Cs,Ms,Ys,Ks)に変換する。
 Cs = min(255, max(0, Cs0-Kd)
 Ms = min(255,max(0, Ms0-Kd)
 Ys = min(255,max(0, Ys0-Kd)
 Ks = Kd…式4
 ここで、min(a,b)はa,bの中で小さい方の値、max(a,b)はa,bの中で大きい方の値を返す関数である。
 次に、不整合領域のスキャンCMYK値群とスキャンCMYK値群の平均値(或いは中心値、若しくは最頻値)との差分に基づく調整量(Ca,Ma,Ya,Ka)を算出する。調整量(Ca,Ma,Ya,Ka)は、次の式5により表すことができる。
 Ca = W (Cs - CsA)
 Ma = W (Ms - MsA)
 Ya = W (Ys - YsA)
 Ka = W (Ks - KsA) = 0…式5
 ここで、Wは調整量の大きさを調整する係数である。通常は「1.0」としておく。
 (CsA,MsA,YsA,KsA)は、不整合領域のスキャンCMYK値群における平均値、或いは中心値、若しくは最頻値を表す。(CsA,MsA,YsA,KsA)は、不整合領域のスキャンCMYK値群の代表値に相当する。
 最後に、不整合領域の原稿画像信号値(Cd,Md,Yd,Kd)に調整量(Ca,Ma,Ya,Ka)を加算して調整する。調整後原稿画像信号値を(Cda,Mda,Yda,Kda)と記載すると次の式6となる。
 Cda = Cd + Ca
 Mda = Md + Ma
 Yda = Yd + Ya
 Kda = Kd + Ka = Kd…式6
 上述のように画像調整部102は、読取画像であるスキャンRGB画像の不整合領域に属する画素の読取画像信号値(スキャンRGB値)を原稿画像20の色空間であるCMYK色空間による信号値(スキャンCMYK値)に変換して、不整合領域の信号値群の代表値である(CsA,MsA,YsA,KsA)を求め、不整合領域に属する画素のスキャンCMYK信号値と上記の代表値との差分に基づき調整量(Ca,Ma,Ya,Ka)を算出する。そして、求めた調整量を不整合領域の対応する画素の原稿画像信号値に加算して原稿画像20の画像信号値を調整する。
 原稿画像の各画素について、それぞれ不整合領域に属しているか否かを判定し、不整合領域に属している画素の原稿画像信号値を上述の画像調整方法により調整する。これにより、目標印刷物22上において異なる色となっている画像領域に対応する原稿画像信号値は異なる値になる。
 なお、スキャン時のノイズや印刷物上のゴミ及び/又は傷などによりスキャンRGB値にノイズが混入することも考えられる。この場合、上述の手順で調整した原稿画像信号値にもノイズが混入する。特に、原稿画像上で同一CMYK値がある程度の面積で拡がっている領域(いわゆる平網領域)において、調整後原稿画像を用いて印刷した印刷物でノイズが目立つ結果となる恐れがある。これを避けるため、印刷物スキャン画像に対して平滑化処理(例えば、周囲数画素四方で平均化する等の処理)を予め施してから調整量を算出する、或いは、算出された調整量に対して平滑化処理(周囲画素で平均化する等の処理)をするのが好ましい。または、スキャン画像と調整量の両方に平滑化処理をかけるようにしてもよい。
 <第7実施形態>
 [画像調整方法の第2例]
 次に、画像調整部102における画像調整方法の第2例について、図11を用いて説明する。図11は図10に示した構成の変形例を示しており、第7実施形態に係る画像処理装置120の構成を示すブロック図である。図11において、図10に示した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
 図11に示した画像処理装置120における画像調整部102は、不整合検出部18から得られる不整合領域情報32と、色変換部42の色変換処理を経て得られる原稿画像と色度値の対応関係データ46を基に、不整合領域に対応するスキャンLab値を取得する。そして、画像調整部102は、予め用意されている第3の色変換テーブル122を用いて、不整合領域に対応するスキャンCMYK値(Cs,Ms,Ys,Ks)に変換する。
 第3の色変換テーブル122は、Japan Color(登録商標)プロファイルその他の標準的なプロファイル、或いは、印刷に使用する印刷装置のプロファイルなど、適当な印刷プロファイルのLab→CMYK変換テーブルを採用することがきる。
 不整合領域に対応するスキャンLab値を第3の色変換テーブル122によってスキャンCMYK値(Cs,Ms,Ys,Ks)に変換した以降の処理は、既述した画像調整方法の第1例と同様である。ただし、この第2例においては、Kaは必ずしも「0」とはならない。画像調整方法の第1例と第2例を比較すると、デバイスに依存しない色度値を経由する第2例の方がより好ましい。
 <第8実施形態>
 図12は第8実施形態に係る画像処理装置130の構成を示すブロック図である。図112は、図11で説明した画像処理装置120の構成に、色変換テーブル作成部134を追加した構成となっている。図12において、図11に示した構成と同一又は類似する要素には同一の符号を付し、その説明は省略する。
 図12の色変換テーブル作成部134は、調整後原稿画像と色度値の対応関係に基づいて、原稿画像信号(CMYK)と色度値(Lab)の対応関係を表す第2の色変換テーブル136(目標プロファイルに相当)を作成する。
 [色変換テーブル作成部134について]
 図11で説明したように、画像調整部102によって調整後原稿画像104が作成されることにより、調整後原稿画像104における各画素の画像信号値(本例ではCMYK値)と、目標印刷物22の読取画像における各画素の色度値(本例ではLab値)との対応関係を表すデータが得られる。この調整後原稿画像104の画像信号値と、目標印刷物22の読取画像の色度値の対応関係を表すデータを「調整後原稿画像と色度値の対応関係データ」といい、図12では符号132により示した。
 図12の色変換テーブル作成部134は、画像調整部102によって作成される「調整後原稿画像と色度値の対応関係データ132」を基に、原稿画像信号値(CMYK)から色度値(Lab)に変換する変換関係(CMYK→Lab)を規定する第2の色変換テーブル136を作成する。
 従来の印刷システムの場合、このような色変換テーブルを作成する際は、一般に、カラーチャートを用いて、色空間全体に規則的に配置された画像信号値と色度値との対応関係を求め、この対応関係から所定の補間方法により補間して色変換テーブルする。
 これに対し、本実施形態では、現物の再現目標である目標印刷物22とその原稿画像データとしての調整後原稿画像104とを基にするため、色空間における部分的かつ不規則な配置の画像信号値と色度値の対応関係から色変換テーブルを作成する必要がある。そのため、従来の一般的な補間による手法は利用できない。そのため、以下のような方法をとる。なお、以下の説明では、調整後原稿画像104を単に原稿画像、又は原稿画像データと呼び、調整後原稿画像104の画像信号を原稿画像信号と呼ぶ。
 [実施方法1]原稿画像信号と色度値の対応関係データを色変換テーブルに直接対応付ける方法について
 原稿画像信号と色度値の対応関係データを色変換テーブルの色空間の格子点に直接対応付ける方法について、図13及び図14の例により説明する。ここでは説明を簡単にするために、CM2色の色変換テーブルの概念を示す。
 図13は原稿画像信号(CM)と色度値(Lab)の対応関係データの例である。図14は色変換テーブルの入力側に相当する原稿画像データの色空間(ここではCM面)の格子点を表している。
 図14では、C軸、M軸のそれぞれについて、信号値の取り得る範囲(変域、値域)を0-100%により表し、各軸10%の刻みで格子点を設定している。なお、発明の実施に際して、格子点を規定する各軸の信号の刻み幅は10%に限らない。また、画像信号の信号値として8ビットの整数値(0から255)を用いるとき信号値「0」を0%、信号値「255」を100%として、0-255の間の値を線型式により対応付けることができる。
 図14に示した10%刻みの格子点は、色変換テーブルにおける入力側の原稿画像信号の格子点を示すものとなる。各格子点に対して、対応するLab値が割り当てられたものが色変換テーブルに相当するものとなる。
 図13の「ID」は原稿画像データで使用されている色(CM値)を特定する識別符号である。C値とM値はそれぞれ0-100%の値域における信号値を表している。Lab値は、L値,a値,b値の各成分の値を含む。
 ID=1のCM値は、(C,M)=(20,90)であり、このCM値に対応するLab値が(L,a,b)=(50,60,-13)であることを示している。
 ID=2の色は(C,M)=(24,66)であり、このID=2のCM値色に対応するLab値は(L,a,b)=(60,36,-17)であることを示している。
 色変換テーブルの作成に際しては、図13に示すID毎の原稿画像信号値(CM値)に対応する色変換テーブルの格子点に、対応する色度値(Lab値)を設定する。
 ID=1のCM値は図14における格子点P1に対応する色である。ID=1に対応する格子点P1に、対応するLab値(50,60,-13)が設定される。
 ID=2~5については、直接的に対応する格子点がないため、近隣の格子点に対して)色度値を設定する。図14に示すように、ID=2,3,4について、原稿画像信号値を取り囲む周囲4つの格子点に色度値を設定する。
 ID=2は(C,M)=(24,66)を取り囲む4つの格子点P21,P22,P23,P24に対してそれぞれ同じLab値(60,36,-17)を設定する。ID=3とID=4についても同様に、原稿画像信号値を取り囲む4つの格子点に対して色度値を設定する。ただし、ID=3とID=4のように、それぞれの原稿画像信号値を取り囲む4つの格子点の一部が重複し、同じ格子点に対し異なる色度値の候補が存在する場合は、候補の色度値を平均化して設定する。
 すなわち、ID=3の(C,M)=(35,35)を取り囲む4つの格子点はP31,P32,P33,P34であり、ID=4の(C,M)=(47,23)を取り囲む4つの格子点はP41(=P33),P42,P43,P44である。(C,M)=(40,30)で表される格子点(P33=P41)に対しては、ID=3の色度値の候補(71,9,-20)と、ID=4の色度値の候補(72,-4,-26)が存在するため、ID=3とID=4のLab値の平均値(71.5,2.5,-23)を割り当てる。
 他の格子点P31、P32,P34については、ID=3のLab値(71,9,-20)を設定する。また、P42,P43,P44については、ID=4のLab値(72,-4,-26)を設定する。
 ID=5については、C値が「10%」であるため、「取り囲む4つの格子点」に代えて、「2つの格子点」P51,P52となり、これら格子点P51,P52に対して、対応するLab値(89,6,-8)が設定される。
 色変換テーブルの全格子点のうち、原稿画像信号値に関係のない格子点は、原稿画像20の色変換に使用されないため、適当な値に設定しておく。図14における白丸により示した格子点については、例えば、Lab=(100,0,0)のような任意の値を設定しておくことができる。
 図13及び図14は、説明を簡単にするために、CM2色の色変換テーブルとして説明したが、3色以上の色変換テーブルでも同様にして格子点に色度値を設定できる。
 2色の場合は任意のCM値を取り囲む格子点は最大4点だが、3色の場合は最大8点、4色の場合は最大16点となる。
 また、図13及び図14はID=1はCM値が対応する格子点に直接Lab値(色度値)を対応付けたが、色変換テーブルを参照する際の演算誤差等により、僅かにずれた点が参照されてしまい、隣接格子点の色度値と補間演算される可能性も考えられる。そのため直接対応する格子点のみならず周囲の隣接格子点にも同一の色度値を設定しておくのも好ましい。
 この[実施方法1]において説明した手法により作成した色変換テーブル(第2の色変換テーブル136)を用いて原稿画像データを色変換して印刷装置により印刷するのに不都合はない。
 しかし、[実施方法1]の手法により作成した色変換テーブルを用いて印刷した結果を見てオペレータがさらに色の調整のため原稿画像データを調整(修正)すると不都合が起こり得る。つまり、オペレータが原稿画像データを調整した場合に所望の色の変化が起こらない、或いはオペレータが意図した色の変動方向と異なる色の変動が発生すること等も考えられ、原稿画像データに対する更なる色の調整が困難となる。
 上記のように原稿画像データを調整する際の不都合がなるべく発生しないようにするには、色空間全体が(原稿画像データと直接関係しない色部分でも)、相応の色度値(オペレータが想像する色に近い色)になっており、かつ、色の変化の滑らかさが確保されていることが好ましい。そのような色空間全体の滑らかな連続性を確保できるようにする場合は、以下に述べる実施方法2、3、又は4のような手法を用いるのがよい。
 [実施方法2]仮の色変換テーブルを原稿画像信号と色度値の対応関係データによって修正する方法について
 実施方法2では、予め色空間全体に相応の色変化の滑らかさが確保されている「仮の色変換テーブル」を用意し、原稿画像信号と色度値の対応関係データを用いて仮の色変換テーブルを局所的(部分的)に修正する。
 ここでいう「仮の色変換テーブル」は、例えば、CMYKの入力であれば、Japan Color(登録商標)、SWOP(Specifications Web Offset Printing)、GRACoL(General Requirements for Applications in Commercial Offset Lithography)、Fogra等のオフセット印刷における標準色再現を表す色変換テーブルのいずれかを用いることができ、RGBの入力であればsRGB、AdobeRGB等の色変換テーブルのいずれかを用いることができる。
 また、上述のような標準の色変換テーブルと、過去に本実施方法2の手法により作成した色変換テーブルとをデータベースに蓄積しておき、今回の目標印刷物22の読取画像と原稿画像20から新たに取得した原稿画像信号と色度値の対応関係データに最も近い色変換テーブルを、データベースの中から選択して、この選択された色変換テーブルを「仮の色変換テーブル」として用いることもできる。
 「原稿画像信号と色度値の対応関係データ」に最も近い色変換テーブルの選択に際しては、原稿画像信号と色度値の対応関係データとの色差の平均値が最も小さいもの、原稿画像信号と色度値の対応関係データとの色差の最大値が最も小さいもの、などをデータベースから自動抽出し、「仮の色変換テーブル」とすることができる。なお、自動抽出により、「仮の色変換テーブル」の候補が複数抽出された場合には、それらの候補を表示部(図16の符号234)に表示させ、ユーザに選択させる構成も可能である。
 この「仮の色変換テーブル」に対し、[実施例1]で説明した格子点に対する色度値の設定を実施する。つまり、図13で説明したID=1~5に対応する格子点P1、P21~P24、P31~P34、P41~P44、P51~P52(図14参照)については、実施方法1と同様に色度値を設定し、図14の白丸により示した格子点に対する色度値は「仮の色変換テーブル」の値そのままとなるように、仮の色変換テーブルを修正する。
 こうして得られる修正後の色変換テーブルは、仮の色変換テーブルについて局所的に格子点の色度値を置き換えるため、色度値を置き換えた格子点と置き換えていない格子点と間で色度値の連続性(滑らかさ)が悪くなることが予想される。そのため修正後の色変換テーブルに対し、さらに平滑化(スムージング)処理を実施し、色度値の変換の滑らかさを確保することが好ましい。
 [実施方法3]色再現モデルを利用する方法について
 色再現モデルとして例えばノイゲバウア(Neugebauer)モデルが利用できる。Neugebauerモデルとは各色材(一次色)の0%と100%の掛け合わせ色の色度値を各色材の面積率に応じて加算することにより、各色材任意の面積率の掛け合わせによる再現色の色度値を求めるモデルである。Neugebauerモデルでは、一般には「色度値」としてXYZ値を用いる。
 ここでは、図15を参照しながら、CMY3色材での例により色再現モデルを説明する。予測対象色のCMY面積率が(fc,fm,fy)とすると、各色材の0%と100%の掛け合わせの面積率Fi(i=w,c,m,y,cm,my,yc,cmy)は、次式のように算出することができる。式中の「・」は乗算を表す。
  Fw=(1-fc)・(1-fm)・(1-fy)
  Fc=fc・(1-fm)・(1-fy)
  Fm=(1-fc)・fm・(1-fy)
  Fy=(1-fc)・(1-fm)・fy
  Fcm=fc・fm・(1-fy)
  Fmy=(1-fc)・fm・fy
  Fyc=fc・(1-fm)・fy
  Fcmy=fc・fm・fy
 ここで「w」は、印刷用紙など印刷物の基材(印刷基材)そのものを表す。面積率は、印刷基材上における単位面積あたりの被覆率を示している。ここでは、面積率は0以上1以下の値として表される。fc,fm,fyは、画像データの信号値(画像信号値)から把握される値である。
 各色材の0%と100%の掛け合わせの色度値(例えばXYZ値のX)をXpi(i=w,c,m,y,cm,my,yc,cmy)とすると、CMY面積率(fc,fm,fy)に対する色度値Xは次式により求めることができる。
Figure JPOXMLDOC01-appb-M000003
 XYZ値のY,Z値についても同様に求めることができ、さらにXYZ値からLab値への変換も簡単にできる。また、3色印刷以外の2色や4色以上の印刷でも同様にして適用可能である。
 このNeugebauerモデルを色変換テーブルの作成に利用するには各色材の0%及び100%の掛け合わせの色度値が必要となる。
 しかし、本実施形態では、カラーチャートではなく、現実の印刷物(目標印刷物22)を基にするため、目標印刷物22の読み取りから把握される画像信号値(CMYK)と目標印刷物22の色度値(XYZ)の対応関係の中に、各色材の0%と100%の掛け合わせの色は必ずしも存在しない。
 そこで、Neugebauerモデルの各色材0%と100%の掛け合わせに対応した色度値(Xpi, Ypi, Zpi)を未知数とし、画像信号値(CMYK)、すなわち「Fi」と、目標印刷物の色度値(Xm,Ym,Zm)の対応関係を正解データとして最適化手法により(Xpi, Ypi,Zpi)を推定することを考える。つまり、次式に示す差の二乗和を最小化する(Xpi,Ypi,Zpi)を見つける最適化を行う。
 次式はXに関する式である。Y,Zに関する式も同様に表すことができる。
Figure JPOXMLDOC01-appb-M000004
 ここで、jは画像信号値(CMYK)と目標印刷物の色度値(XmYmZm)の対応関係データのID(つまり各画素)を意味する添え字である。
 最適化の手法は、例えば、ニュートン法、準ニュートン法、シンプレックス法などが利用できる。ここに例示した方法以外の手法を用いることも可能であり、適用する手法について限定するものではない。
 上記の最適化によって求められた(Xpi,Ypi,Zpi)を用いることにより、Neugebauerモデルにより色変換テーブルの各格子点の色度値を算出することができる。
 このように最適化の演算により(Xpi,Ypi,Zpi)を推定したが、画像信号中に色材の0%と100%の掛け合わせの色があれば、対応する色度値をそのまま(Xpi,Ypi,Zpi)の値として採用してよい。未知数が減り最適化が容易になる。
 また上記の説明ではNeugebauerモデルとしたが、次式のYule-Nielsen補正付きNeugebauerモデルを利用することもできる。nはいわゆるYule-Nielsenの補正係数でありNeugebauerモデルに対し掛け合わせの非線形性を補正する。
Figure JPOXMLDOC01-appb-M000005
 この補正係数付きモデルを利用する場合は、nを未知数に追加して最適化を実施すればよい。nはXYZ値で共通でもよいし、X,Y,Zでそれぞれ異なる係数(nx,ny,nz)として求めてもよい。
 この他にも、色予測の基本となる色(Xpi,Ypi,Zpi)を中間面積率も含む掛け合わせ色(例えば、0%,40%,100%)に拡張したCellular-Neugebauerモデル等の利用も可能である。また本発明の実施に際しては、Neugebauerモデルに限定されるものではない。画像信号と色度値の関係を表すモデルであればよく、Neugebauerモデル以外の色再現モデルを利用することもできる。また適当なマトリクスや多項式などで色再現(画像信号と色度値の関係)を数式化し、マトリクスの要素や多項式の係数などを最適化することで新たなモデルを作ることもできる。
 <画像処理方法について>
 第1実施形態から第8実施形態で説明した画像処理装置10、40、50、90、100、110、120、130のそれぞれの装置による処理の内容とその手順は、それぞれ画像処理方法として把握することができる。
 <印刷システムの構成例>
 図16は本発明の実施形態に係る画像処理装置を含んだ印刷システムの構成例を示すブロック図である。印刷システム210は、画像編集装置212と、印刷制御装置214と、印刷部216とを備える。画像編集装置212は、実施形態に係る画像処理装置としての役割を果たす。画像編集装置212は、第1実施形態から第8実施形態の各実施形態で説明した画像処理装置として機能する。すなわち、画像編集装置212は、原稿画像20と目標印刷物22の色の不整合を検出する画像検査装置として機能し、かつ、色変換テーブルを使用した色変換処理や画像データ加工(編集)などの画像処理を行う装置である。画像編集装置212で生成された印刷画像データは印刷制御装置214に送られる。
 印刷制御装置214は画像編集装置212により生成された印刷画像データに基づき、印刷部216による印刷動作を制御する。印刷制御装置214は、連続調画像データから2値又は多値の網点画像のデータに変換するハーフトーン処理部を含むことができる。本実施形態では、画像編集装置212と印刷制御装置214とを別々の構成として図示しているが、印刷制御装置214の機能を画像編集装置212に搭載する構成も可能である。例えば、1台のコンピュータを画像編集装置212及び印刷制御装置214として機能させる構成が可能である。
 印刷部216は印刷制御装置214の制御にしたがい印刷を行う画像形成手段である。印刷部216における印刷方式や使用する色材の種類については、特に限定されない。印刷部216として、例えば、インクジェット印刷機、電子写真プリンタ、レーザープリンタ、オフセット印刷機、フレキソ印刷機など、各種のプリンタを採用できる。「プリンタ」という用語は、印刷機、印刷装置、画像記録装置、画像形成装置、画像出力装置などの用語と同義のものとして理解される。色材には、印刷部216の種類に応じて、インクやトナー等を使用することができる。
 ここでは、説明を簡単にするために、無版式のデジタル印刷機を想定し、印刷制御装置214と印刷部216とを組み合わせた構成を印刷装置218として記載する。印刷制御装置214と印刷部216とが一体的に組み合わせた印刷装置218を構成する態様も可能であるし、印刷制御装置214と印刷部216とを別体の装置として構成し、有線又は無線の通信接続により信号の受け渡しを行う態様も可能である。
 印刷部216として印刷版を用いる有版式の印刷機を採用する場合は、印刷制御装置214に加えて、画像データから印刷版を作るプレートレコーダ等の製版装置(不図示)を備えるシステム構成となる。この場合、製版装置(不図示)と印刷制御装置214と印刷部216とを組み合わせた構成が印刷装置218に相当する。
 本例の印刷システム210は、印刷装置218の一例として、シアン(C)、マゼンタ(M)、イエロー(Y)、ブラック(K)の4色のインクを用いてカラー画像の形成が可能なインクジェット印刷機を用いる。ただし、インクの色数やその組み合わせはこの例に限らない。例えば、CMYK4色の他に、ライトシアン(LC)、ライトマゼンタ(LM)などの淡色インクを加える態様や、赤、緑などの特色のインクを用いる態様なども可能である。
 画像編集装置212は、画像データ入力部220と、画像データ記憶部222と、画像処理部224と、制御部226と、を備える。また、画像編集装置212は、画像読取部12と、測色器232と、表示部234と、入力装置236と、を備える。画像編集装置212は、コンピュータのハードウェアとソフトウェアの組み合わせによって実現することができる。具体的には、図示しないCPU(Central Processing Unit)に各種プログラムがロードされることにより当該CPUが動作し、画像編集装置212内の画像データ入力部220と、画像データ記憶部222と、画像処理部224と、制御部226とが制御される。なお、ソフトウェアはプログラムと同義である。画像編集装置212は、RIP(Raster Image Processor)装置の一機能として実現することができる。
 画像データ入力部220は、原稿画像20を取り込むためのデータ取得部である。画像データ入力部220は、外部又は装置内の他の信号処理部から原稿画像20を取り込むデータ入力端子により構成することができる。画像データ入力部220として、有線又は無線の通信インターフェース部を採用してもよいし、メモリカードなどの外部記憶媒体の読み書きを行うメディアインターフェース部を採用してもよく、若しくは、これら態様の適宜の組み合わせであってもよい。
 画像データ記憶部222は、画像データ入力部220を介して取得された原稿画像20を記憶しておく手段である。画像データ入力部220から取り込まれた原稿画像20は、画像データ記憶部222に記憶される。
 画像読取部12は、目標印刷物22や印刷装置218により印刷された印刷物250などの印刷物を読み取って、読み取り対象物の読取画像データを生成する。画像読取部12によって得られた読取画像データを画像処理部224に取り込む機能が「読取画像データを取得する機能」に相当する。
 画像処理部224は、画像読取部12から取得した読取画像データと原稿画像20を基に、原稿画像20と目標印刷物22の色の不整合を検出する処理を行う。また、画像処理部224は、不整合が検出された原稿画像20の画像信号値を調整して調整後原稿画像104(図11参照)を作成する処理を行うことができる。さらに、画像処理部224は、印刷部216による色再現に必要な色変換テーブル(図12で説明した第2の色変換テーブル136)を作成する処理を行うことができる。
 画像処理部224は、原稿画像20又は調整後原稿画像104(図11参照)に対して目標プロファイルの色変換テーブルを用いた色変換処理を行い、印刷装置218に受け渡すための画像データを生成する機能を有する。画像処理部224は、必要に応じて、原稿画像20や読取画像データに対して解像度変換や階調変換などの処理を行う機能を備える。
 また、本例の印刷システム210は、画像読取部12による読取画像の色情報の精度を高めるために、測色器232を備えている。測色器232には分光測色器が用いられる。分光測色器は、可視光の波長領域を所定の波長刻み幅で反射率を測定し、人間の視覚の分光感度を表すXYZ等色関数を用いてXYZ値を算出して測色値を取得する。測色器232として用いられる分光測色器は、例えば、可視光の波長領域である380nm-730nmの波長領域を10nmの波長刻み幅(波長ステップ)で反射率を測定し、測色値を得る。測色器232から得られるXYZ値は、公知の変換式により、L***表色系などのデバイス非依存色空間の色座標値に変換することができる。測色器232は、測色手段(測色部)の一形態である。
 測色器232から得られる測色値の情報は画像処理部224に送られる。画像処理部224は、画像読取部12から得られる読取画像データの他、測色器232から取得される測色値の情報も加味して色変換テーブルを作成することができる。
 制御部226は、画像編集装置212の各部の動作を制御する。表示部234と入力装置236はユーザーインターフェースとして機能する。入力装置236は、キーボード、マウス、タッチパネル、トラックボールなど、各種の手段を採用することができ、これらの適宜の組み合わせであってもよい。なお、タッチパネルを表示部234の画面上に配置した構成のように、表示部234と入力装置236とが一体的に構成されている形態も可能である。
 オペレータは、表示部234の画面に表示される内容を見ながら入力装置236を使って印刷条件の入力や、画質モードの選択、測色位置の指定、付属情報の入力/編集、情報の検索など各種情報の入力を行うことができる。また、入力内容その他の各種情報は表示部234の表示を通じて確認することができる。
 表示部234は、エラー情報を報知する報知手段として機能する。原稿画像20と目標印刷物22の色の不整合が検出された場合に、表示部234の画面に不整合を知らせる情報が表示される。
 図17は印刷システム210における目標プロファイルの作成機能と印刷機能の概要を示したブロック図である。図17中、図16で説明した要素と同一の要素には同一の符号を付した。印刷システム210は、与えられた目標印刷物22と原稿画像20とを基に、印刷装置218によって目標印刷物22と同等の色を再現した印刷物250が得られるように色合わせを行う機能を備える。「同等の色」とは、依頼者が許容できる色の差の範囲で実質的に同等なものとして満足できる許容範囲を含むものである。
 このような色合わせを実現するために、印刷システム210は、画像読取部12を備えており、さらに、図17に示すように、画像対応付け部14と、第1の色変換部264と、目標プロファイル作成部266と、を備えている。
 第1の色変換部264は、図3で説明した色変換部42に相当するものである。第1の色変換部264は、デバイス依存色空間の色成分の信号値(本例ではRGB)で表される読取画像データから、デバイス非依存色空間の色成分の信号値(本例ではLab)で表される色変換後読取画像データに変換する処理を行う。第1の色変換部264は、スキャナプロファイル268の色変換テーブル(図3で説明した第1の色変換テーブル44に相当)を用いて、RGB値からLab値に変換する色変換の処理(RGB→Lab変換)を行う。スキャナプロファイル268は、画像読取部12から得られるデバイス依存色空間の読取画像信号値であるRGB値とデバイス非依存のLab値との対応関係を表す色変換テーブル(「第1の色変換テーブル」)を含む。
 第1の色変換部264による色変換前の読取画像の信号値が「スキャンRGB値」であり、第1の色変換部264による色変換後の読取画像の信号値が「スキャンLab値」である。
 なお、ここでは、デバイス非依存色空間としてLab色空間を用いるが、他のデバイス非依存色空間を用いることも可能である。画像読取部12から得られる読取画像信号(RGB)の色空間を「第1の色空間」、Lab色空間により例示されるデバイス非依存色空間を「第2の色空間」とする場合、第1の色変換部264は、第1の色空間により表される信号値を第2の色空間により表される信号値に変換する処理を行う。
 目標プロファイル作成部266は、図12で説明した色変換テーブル作成部134に相当するものである。目標プロファイル作成部266は、原稿画像20又は調整後原稿画像104(図11参照)と、色度値により表される読取画像の対応関係から目標プロファイルの色変換テーブル(「第2の色変換テーブル」に相当)を作成する。
 また、印刷システム210は、測色器232によって測色値が得られる測色位置と原稿画像20における位置と対応付けの処理を行う測色位置対応付け部270と、測色器232から得られる測色値を用いてスキャナプロファイル268を補正する第1のプロファイル補正部272と、を備える。第1のプロファイル補正部272に代えて、又は加えて、第1の色変換部264による色変換後のLab画像の色度値を直接修正する色度値置換部274を備える構成も可能である。
 画像対応付け部14、第1の色変換部264、目標プロファイル作成部266、測色位置対応付け部270、第1のプロファイル補正部272、及び色度値置換部274の各部は、図16で説明した画像編集装置212の画像処理部224に含まれる。
 また、画像処理部224には、図17に示すように、第2の色変換部280と、第2のプロファイル補正部282と、差分色度値演算部284と、が含まれる。
 第2の色変換部280は、原稿画像20、又は原稿画像20の画像信号値を部分的に調整して得られた調整後原稿画像104の色変換処理を行う。第2の色変換部280は、ICCプロファイルの形式に則した目標プロファイル292と、プリンタプロファイル294とを用いて、原稿画像20又は調整後原稿画像104の色変換処理を行い、印刷装置218に適したデータ形式の画像信号を生成する。ここでは、印刷装置218に適したデータ形式の画像信号として、CMYK信号の形式による出力デバイス信号を生成する。
 目標プロファイル292の色変換テーブル(「入力色変換テーブル」という。)は、原稿画像信号のターゲットカラー(目標色)をデバイス非依存色空間において定義した色変換テーブルである。本例の場合、目標プロファイル292の色変換テーブル(「第2の色変換テーブル」に相当)は、CMYK→Labの変換関係を記述したテーブルである。原稿画像信号の色空間を第3の色空間とすると、入力色変換テーブルは、第3の色空間で表される信号値から、デバイス非依存の第2の色空間により表される信号値への変換関係を定めたテーブルとなっている。
 プリンタプロファイル294は、出力プロファイルとも呼ばれる。プリンタプロファイル294の色変換テーブル(「出力色変換テーブル」という。)は、印刷装置218に出力するCMYK信号と印刷装置218による出力色のLab値との対応関係を規定した色変換テーブルである。出力色変換テーブルは、再現すべきLab値に対応する出力CMYK値への変換関係(Lab→CMYK)を記述したテーブルとなっている。
 差分色度値演算部284は、目標印刷物22の読取画像データから第1の色変換部264により色変換して作成された目標色度値(目標印刷物22のLab値)と、印刷物250の読取画像データから生成された印刷色度値(印刷物250のLab値)の差を表す差分色度値(Lab差分)を計算する演算部である。
 差分色度値演算部284で算出された差分情報は第2のプロファイル補正部282に提供される。第2のプロファイル補正部282は、差分情報を基に、目標プロファイル292を修正する処理を行う。なお、第2のプロファイル補正部282は、目標プロファイル292を修正する構成に限らず、プリンタプロファイル294を修正する構成を採用してもよい。或いはまた、第2のプロファイル補正部282は、差分情報を基に色補正プロファイル296を作成し、目標プロファイル292、色補正プロファイル296、及びプリンタプロファイル294を組み合わせて、第2の色変換部280の色変換テーブルを修正する構成とすることができる。
 本実施形態の印刷システム210において画像読取部12を用いて目標印刷物22と印刷物250の色合わせを行う色調整動作は、大きく分けて次の二つの段階に分けることができる。
 第1の段階は、目標印刷物22を画像読取部12により読み取って目標プロファイルを推定すること、すなわち、目標プロファイルを作成すること、である。
 第2の段階は、目標印刷物22と、印刷装置218により印刷された印刷物250とのそれぞれを画像読取部12により読み取って、これらの読取結果を基に第2の色変換部280に適用するプロファイルを補正して色合わせ精度を向上させることである。
 印刷システム210に搭載した色調整技術によれば、次のような利点がある。
 [1]目標印刷物の読取画像と原稿画像の対応関係から目標プロファイルの色変換テーブルを作成することができるため、目標プロファイルの作成作業を簡易化することができる。
 [2]また、目標印刷物22を画像読取部12により読み取って取得した目標印刷物の色度値と、仮の入力色変換テーブルを用いて色変換して印刷した印刷物を画像読取部12により読み取って取得した印刷物の色度値と、に基づき、暫定的な入力色変換テーブルを補正、若しくは出力色変換テーブルを補正、又は色補正テーブルを作成することができる。これにより、第2の色変換部280に適用する色変換テーブルをより一層適切なものにすることができ、色変換の精度を向上させることができる。さらに、かかる処理を繰り返すことにより、印刷物の色を目標印刷物22の色に一層近づけることが可能になる。
 [3]目標プロファイル作成部266により作成した色変換テーブルを、「仮の入力色変換テーブル」の初回の入力色変換テーブルとして用いることにより、初回の印刷での色再現の精度が最適化され、色合わせの収束が速くなる。
 [4]本実施形態によれば、原稿画像信号値と対応する色度値の多次元の対応関係を表す色変換テーブル(第2の色変換テーブル)を作成して、目標印刷物と印刷物との色を合わせるため、従来の方法に比べて、色補正の自由度が高く、より高精度な色補正(色合わせ)が可能となる。本実施形態によれば、目標印刷物を出力した印刷機と、印刷物250の印刷に用いる印刷装置218との色再現特性が大きく異なる場合であっても、十分な色合わせ精度が得られる。
 [5]図7で説明した原稿対応画像抜き出し部70を含んだ画像対応付け部14を採用することにより、原稿画像20と目標印刷物22の印刷画像とが一対一に対応しない場合でも不整合の検出や色合わせを実施可能となる。
 [6]測色器232を併用する構成を採用することにより、画像読取部12を介して取得する色度値の測定の誤差を低減し、色合わせ精度を向上させることができる。
 [7]本実施形態によれば、色再現目標が現物の印刷物(目標印刷物)により指定されている場合でも、適切な色変換テーブルを作成することができ、ICCプロファイルを利用したカラーマネージメントが可能となる。
 <コンピュータを画像処理装置として機能させるプログラムについて>
 上述の実施形態で説明した画像処理装置として、コンピュータを機能させるためのプログラムをCD-ROM(Compact Disc read-only memory)や磁気ディスクその他のコンピュータ可読媒体(有体物たる非一時的な情報記憶媒体)に記録し、情報記憶媒体を通じてプログラムを提供することが可能である。このような情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの通信ネットワークを利用してプログラム信号をダウンロードサービスとして提供することも可能である。
 また、このプログラムをコンピュータに組み込むことにより、コンピュータに画像処理装置の各機能を実現させることができ、上述の各実施形態で説明した不整合の検出機能や、原稿画像の調整機能、色変換テーブルの作成機能、色変換の処理機能をコンピュータに実現させることができる。
 各実施形態で説明した画像処理装置の機能を1台のコンピュータにより実現することも可能であるし、複数台のコンピュータにより実現することも可能である。また、複数台のコンピュータによって画像処理装置の機能を実現する場合の各コンピュータの役割や機能の分担については、様々な形態があり得る。
 <実施形態の利点>
 (1)上述した発明の実施形態によれば、原稿画像の同一画像信号値画像領域における目標印刷物の色の不整合を検出することができる。
 (2)検出した不整合の情報を利用して、目標印刷物に対する色合わせ工程を効率化でき、色調整の作業工数を削減することができる。
 (3)図9から図12で説明したように、不整合が検出された場合に、原稿画像における不整合領域の画像信号値を調整する構成を採用することにより、不整合の原稿画像が提供された場合であっても、目標色再現の印刷物である目標印刷物を読み取って目標プロファイルを作成する技術を適用可能となる。これにより、原稿画像と整合しない目標印刷物であっても、目標印刷物と、印刷物の色合わせが可能となる。
 以上説明した本発明の実施形態は、本発明の趣旨を逸脱しない範囲で、適宜構成要件を変更、追加、削除することが可能である。本発明は以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で当該分野の通常の知識を有するものにより、多くの変形が可能である。
 10…画像処理装置、12…画像読取部、14…画像対応付け部、15…領域分類処理部、16…統計処理部、18…不整合検出部、20…原稿画像、22…目標印刷物、24…読取画像、24A…第1の読取画像、24B…第2の読取画像、24C…読取画像、30…不整合判定情報、32…不整合領域情報、40…画像処理装置、42…色変換部、44…第1の色変換テーブル、50,90,100…画像処理装置、102…画像調整部、104…調整後原稿画像、110,120,130…画像処理装置、134…色変換テーブル作成部、136…第2の色変換テーブル、210…印刷システム、212…画像編集装置、214…印刷制御装置、216…印刷部、218…印刷装置、224…画像処理部、226…制御部、264…第1の色変換部、266…目標プロファイル作成部、280…第2の色変換部、292…目標プロファイル、294…プリンタプロファイル

Claims (11)

  1.  目標印刷物を読み取って前記目標印刷物の読取画像を表す第1の読取画像データを取得する画像読取部と、
     前記第1の読取画像データ、又は前記第1の読取画像データを色変換して得られる第2の読取画像データのいずれかである読取画像データと前記目標印刷物の原稿画像データとの位置関係を対応付ける処理を行う画像対応付け部と、
     前記原稿画像データにおける同一の原稿画像信号値の画像領域に対応する前記読取画像データの画像領域ごとに、前記読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理部と、
     前記統計情報に基づいて前記原稿画像データと前記目標印刷物の色の不整合を検出する不整合検出部と、
     を備える画像処理装置。
  2.  前記原稿画像データの各画素の原稿画像信号値を基に、前記原稿画像データの各画素を同じ原稿画像信号値を有する画素の集合に分類することにより、前記原稿画像データを前記同一の原稿画像信号値の画像領域に分ける処理を行う領域分類処理部を備える請求項1に記載の画像処理装置。
  3.  前記統計処理部は、前記同一の原稿画像信号値の画像領域に対応する前記読取画像データの画像領域に属する前記読取画像データの画素群を母集団とする統計処理を行い、前記母集団に属する画素の前記読取画像信号値のばらつきを表す統計量及び前記読取画像信号値のヒストグラムの少なくとも一つの前記統計情報を生成する請求項1又は2に記載の画像処理装置。
  4.  前記画像読取部により取得される前記第1の読取画像データの読取画像信号値と、デバイス非依存色空間の値により表される色度値との対応関係を表す第1の色変換テーブルを用いて、前記第1の読取画像データの読取画像信号値を前記色度値に変換する色変換部を備え、
     前記統計処理部は、前記色変換部により色変換された前記読取画像の色度値を前記読取画像信号値として前記統計情報を生成する請求項1から3のいずれか一項に記載の画像処理装置。
  5.  前記不整合検出部は、前記統計情報に基づき前記原稿画像データと前記読取画像データの色の不整合領域を検出する請求項1から4のいずれか一項に記載の画像処理装置。
  6.  前記原稿画像データにおける前記不整合領域に属する画素の原稿画像信号値を、前記読取画像データの前記不整合領域に属する画素の読取画像信号値に基づいて調整する画像調整部を備える請求項5に記載の画像処理装置。
  7.  前記画像調整部は、前記読取画像データの前記不整合領域に属する画素の読取画像信号値を前記原稿画像データの色空間による信号値に変換して、前記不整合領域に属する画素の前記読取画像信号値を前記原稿画像データの色空間に変換した前記信号値と、前記不整合領域の信号値群の代表値との差分に基づき調整量を算出する請求項6に記載の画像処理装置。
  8.  前記画像調整部は、前記原稿画像データにおける前記不整合領域に属する画素の原稿画像信号値に、前記調整量を加算して調整後の原稿画像信号値とする請求項7に記載の画像処理装置。
  9.  前記画像調整部によって前記原稿画像信号値が調整された調整後の原稿画像データと、前記第1の読取画像データの読取画像信号値をデバイス非依存色空間の値により表される色度値に変換した前記第2の読取画像データとの対応関係に基づいて、前記原稿画像データの色空間による原稿画像信号値と前記色度値の対応関係を表す第2の色変換テーブルを作成する色変換テーブル作成部を備える請求項6から8のいずれか一項に記載の画像処理装置。
  10.  目標印刷物を読み取って前記目標印刷物の読取画像を表す第1の読取画像データを取得する画像読取工程と、
     前記第1の読取画像データ、又は前記第1の読取画像データを色変換して得られる第2の読取画像データである読取画像データと前記目標印刷物の原稿画像データとの位置関係を対応付ける処理を行う画像対応付け工程と、
     前記原稿画像データにおける同一の原稿画像信号値の画像領域に対応する前記読取画像データの画像領域ごとに、前記読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理工程と
     前記統計情報に基づいて前記原稿画像データと前記目標印刷物の色の不整合を検出する不整合検出工程と、
     を含む画像処理方法。
  11.  コンピュータに、
     目標印刷物を読み取る画像読取部から前記目標印刷物の読取画像を表す第1の読取画像データを取得する機能と、
     前記第1の読取画像データ、又は前記第1の読取画像データを色変換して得られる第2の読取画像データである読取画像データと前記目標印刷物の原稿画像データとの位置関係を対応付ける処理を行う画像対応付け機能と、
     前記原稿画像データにおける同一の原稿画像信号値の画像領域に対応する前記読取画像データの画像領域ごとに、前記読取画像データの読取画像信号値の分布を反映する統計情報を生成する統計処理機能と、
     前記統計情報に基づいて前記原稿画像データと前記目標印刷物の色の不整合を検出する不整合検出機能と、
     を実現させるためのプログラム。
PCT/JP2016/055705 2015-03-31 2016-02-25 画像処理装置及び方法、並びにプログラム WO2016158118A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/690,463 US10250779B2 (en) 2015-03-31 2017-08-30 Image processing apparatus, image processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015072938A JP6339962B2 (ja) 2015-03-31 2015-03-31 画像処理装置及び方法、並びにプログラム
JP2015-072938 2015-03-31

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/690,463 Continuation US10250779B2 (en) 2015-03-31 2017-08-30 Image processing apparatus, image processing method, and program

Publications (1)

Publication Number Publication Date
WO2016158118A1 true WO2016158118A1 (ja) 2016-10-06

Family

ID=57004963

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/055705 WO2016158118A1 (ja) 2015-03-31 2016-02-25 画像処理装置及び方法、並びにプログラム

Country Status (3)

Country Link
US (1) US10250779B2 (ja)
JP (1) JP6339962B2 (ja)
WO (1) WO2016158118A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113624692A (zh) * 2020-05-08 2021-11-09 广西巨玖龙脉科技有限公司 一种文物色变监测建模方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018098630A (ja) * 2016-12-13 2018-06-21 富士フイルム株式会社 色変換テーブル作成装置及び方法、色変換装置、並びにプログラム
JP6977368B2 (ja) * 2017-07-28 2021-12-08 コニカミノルタ株式会社 画像形成装置、検査装置およびプログラム
JP7047386B2 (ja) * 2018-01-10 2022-04-05 セイコーエプソン株式会社 異常を警告する方法および異常警告システム
US20210031507A1 (en) * 2018-04-25 2021-02-04 Hewlett-Packard Development Company, L.P. Identifying differences between images
JP7091852B2 (ja) * 2018-06-04 2022-06-28 コニカミノルタ株式会社 画像処理装置及び画像処理方法
JP7230500B2 (ja) * 2018-12-27 2023-03-01 コニカミノルタ株式会社 画像処理装置、色変換方法および色変換プログラム
JP7331595B2 (ja) * 2019-09-30 2023-08-23 コニカミノルタ株式会社 色変換パラメーター生成装置、色変換パラメーター生成方法及びプログラム
CN111046903B (zh) * 2019-10-30 2023-06-02 东莞市宇环纸品包装材料有限公司 一种印刷品图形检验方法、系统及存储介质
JP2022123633A (ja) * 2021-02-12 2022-08-24 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN113128518B (zh) * 2021-03-30 2023-04-07 西安理工大学 基于孪生卷积网络和特征混合的sift误匹配检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006094040A (ja) * 2004-09-22 2006-04-06 Dainippon Screen Mfg Co Ltd プロファイル作成装置、プログラムおよびプロファイル作成方法
JP2013026921A (ja) * 2011-07-22 2013-02-04 Ricoh Co Ltd 画像処理装置、画像処理システム
JP2013026693A (ja) * 2011-07-15 2013-02-04 Ricoh Co Ltd 画像処理装置、画像処理システム

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008008841A (ja) 2006-06-30 2008-01-17 Dac Engineering Co Ltd 印刷物検査方法及び印刷物検査システム
EP2266099A1 (en) * 2008-03-18 2010-12-29 Thomson Licensing Method and apparatus for adaptive feature of interest color model parameters estimation
JP5303503B2 (ja) 2010-03-30 2013-10-02 大日本スクリーン製造株式会社 画像検査装置および印刷装置、並びに、画像検査方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006094040A (ja) * 2004-09-22 2006-04-06 Dainippon Screen Mfg Co Ltd プロファイル作成装置、プログラムおよびプロファイル作成方法
JP2013026693A (ja) * 2011-07-15 2013-02-04 Ricoh Co Ltd 画像処理装置、画像処理システム
JP2013026921A (ja) * 2011-07-22 2013-02-04 Ricoh Co Ltd 画像処理装置、画像処理システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113624692A (zh) * 2020-05-08 2021-11-09 广西巨玖龙脉科技有限公司 一种文物色变监测建模方法
CN113624692B (zh) * 2020-05-08 2024-05-28 广西巨玖龙脉科技有限公司 一种文物色变监测建模方法

Also Published As

Publication number Publication date
US10250779B2 (en) 2019-04-02
US20170366709A1 (en) 2017-12-21
JP2016192742A (ja) 2016-11-10
JP6339962B2 (ja) 2018-06-06

Similar Documents

Publication Publication Date Title
JP6339962B2 (ja) 画像処理装置及び方法、並びにプログラム
US9900472B2 (en) Color conversion table creation device and method, program, and recording medium
US10735627B2 (en) Color conversion table creation apparatus and method, color conversion apparatus, and program
JP5733083B2 (ja) 画像処理装置、画像処理システム
JP6317839B2 (ja) 色変換テーブル作成装置及び方法、並びにプログラム
JP5857676B2 (ja) 画像処理装置、画像処理システム
US8767232B2 (en) Image processing apparatus, image processing method, and computer-readable storage medium
US9020258B2 (en) Image processing apparatus and image processing system configured to convert color tone in image
JP6150779B2 (ja) 色変換テーブル作成装置及び方法、並びにプログラム
US9407794B2 (en) Image processing apparatus and image processing system
JP6342824B2 (ja) 色変換テーブル作成装置、色変換テーブル作成方法、及び色変換テーブル作成プログラム
JP6680076B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
US8270029B2 (en) Methods, apparatus and systems for using black-only on the neutral axis in color management profiles
WO2015072542A1 (ja) 色変換テーブル作成装置及び方法、プログラム、並びに記録媒体
US8456704B2 (en) Colorimetric matching the perception of a digital data file to hardcopy legacy
JP6298387B2 (ja) 色変換テーブル作成装置及び方法、並びにプログラム
US9967407B2 (en) Image reading device and method, reading area display device and method, and program
US20220036570A1 (en) Image processing apparatus, image processing method, and image processing system
EP1968303B1 (en) Image forming apparatus and control method
JP2016051972A (ja) 画像処理装置及び方法、プログラム、並びに印刷物読取方法
JP6384268B2 (ja) 画像処理装置、画像処理方法、及び画像処理システム
Elliot et al. Print engine color management using customer image content

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16772002

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16772002

Country of ref document: EP

Kind code of ref document: A1