JP6384268B2 - Image processing apparatus, image processing method, and image processing system - Google Patents

Image processing apparatus, image processing method, and image processing system Download PDF

Info

Publication number
JP6384268B2
JP6384268B2 JP2014219102A JP2014219102A JP6384268B2 JP 6384268 B2 JP6384268 B2 JP 6384268B2 JP 2014219102 A JP2014219102 A JP 2014219102A JP 2014219102 A JP2014219102 A JP 2014219102A JP 6384268 B2 JP6384268 B2 JP 6384268B2
Authority
JP
Japan
Prior art keywords
image data
color
conversion
difference
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014219102A
Other languages
Japanese (ja)
Other versions
JP2016086339A (en
Inventor
友保 相▲崎▼
友保 相▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2014219102A priority Critical patent/JP6384268B2/en
Publication of JP2016086339A publication Critical patent/JP2016086339A/en
Application granted granted Critical
Publication of JP6384268B2 publication Critical patent/JP6384268B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Accessory Devices And Overall Control Thereof (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Description

本発明は、画像処理装置、画像処理方法、及び画像処理システムに関する。   The present invention relates to an image processing device, an image processing method, and an image processing system.

従来より、画像出力機器から出力したカラーチャートを例えば測色計等により測色して、各画像出力機器のカラープロファイルを更新することで、各画像出力機器間の色合わせを行う技術が知られている。   Conventionally, a technique for performing color matching between image output devices by measuring the color chart output from the image output device using a colorimeter or the like and updating the color profile of each image output device is known. ing.

また、カラーチャートを用いずに画像出力機器間の色合わせを行うことができる技術が従来より知られている(例えば特許文献1参照)。   Further, a technique that can perform color matching between image output devices without using a color chart has been conventionally known (see, for example, Patent Document 1).

しかしながら、上記の従来技術においては、例えば二台の画像出力機器間で色合わせを行った際に、色合わせの結果についてユーザが意図したものでない場合がある。このような場合、ユーザは、手作業により色合わせを行う必要があった。一方、手作業による色合わせには、画像処理に関する専門的な知識が必要となり、ユーザの意図通りの色合わせを行うことは難しいという問題がある。   However, in the above prior art, for example, when color matching is performed between two image output devices, the result of color matching may not be what the user intended. In such a case, the user has to perform color matching manually. On the other hand, manual color matching requires specialized knowledge about image processing, and it is difficult to perform color matching as intended by the user.

本発明の実施の形態は、上記の点に鑑みてなされたもので、ユーザの意図する色合わせを支援することを目的とする。   The embodiment of the present invention has been made in view of the above points, and aims to support color matching intended by a user.

上記の目的を達成するため、本発明の実施の形態は、第一の画像出力手段が原稿画像データを出力した第一の出力結果の色を、第二の画像出力手段が前記原稿画像データを出力した第二の出力結果において再現する画像処理装置であって、前記原稿画像データの色から読み取り装置が前記第一の出力結果を読み取った第一の出力画像データの色を推定する第一の写像と、前記読み取り装置が前記第二の出力結果を読み取った第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とに基づいて、前記原稿画像データの画素値を変換して中間画像データを生成する色変換手段と、前記原稿画像データと前記中間画像データとの対応する画素の画素値の差分を算出して差分画像データを生成する差分処理手段と、前記原稿画像データの画素値の色変換の強度を制御するための変換強度パラメータを取得する変換強度パラメータ取得手段と、前記差分画像データと前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する補正処理手段と、前記原稿画像データと前記補正差分画像データとの対応する画素の画素値について所定の演算を行い、前記原稿画像データと前記補正差分画像データとを合成する画像合成手段と、を有することを特徴とする。   In order to achieve the above object, according to an embodiment of the present invention, the first image output unit outputs the color of the first output result obtained by outputting the document image data, and the second image output unit stores the document image data. An image processing apparatus for reproducing the output second output result, wherein the reading device estimates the color of the first output image data obtained by reading the first output result from the color of the original image data. A pixel value of the original image data based on the mapping and a second mapping that estimates the color of the original image data from the color of the second output image data read by the reading device by the reading device; Color conversion means for converting the image data to generate intermediate image data, difference processing means for calculating difference between pixel values of corresponding pixels of the original image data and the intermediate image data, and generating difference image data, Manuscript Based on the conversion intensity parameter acquisition means for acquiring the conversion intensity parameter for controlling the color conversion intensity of the pixel value of the data, and the difference image data and the conversion intensity parameter, the pixel value of the difference image data is converted. Correction processing means for generating the corrected difference image data, a predetermined calculation is performed on pixel values of corresponding pixels of the document image data and the correction difference image data, and the document image data and the correction difference image data And image synthesizing means for synthesizing.

本発明の実施の形態によれば、ユーザの意図する色合わせを支援することができる。   According to the embodiment of the present invention, color matching intended by the user can be supported.

画素値aとbの関係を模式的に説明する一例の図である。It is a figure of an example explaining the relation between pixel values a and b typically. 本実施形態に係る画像処理システムの一例の構成図である。It is a block diagram of an example of the image processing system which concerns on this embodiment. 本実施形態に係る画像処理システムの一例のハードウェア構成図である。It is a hardware block diagram of an example of the image processing system which concerns on this embodiment. 本実施形態に係るコンピュータの一例のハードウェア構成図である。It is a hardware block diagram of an example of the computer which concerns on this embodiment. 本実施形態に係るMFPの一例のハードウェア構成図である。FIG. 2 is a hardware configuration diagram of an example of an MFP according to the present embodiment. 本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例1)。1 is a functional block diagram of an example of an image processing system or MFP according to an embodiment (Example 1). 色変換処理の一例のフローチャートである(実施例1)。6 is a flowchart of an example of color conversion processing (Example 1). 本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例2)。FIG. 11 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 2). 色変換処理の一例のフローチャートである(実施例2)。10 is a flowchart of an example of color conversion processing (second embodiment). 本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例3)。FIG. 10 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 3). 色変換処理の一例のフローチャートである(実施例3)。10 is a flowchart of an example of color conversion processing (Example 3). 本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例4)。FIG. 10 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 4). 色変換処理の一例のフローチャートである(実施例4)。10 is a flowchart of an example of color conversion processing (Example 4). 基準色再現特性の推定処理の一例のフローチャートである。6 is a flowchart illustrating an example of a reference color reproduction characteristic estimation process. リスト形式で記録したデータの一例の図である。It is a figure of an example of the data recorded in list format. ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである。It is a flowchart of an example of the estimation process of the reverse characteristic of a user color reproduction characteristic. リスト形式で記録したデータの他の例の図である。It is a figure of the other example of the data recorded by the list format.

以下、本発明を実施するための形態について、図面を参照しながら実施例を挙げて説明する。   DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings.

まず、
第一の画像出力機器の色再現特性をP1(x)、
第二の画像出力機器の色再現特性をP2(x)、
画像読取装置の色再現特性をS(x)、
と定義する。ここで"x"は色又は画素値である。種々の色空間の存在を考慮すると画素値=色とはならないが、同じ色空間内では画素値=色となるので、厳密には区別していない。例えばRGB色空間の場合、x=[R, G, B]tの3次元データである。また、例えばCMYK色空間の場合、x=[C, M, Y, K]tの4次元データである。
First,
P 1 (x), the color reproduction characteristics of the first image output device
P 2 (x), the color reproduction characteristics of the second image output device
The color reproduction characteristics of the image reading device are S (x),
It is defined as Here, “x” is a color or a pixel value. In consideration of the existence of various color spaces, the pixel value is not equal to the color, but in the same color space, the pixel value is equal to the color. For example, in the case of the RGB color space, it is three-dimensional data of x = [R, G, B] t . For example, in the case of the CMYK color space, it is four-dimensional data of x = [C, M, Y, K] t .

このとき、
第一の色再現特性はS(P1(x))、
第二の色再現特性はS(P2(x))、
と表すことができる。
At this time,
The first color reproduction characteristic is S (P 1 (x)),
The second color reproduction characteristic is S (P 2 (x)),
It can be expressed as.

P1(x)は、第一の画像出力機器が画素値xを印刷した場合の色であり、S(P1(x))は画像読取装置が色P1(x)を読み取った場合の色である。P2(x)は、第二の画像出力機器が画素値xを印刷した場合の色であり、S(P2(x))は画像読取装置が色P2(x)を読み取った場合の色である。 P 1 (x) is the color when the first image output device prints the pixel value x, and S (P 1 (x)) is the color when the image reader reads the color P 1 (x). Color. P 2 (x) is the color when the second image output device prints the pixel value x, and S (P 2 (x)) is the color when the image reading device reads the color P 2 (x). Color.

第一の画像出力機器が印刷する画素値xと、第二の画像出力機器が印刷する画素値xとが同じ場合、色再現特性P1(x)及びP2(x)は互いに異なるので、S(P1(x))=S(P2(x))とはならない。一方、第一の画像出力機器が印刷する画素値と、第二の画像出力機器が印刷する画素値とが同じでない場合でも、印刷対象の画像データ(後述する原稿画像データ)には、S(P1(a))=S(P2(b))となる色(a, b)の組み合わせが存在することが期待できる(S(P1(a))とS(P2(b))は完全に一致しなくてもよい)。 When the pixel value x printed by the first image output device and the pixel value x printed by the second image output device are the same, the color reproduction characteristics P 1 (x) and P 2 (x) are different from each other, S (P 1 (x)) = S (P 2 (x)) is not satisfied. On the other hand, even when the pixel value printed by the first image output device and the pixel value printed by the second image output device are not the same, the image data to be printed (original image data described later) includes S ( It can be expected that there is a combination of colors (a, b) such that P 1 (a)) = S (P 2 (b)) (S (P 1 (a)) and S (P 2 (b)) May not match exactly).

ここで、S(P1(a))=S(P2(b))なる組合せ(a, b)を1つ以上求めることができた場合、第二の画像出力機器が画素値bを印刷してS(P2(b))が得られるのであるから、aをbとみなす変換を行うことで第二の画像出力機器が画素値aを印刷する際に、実際には画素値bを印刷するので、第二の画像出力機器は第一の画像出力機器と同じ色で印刷することができる。 Here, if one or more combinations (a, b) of S (P 1 (a)) = S (P 2 (b)) can be obtained, the second image output device prints the pixel value b. Thus, S (P 2 (b)) is obtained, so when the second image output device prints the pixel value a by converting a to be regarded as b, the pixel value b is actually set to Since printing is performed, the second image output device can print in the same color as the first image output device.

図1は、画素値aとbの関係を模式的に説明する一例の図である。第一の画像出力機器と第二の画像出力機器は、共に同じ画像データを印刷する。この画像データを原稿画像データという。   FIG. 1 is a diagram schematically illustrating the relationship between pixel values a and b. Both the first image output device and the second image output device print the same image data. This image data is called original image data.

第一の画像出力機器は画素値aを印刷するとスキャナで読み取った際にsの色となる第一の出力物を印刷する。第二の画像出力機器は画素値bを印刷するとスキャナで読み取った際にsの色となる第二の出力物を印刷する。第二の画像出力機器の色再現特性を第一の画像出力機器に合わせる場合、第二の画像出力機器は画素値aがsになるように(読み取った際にsとなるように)印刷するべきであることが分かる。したがって、第二の画像出力機器は原稿画像データの画素値aをbにて置き換える。この色変換を行うことで、第二の画像出力機器は第一の画像出力機器と同等の色にて印刷することが可能になる。   When the first image output device prints the pixel value “a”, the first image output device prints a first output product having the color s when read by the scanner. When the second image output device prints the pixel value b, it prints a second output product having the color s when read by the scanner. When the color reproduction characteristics of the second image output device are matched with those of the first image output device, the second image output device prints so that the pixel value a becomes s (when read, it becomes s). I know that it should be. Therefore, the second image output device replaces the pixel value a of the document image data with b. By performing this color conversion, the second image output device can print in the same color as the first image output device.

本実施形態では、第一の画像出力機器と第二の画像出力機器との間で色を合わせるために原稿画像データに色変換を施す処理を、以下の機器の組合せを例として説明する。
・第一の画像出力機器:プリンタ (「基準プリンタ」と呼ぶ)
・第二の画像出力機器:プリンタ (「ユーザプリンタ」と呼ぶ)
・画像読取装置:スキャナ
また、以降で使用する用語を以下のように定義する。
・基準プリンタ:第一の画像出力機器に対応し、色が合わせられる目標となるプリンタ
・ユーザプリンタ:第二の画像出力機器に対応し、基準プリンタに色を合わせたいプリンタ
・スキャナ:画像読取装置に対応
・原稿画像データ:プリンタが印刷物を出力する際に用いる画像データ
・基準印刷物:原稿画像データを基準プリンタで出力した、色合わせの目標とされる印刷物
・基準画像データ:基準印刷物を画像読取装置で読み取って得られる画像データ
・ユーザ印刷物:原稿画像データをユーザプリンタで出力した、基準印刷物に色を合わせたい印刷物
・ユーザ画像データ:ユーザ印刷物を画像読取装置で読み取って得られる画像データ
本実施形態では、基準印刷物とユーザ印刷物とを用い、ユーザプリンタに与える原稿画像データに色変換を行うことによって、基準印刷物の色と同等の色のユーザ印刷物が得られるようにする。また、色変換後の原稿画像データをユーザプリンタで出力したユーザ印刷物が、ユーザの意図した色でない場合、所定のパラメータを調整することで所望のユーザ印刷物を得られるようにする。
In the present embodiment, processing for performing color conversion on document image data in order to match colors between the first image output device and the second image output device will be described by taking the following combination of devices as an example.
First image output device: Printer (referred to as “reference printer”)
Second image output device: Printer (referred to as “user printer”)
-Image reading device: scanner The terms used in the following are defined as follows.
-Reference printer: a printer that corresponds to the first image output device and is the target of color matching-User printer: a printer that corresponds to the second image output device and wants to match the color to the reference printer-Scanner: Image reading device・ Document image data: Image data used when the printer outputs a printed matter ・ Reference printed matter: Printed original image data from the reference printer, a target for color matching / reference image data: Image reading of the reference printed matter Image data obtained by reading by the apparatus / user printed matter: original image data output by the user printer, printed matter to be matched with the reference printed matter, user image data: image data obtained by reading the user printed matter by the image reading apparatus In this mode, the standard print product and the user print product are used, and the color change is applied to the document image data to be given to the user printer. By performing the conversion, a user print having a color equivalent to the color of the reference print is obtained. In addition, when the user printed material obtained by outputting the original image data after color conversion by the user printer is not the color intended by the user, a desired user printed material can be obtained by adjusting predetermined parameters.

以降の実施例1〜実施例3では、上記で説明したS(P1(x))(これを「基準色再現特性」呼ぶ)及びS(P2(x))の逆特性P2 -1(S-1(x))(これを「ユーザ色再現特性の逆特性」と呼ぶ)は既知であるものとして説明する。一方、実施例4では、基準色再現特性S(P1(x))及びユーザ色再現特性の逆特性P2 -1(S-1(x))を推定する処理についても説明する。 In the following Examples 1 to 3, S (P 1 (x)) (referred to as “reference color reproduction characteristic”) and the inverse characteristic P 2 −1 of S (P 2 (x)) described above are used. In the following description, it is assumed that (S −1 (x)) (which is called “inverse characteristics of user color reproduction characteristics”) is known. On the other hand, in the fourth embodiment, processing for estimating the reference color reproduction characteristic S (P 1 (x)) and the inverse characteristic P 2 -1 (S -1 (x)) of the user color reproduction characteristic will also be described.

なお、S-1(x)は、画像読取装置で読み取った場合に画素値xとして読み取られる値(色)である。また、P2 -1(S-1(x))は、第二の画像出力機器で出力した場合に色S-1(x)として出力される画素値である。 Note that S −1 (x) is a value (color) read as the pixel value x when read by the image reading apparatus. P 2 −1 (S −1 (x)) is a pixel value output as the color S −1 (x) when output from the second image output device.

(実施例1)
まず、実施例1について説明する。実施例1は、基準色再現特性及びユーザ色再現特性の逆特性が既知である場合に、基準印刷物の色と同等の色のユーザ印刷物を得るために、原稿画像データに色変換を施す。そして、色変換後の原稿画像データを用いて得られたユーザ印刷物が、ユーザの意図した色でない場合、所定のパラメータを調整することで所望のユーザ印刷物を得ることができるようにするものである。
Example 1
First, Example 1 will be described. In the first embodiment, when the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics are known, the original image data is subjected to color conversion in order to obtain a user print having a color equivalent to the color of the reference print. If the user print obtained using the color-converted document image data is not the color intended by the user, a desired user print can be obtained by adjusting predetermined parameters. .

<システム構成>
図2は、本実施形態に係る画像処理システムの一例の構成図である。図2に示す画像処理システム600は、ネットワーク500を介して接続された、コンピュータ100、ユーザプリンタ200、及びスキャナ300を有する。ユーザプリンタ200の代わりにオフセット印刷機やグラビア印刷機等を用いてもよく、また、スキャナ300の代わりに分光測色器やカメラ等を用いてもよい。基準プリンタ400は、画像処理システム600のユーザ側に存在しないことを想定しているためネットワーク500に接続されていないが、接続されていてもよい。画像処理システム600のユーザは、基準プリンタ400が基準画像データを出力した基準印刷物をすでに取得しているか、取得することができるものとする。
<System configuration>
FIG. 2 is a configuration diagram of an example of an image processing system according to the present embodiment. An image processing system 600 illustrated in FIG. 2 includes a computer 100, a user printer 200, and a scanner 300 connected via a network 500. An offset printer, a gravure printer, or the like may be used instead of the user printer 200, and a spectrocolorimeter, a camera, or the like may be used instead of the scanner 300. Since it is assumed that the reference printer 400 does not exist on the user side of the image processing system 600, the reference printer 400 is not connected to the network 500, but may be connected. It is assumed that the user of the image processing system 600 has already acquired or can acquire the reference printed matter from which the reference printer 400 has output the reference image data.

ネットワーク500は、社内LAN(Local Area Network)、広域LAN(WAN:Wide Area Network)、IP−VNP(Virtual Private Network)、インターネットVPN、又はインターネット等である。これらが組み合わされたネットワーク等、コンピュータ100、ユーザプリンタ200、及びスキャナ300が通信可能であればよい。一部に電話回線を含んでいてもよく、また、有線接続か無線接続は問わない。   The network 500 is an in-house LAN (Local Area Network), a wide area LAN (WAN: Wide Area Network), an IP-VNP (Virtual Private Network), the Internet VPN, the Internet, or the like. It is sufficient that the computer 100, the user printer 200, and the scanner 300 can communicate with each other such as a network in which these are combined. A part of the telephone line may be included, and a wired connection or a wireless connection may be used.

なお、同じ一台のプリンタで過去と現在の色を合わせる場合等、基準プリンタ400とユーザプリンタ200はそれぞれ異なる装置である必要はない。また、基準プリンタ400及びユーザプリンタ200は、プリンタ機能に加えて、スキャナ機能、FAX機能及びコピー機能等の1つ以上を有していてもよい。同様に、スキャナ300は、スキャナ機能に加えて、プリンタ機能、FAX機能及びコピー機能等の1つ以上を有していてもよい。複数の機能を有する装置はMFP(Multifunction Peripheral)と称される。   Note that the reference printer 400 and the user printer 200 do not have to be different devices, for example, when the same color is used to match the past and present colors. Further, the reference printer 400 and the user printer 200 may have one or more of a scanner function, a FAX function, and a copy function in addition to the printer function. Similarly, the scanner 300 may have one or more of a printer function, a FAX function, a copy function, and the like in addition to the scanner function. An apparatus having a plurality of functions is called an MFP (Multifunction Peripheral).

また、コンピュータ100は、色変換後の原稿画像データをユーザプリンタ200で出力したユーザ印刷物が、ユーザの意図した色でない場合、色変換の強度を制御するための変換強度パラメータの入力を受け付ける。さらに、実施例4においては、コンピュータ100は、基準プリンタ400が基準印刷物の出力に使用した原稿画像データ、基準印刷物をスキャナ300が読み取った基準画像データ、及びユーザプリンタ200が原稿画像データを出力したユーザ印刷物をスキャナ300が読み取ったユーザ画像データ、の3つの画像データから基準色再現特性及びユーザ色再現特性の逆特性を推定する。   The computer 100 also accepts an input of a conversion strength parameter for controlling the strength of color conversion when the user print output from the user printer 200 with the original image data after color conversion is not the color intended by the user. Further, in the fourth embodiment, the computer 100 outputs the document image data used by the reference printer 400 for outputting the reference print product, the reference image data obtained by reading the reference print product by the scanner 300, and the user printer 200 outputs the document image data. A reference color reproduction characteristic and an inverse characteristic of the user color reproduction characteristic are estimated from three pieces of image data of user image data obtained by reading a user print by the scanner 300.

なお、原稿画像データは、ユーザプリンタ200が予め記憶しておいてもよいし、基準プリンタ400から取得してもよい。また、コンピュータ100、ユーザプリンタ200、及びスキャナ300は一台のMFPに搭載することもできる。   The document image data may be stored in advance by the user printer 200 or may be acquired from the reference printer 400. Further, the computer 100, the user printer 200, and the scanner 300 can be mounted on one MFP.

<ハードウェア構成>
図3は、本実施形態に係る画像処理システムの一例のハードウェア構成図である。画像処理システム600は、画像入力装置601、画像出力装置602、画像記憶装置603、画像解析装置604、色再現特性記憶装置605、画像処理装置606、及びパラメータ入力装置607を有する。
<Hardware configuration>
FIG. 3 is a hardware configuration diagram of an example of the image processing system according to the present embodiment. The image processing system 600 includes an image input device 601, an image output device 602, an image storage device 603, an image analysis device 604, a color reproduction characteristic storage device 605, an image processing device 606, and a parameter input device 607.

画像入力装置601は、画像出力機器により出力された画像を入力するものであり、図2ではスキャナ300が相当する。画像記憶装置603は、画像入力装置601が入力を受け付けた画像データを記憶するものであり、図2ではコンピュータ100が相当する。画像解析装置604は、基準画像データ、ユーザ画像データ、及び原稿画像データを解析して基準色再現特性及びユーザ色再現特性の逆特性を推定するもので、図2ではコンピュータ100が相当する。色再現特性記憶装置605は、基準色再現特性及びユーザ色再現特性の逆特性を記憶するもので、図2ではコンピュータ100が相当する。パラメータ入力装置607は、色変換の強度を制御するための変換強度パラメータを入力するもので、図2ではコンピュータ100が相当する。画像処理装置606は、基準色再現特性及びユーザ色再現特性の逆特性に基づく画像データの色変換及び変換強度パラメータに基づく画像データの補正処理等をするもので、図2ではユーザプリンタ200が相当する。画像出力装置602は、色変換された画像を出力するもので、図2ではユーザプリンタ200が相当する。   The image input device 601 inputs an image output by an image output device, and corresponds to the scanner 300 in FIG. The image storage device 603 stores the image data received by the image input device 601 and corresponds to the computer 100 in FIG. The image analysis device 604 analyzes the reference image data, the user image data, and the document image data to estimate the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics, and corresponds to the computer 100 in FIG. The color reproduction characteristic storage device 605 stores the reverse characteristic of the reference color reproduction characteristic and the user color reproduction characteristic, and corresponds to the computer 100 in FIG. The parameter input device 607 inputs a conversion intensity parameter for controlling the intensity of color conversion, and corresponds to the computer 100 in FIG. The image processing apparatus 606 performs color conversion of image data based on the inverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics, and image data correction processing based on the conversion intensity parameter. To do. The image output device 602 outputs a color-converted image, and corresponds to the user printer 200 in FIG.

図4は、コンピュータ100のハードウェア構成図の一例を示す。コンピュータ100はそれぞれバスで相互に接続されているCPU(Central Processing Unit)101、RAM(Random Access Memory)102、ROM(Read Only Memory)103、外部記憶I/F104、通信装置105、入力装置106、描画制御装置107、及びHDD(Hard Disk Drive)108を有する。   FIG. 4 shows an example of a hardware configuration diagram of the computer 100. The computer 100 includes a CPU (Central Processing Unit) 101, a RAM (Random Access Memory) 102, a ROM (Read Only Memory) 103, an external storage I / F 104, a communication device 105, an input device 106, A drawing control device 107 and an HDD (Hard Disk Drive) 108 are included.

CPU101は、ROM103やHDD108等の記憶装置からプログラムやデータをRAM102上に読み出し、処理を実行することで、コンピュータ100全体の制御や機能を実現する演算装置である。   The CPU 101 is an arithmetic device that implements control and functions of the entire computer 100 by reading a program and data from a storage device such as the ROM 103 and the HDD 108 onto the RAM 102 and executing processing.

RAM102は、CPU101がプログラムを実行する際に必要なデータを一時保管する作業メモリ(主記憶メモリ)である。ROM103は、BIOS(Basic Input Output System)やOS(Operating System)を起動するためのプログラム、データが記憶されている。   The RAM 102 is a working memory (main memory) that temporarily stores data necessary when the CPU 101 executes a program. The ROM 103 stores a program and data for starting up a basic input output system (BIOS) and an operating system (OS).

外部記憶I/F104は、記憶媒体110が着脱可能であり、記憶媒体110に記録されたデータを読み込み、HDD108に記憶させる。また、外部記憶I/F104は、HDD108に記憶されたデータを記憶媒体110に書き込むこともできる。記憶媒体110は、例えば、USBメモリ、SDカード等である。プログラム111は、例えば、記憶媒体110に記憶された状態や不図示のサーバからダウンロードすることで配布される。   The external storage I / F 104 is detachable from the storage medium 110, reads data recorded on the storage medium 110, and stores it in the HDD 108. The external storage I / F 104 can also write data stored in the HDD 108 into the storage medium 110. The storage medium 110 is, for example, a USB memory or an SD card. The program 111 is distributed, for example, by being downloaded from a state stored in the storage medium 110 or a server (not shown).

入力装置106は、キーボードやマウス、タッチパネル等であり、コンピュータ100へのユーザの様々な操作指示を受け付ける。   The input device 106 is a keyboard, a mouse, a touch panel, or the like, and accepts various operation instructions from the user to the computer 100.

HDD108は、プログラムやデータを格納している不揮発性の記憶装置である。HDD108は、SSD(Solid State Drive)等の不揮発メモリでもよく、OS、プログラム、画像データ等の各種のデータが記憶されている。また、HDD108には本実施形態を実現するためのプログラム111が記憶されている。   The HDD 108 is a non-volatile storage device that stores programs and data. The HDD 108 may be a nonvolatile memory such as an SSD (Solid State Drive) and stores various data such as an OS, a program, and image data. The HDD 108 stores a program 111 for realizing the present embodiment.

通信装置105は、インターネット等のネットワークに接続するためのNIC(Network Interface Card)であり、例えば、イーサネット(登録商標)カードである。   The communication device 105 is a NIC (Network Interface Card) for connecting to a network such as the Internet, and is, for example, an Ethernet (registered trademark) card.

描画制御装置107は、例えばグラフィックコントローラ等であり、CPU101がプログラム111を実行してグラフィックメモリに書き込んだ描画コマンドを解釈して、画面を生成しディスプレイ109に描画する。   The drawing control device 107 is, for example, a graphic controller, and the CPU 101 executes the program 111 to interpret a drawing command written in the graphic memory, generates a screen, and draws it on the display 109.

図5は、画像処理システム600を一台のMFPで実現した場合におけるMFP700のハードウェア構成図の一例を示す。MFP700は、コントローラ30、操作パネル31、ファックス制御ユニット32、プロッタ33、スキャナ34、及び、その他ハードウェアリソース35を有する。コントローラ30は、CPU11、MEM−P12、NB(ノースブリッジ)13、ASIC16、MEM−C14、HDD15、及びPCIバスを介してNB13と接続された周辺機器17を有する。   FIG. 5 shows an example of a hardware configuration diagram of the MFP 700 when the image processing system 600 is realized by a single MFP. The MFP 700 includes a controller 30, an operation panel 31, a fax control unit 32, a plotter 33, a scanner 34, and other hardware resources 35. The controller 30 includes a CPU 11, a MEM-P 12, an NB (North Bridge) 13, an ASIC 16, a MEM-C 14, an HDD 15, and a peripheral device 17 connected to the NB 13 via a PCI bus.

コントローラ30において、ASIC16にはMEM−C14、HDD15、及びNB13が接続されると共に、NB13にはCPU11とMEM−P12が接続されている。NB13はCPUチップセットの1つであり、CPU11、MEM−P12、ASIC16、及び周辺機器17を接続するためのブリッジである。   In the controller 30, the ASIC 16 is connected to the MEM-C 14, the HDD 15, and the NB 13, and the NB 13 is connected to the CPU 11 and the MEM-P 12. The NB 13 is one of CPU chip sets, and is a bridge for connecting the CPU 11, the MEM-P 12, the ASIC 16, and the peripheral device 17.

ASIC16は、画像処理用途向けのICであり各種の画像処理を行う。ASIC16は、AGP、HDD15、及びMEM−C14をそれぞれ接続するブリッジの役割も果たす。CPU11は、MFP700の全体制御を行うと共にMFP700に実装されている各種アプリケーションを起動して実行させる。   The ASIC 16 is an IC for image processing applications and performs various image processing. The ASIC 16 also serves as a bridge for connecting the AGP, HDD 15 and MEM-C 14 respectively. The CPU 11 performs overall control of the MFP 700 and activates and executes various applications installed in the MFP 700.

MEM−P12は、MFP700のシステムが使用するシステムメモリであり、MEM−C14は、画像処理中の画像データのバッファとして用いられるローカルメモリである。   The MEM-P 12 is a system memory used by the MFP 700 system, and the MEM-C 14 is a local memory used as a buffer for image data during image processing.

HDD15は、大容量のストレージであり、SSD等を用いてもよい。HDD15には、OS、各種のアプリケーション、フォントデータ等が記憶される。また、HDD15には本実施形態を実現するためのプログラム23が記憶されている。プログラム23は、記憶媒体18に記憶された状態や不図示のサーバを介して配布される。   The HDD 15 is a large-capacity storage, and an SSD or the like may be used. The HDD 15 stores an OS, various applications, font data, and the like. The HDD 15 stores a program 23 for realizing the present embodiment. The program 23 is distributed via a state stored in the storage medium 18 or a server (not shown).

周辺機器17は、シリアルバス、NIC、USBホスト、IEEE802.11a/b/g/n、IEEE1394、及びメモリカードI/F等である。シリアルバスには、例えばセントロニクスケーブルが接続される。NICはネットワークを介した通信を制御する。USBホストにはUSBケーブルを介して機器が接続される。IEEE802.11a/b/g/nはこれらの規格に従った無線LAN用のインタフェースであり、無線LANによる通信を制御する。IEEE1394は、高速なシリアル通信を制御するインタフェースである。メモリカードI/Fには各種のメモリカードが装着され、データの読み書きを行う。メモリカードは、例えば、SDカード、マルチメディアカード、xDカード等である。   The peripheral device 17 is a serial bus, NIC, USB host, IEEE802.11a / b / g / n, IEEE1394, memory card I / F, or the like. For example, a Centronics cable is connected to the serial bus. The NIC controls communication via the network. A device is connected to the USB host via a USB cable. IEEE802.11a / b / g / n is an interface for a wireless LAN according to these standards, and controls communication by the wireless LAN. IEEE 1394 is an interface that controls high-speed serial communication. Various memory cards are mounted on the memory card I / F, and data is read and written. The memory card is, for example, an SD card, a multimedia card, an xD card, or the like.

操作パネル31は、ハード的なキーボードと液晶等の表示手段とを有する。操作パネル31は、ユーザからの入力操作の受け付けるとともに、ユーザに向けた各種の画面の表示を行う。操作パネル31はタッチパネルを搭載しており、表示したソフトキーからユーザ操作を受け付けることもできる。   The operation panel 31 has a hardware keyboard and display means such as a liquid crystal. The operation panel 31 accepts input operations from the user and displays various screens for the user. The operation panel 31 is equipped with a touch panel and can accept user operations from displayed soft keys.

ファックス制御ユニット32は、NCU(Network Control Unit)を介して公衆通信網に接続し、例えばG3、G4規格のファクシミリに対応した通信手順(通信プロトコル)等に従いファクシミリの送受信を行う。ファックス制御ユニット32は、画像データにデータ圧縮や変調等の信号処理を施して送信すると共に、相手先から受信した画像データにデータの伸長やエラー訂正等を施し画像データを復元する。   The fax control unit 32 is connected to a public communication network via an NCU (Network Control Unit), and performs facsimile transmission / reception according to a communication procedure (communication protocol) compatible with, for example, a G3 or G4 standard facsimile. The fax control unit 32 performs signal processing such as data compression and modulation on the image data and transmits the image data, and decompresses the image data received from the other party and corrects the error to restore the image data.

プロッタ33は、例えば、電子写真方式による白黒プロッタ又はカラープロッタであり、印刷対象データやスキャナ34が読み取った画像データに基づき、1ページ毎の画像を形成し、用紙に転写する。例えば、レーザービームを用いた電子写真プロセスを使って、感光ドラム等に形成したトナー画像を用紙に転写し、定着装置により熱と圧力により定着して出力する。また、インク液滴を塗布する形態で印刷してもよい。   The plotter 33 is, for example, a black-and-white plotter or a color plotter using an electrophotographic method, and forms an image for each page based on print target data or image data read by the scanner 34, and transfers the image to a sheet. For example, a toner image formed on a photosensitive drum or the like is transferred onto a sheet using an electrophotographic process using a laser beam, and is fixed by a fixing device with heat and pressure and output. Moreover, you may print in the form which apply | coats an ink droplet.

スキャナ34は、コンタクトガラスに載置された原稿を光学的に走査して、その反射光をA/D変換して公知の画像処理を施し所定の解像度のデジタルデータに変換し画像データを生成する。   The scanner 34 optically scans the document placed on the contact glass, A / D converts the reflected light, performs known image processing, converts it into digital data of a predetermined resolution, and generates image data. .

図5のMFPでは、図2の画像入力装置601はスキャナ34に相当し、画像出力装置602はプロッタ33に相当し、画像記憶装置603はHDD15に相当し、画像解析装置604はCPU11に相当する。また、色再現特性記憶装置605はHDD15に相当し、画像処理装置606はASIC16に相当し、パラメータ入力装置607は操作パネル31に相当する。   In the MFP of FIG. 5, the image input device 601 of FIG. 2 corresponds to the scanner 34, the image output device 602 corresponds to the plotter 33, the image storage device 603 corresponds to the HDD 15, and the image analysis device 604 corresponds to the CPU 11. . The color reproduction characteristic storage device 605 corresponds to the HDD 15, the image processing device 606 corresponds to the ASIC 16, and the parameter input device 607 corresponds to the operation panel 31.

<機能構成>
図6は、本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例1)。画像処理システム600又はMFP700は、色変換部301、差分処理部302、変換強度パラメータ取得部303、補正処理部304、及び画像合成部305を有する。
<Functional configuration>
FIG. 6 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 1). The image processing system 600 or the MFP 700 includes a color conversion unit 301, a difference processing unit 302, a conversion intensity parameter acquisition unit 303, a correction processing unit 304, and an image composition unit 305.

色変換部301は、例えば画像処理装置606等により実現され、基準色再現特性とユーザ色再現特性の逆特性を用いて、原稿画像データに色変換を施し、中間画像データを生成する。なお、上述したように、本実施例では基準色再現特性とユーザ色再現特性の逆特性は既知であり、予め色再現特性記憶装置605に記憶されているものとする。   The color conversion unit 301 is realized by, for example, the image processing device 606 and the like, and performs color conversion on the document image data by using a reverse characteristic of the reference color reproduction characteristic and the user color reproduction characteristic to generate intermediate image data. As described above, in this embodiment, it is assumed that the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics are known and stored in advance in the color reproduction characteristic storage device 605.

差分処理部302は、例えば画像処理装置606等により実現され、原稿画像データと中間画像データとの差分を算出し、差分画像データを生成する。   The difference processing unit 302 is realized by, for example, the image processing device 606 and the like, calculates a difference between the document image data and the intermediate image data, and generates difference image data.

変換強度パラメータ取得部303は、例えばパラメータ入力装置607等により実現され、原稿画像データに対する色変換の強度(度合い)を制御するための変換強度パラメータを取得する。   The conversion intensity parameter acquisition unit 303 is realized by, for example, the parameter input device 607 and the like, and acquires a conversion intensity parameter for controlling the intensity (degree) of color conversion for document image data.

補正処理部304は、例えば画像処理装置606等により実現され、変換強度パラメータを用いて差分画像データに補正処理を施し、補正差分画像データを生成する。   The correction processing unit 304 is realized by, for example, the image processing device 606 and the like, performs correction processing on the difference image data using the conversion intensity parameter, and generates correction difference image data.

画像合成部305は、例えば画像処理装置606等により実現され、原稿画像データと補正差分画像データとを合成して、色変換済み原稿画像データを生成する。   The image composition unit 305 is realized by, for example, the image processing device 606 and the like, and synthesizes the document image data and the corrected difference image data to generate color-converted document image data.

<処理の詳細>
次に、本実施形態に係る画像処理システム600又はMFP700の処理の詳細について説明する。図7は、色変換処理の一例のフローチャートである(実施例1)。図7は、基準色再現特性とユーザ色再現特性の逆特性に基づき色変換を行った原稿画像データから得られたユーザ印刷物が、ユーザの意図するものであるか否かを評価する。そして、ユーザ印刷物が、ユーザの意図するものでない場合、変換強度パラメータを調整することで、所望のユーザ印刷物を得ることができるようにするものである。
<Details of processing>
Next, details of the processing of the image processing system 600 or the MFP 700 according to the present embodiment will be described. FIG. 7 is a flowchart of an example of color conversion processing (first embodiment). FIG. 7 evaluates whether or not the user print obtained from the document image data subjected to color conversion based on the reverse characteristic of the reference color reproduction characteristic and the user color reproduction characteristic is intended by the user. When the user printed material is not intended by the user, the desired user printed material can be obtained by adjusting the conversion intensity parameter.

まず、ユーザは、ユーザプリンタ200で原稿画像データを印刷する(ステップS701)。すなわち、ユーザプリンタ200を用いて原稿画像データを印刷することにより、ユーザ印刷物を得る。   First, the user prints document image data with the user printer 200 (step S701). That is, the user print is obtained by printing the document image data using the user printer 200.

ユーザは、得られたユーザ印刷物を評価する(ステップS702)。すなわち、ユーザは、ユーザ印刷物と基準印刷物とを比較してユーザ印刷物の品質を評価する。そして、ユーザ印刷物の品質が十分であれば(ステップS703のYes)、処理を終了し、そうでなければ(ステップS703のNo)、次ステップS704に進む。   The user evaluates the obtained user print (step S702). That is, the user compares the user printed material with the reference printed material and evaluates the quality of the user printed material. If the quality of the user printed material is sufficient (Yes in step S703), the process ends. If not (No in step S703), the process proceeds to the next step S704.

ユーザ印刷物の品質を評価する方法としては、例えば、基準印刷物との色差を用いる方法がある。他の例としては、色相差を用いる方法や、各色成分の差の絶対値を用いる方法もある。また、品質の評価は目視で行ってもよい。本実施形態に係る画像処理システム600又はMFP700は、以下に示す評価方法を用いてユーザ印刷物の品質を評価する色評価手段(不図示)を有していてもよい。   As a method for evaluating the quality of a user print, for example, there is a method using a color difference from a reference print. Other examples include a method using a hue difference and a method using an absolute value of a difference between each color component. Moreover, you may perform quality evaluation visually. The image processing system 600 or the MFP 700 according to the present embodiment may include color evaluation means (not shown) that evaluates the quality of a user print using the following evaluation method.

a) 色差を用いる評価方法
色差とは、L*a*b*色空間やL*u*v*色空間における二つの色の距離である。本実施例は画像出力機器としてプリンタを用いていることからL*a*b*色空間を用いて説明する。L*a*b*色空間の色差ΔE*abは以下の式で定義される。
a) Evaluation Method Using Color Difference Color difference is the distance between two colors in the L * a * b * color space or L * u * v * color space. Since this embodiment uses a printer as an image output device, an explanation will be given using the L * a * b * color space. The color difference ΔE * ab in the L * a * b * color space is defined by the following equation.

Figure 0006384268
ここで、(ΔL*, Δa* ,Δb*)はL*a*b*色空間における2色の色度差である。
Figure 0006384268
Here, (ΔL *, Δa *, Δb *) is a chromaticity difference between two colors in the L * a * b * color space.

このとき、基準印刷物とユーザ印刷物の色差を求める手順の一例を以下に示す。
(1)基準印刷物をスキャナ300により読み取り基準画像データを得る。
(2)ユーザ印刷物を(1)と同じスキャナ300により読み取りユーザ画像データを得る。
(3)基準画像データとユーザ画像データとをスキャナ300のカラープロファイルを用いてデバイス非依存の色空間(例えば、XYZ色空間等)に変換する。
(4)デバイス非依存の色空間に変換された基準画像データとユーザ画像データとをL*a*b*色空間に変換する。
(5)上式により画素ごとの色差を求める。
At this time, an example of a procedure for obtaining the color difference between the reference print and the user print is shown below.
(1) A reference print is read by the scanner 300 to obtain reference image data.
(2) A user print is read by the same scanner 300 as in (1) to obtain user image data.
(3) The reference image data and user image data are converted into a device-independent color space (for example, XYZ color space) using the color profile of the scanner 300.
(4) The reference image data and user image data converted into the device-independent color space are converted into the L * a * b * color space.
(5) The color difference for each pixel is obtained by the above equation.

基準印刷物とユーザ印刷物とを同じスキャナ300で読み取るとしているが、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換できる条件の下で、二つの印刷物を別々のスキャナ300で読み取ってもよい。   The reference print product and the user print product are read by the same scanner 300. However, even if the two print products are read by separate scanners 300 under the condition that the color profile of the scanner 300 can be used to convert the color print into a device-independent color space. Good.

スキャナ300を一台のみ使用する場合には、カラープロファイルを用いてデバイス非依存の色空間に変換することは必須ではない。色差の値を定量的に評価するケースでは、絶対的な値が重要であるためデバイス非依存の色空間への変換が必要であるが、色差の値を定性的に評価するケースでは相対的な傾向がつかめればよいためデバイス非依存の色空間への変換を省略してもよい。   When only one scanner 300 is used, it is not essential to convert to a device-independent color space using a color profile. In cases where color difference values are evaluated quantitatively, absolute values are important, so conversion to a device-independent color space is necessary.However, in cases where color difference values are evaluated qualitatively, they are relative. Since it is only necessary to grasp the tendency, conversion to a device-independent color space may be omitted.

画素ごとの色差が求まったら、この情報を統計的に分析し、ユーザ印刷物の品質を定量的に評価することができる。分析方法の例としては、色差の平均値、最大値、値の分布、分散等が挙げられる。   Once the color difference for each pixel is found, this information can be statistically analyzed to quantitatively evaluate the quality of the user print. Examples of the analysis method include an average value, maximum value, value distribution, and variance of color differences.

品質が十分であるか否かの判断は、
・平均色差が所定の値以内に収まっているか否か、
・最大色差が所定の値以内に収まっているか否か、
・分散が所定の値以内に収まっているか否か、
等の基準で判断することができる。なお、ユーザ印刷物の品質を評価する際には、画像データのコンテンツの輪郭部分を除くことが望ましい。これは、
・後の処理で必要な位置合わせにおいて、輪郭部分を完全に合わせることが困難であること、
・プリンタによって輪郭部分の再現性が異なること(色味やシャープ等)
等の理由から、輪郭部分で大きな色差が出現する可能性があるためである。
The judgment of whether the quality is sufficient is
-Whether the average color difference is within a predetermined value,
-Whether the maximum color difference is within a predetermined value,
・ Whether the variance is within the prescribed value,
It can be judged by such criteria. When evaluating the quality of user prints, it is desirable to remove the outline portion of the content of the image data. this is,
・ It is difficult to perfectly align the contours in the alignment required for later processing.
・ The reproducibility of the contour varies depending on the printer (color, sharpness, etc.)
This is because there is a possibility that a large color difference appears in the contour portion.

輪郭部分の面積は全印刷物の面積のごく一部であるため、目視による全体的な色の評価に与える影響は限定的である。一方、定量的な評価においては、上述の輪郭部分の大きな色差が外れ値として評価結果の信頼性を低下させる懸念があることから、輪郭部分のデータを無視する方が高い精度の評価結果が期待できる。   Since the area of the contour portion is a small part of the area of the entire printed matter, the influence on the overall color evaluation by visual inspection is limited. On the other hand, in quantitative evaluation, there is a concern that the large color difference of the contour portion described above may be an outlier and reduce the reliability of the evaluation result. it can.

輪郭部分を検出する方法の例としては、二値化を用いる方法や、エッジ検出を用いる方法が挙げられる。二値化を用いる方法の一例としては、画像データを所定の閾値で白黒に二値化し、白い領域と黒い領域とが隣接する箇所を輪郭部分として判断する方法がある。エッジ検出を用いる方法の一例としては、画像データからSobel法等を用いてエッジ画像を作成し、これを所定の閾値で二値化して閾値以上の画素を輪郭部分として判断する方法がある。   Examples of the method for detecting the contour portion include a method using binarization and a method using edge detection. As an example of a method using binarization, there is a method in which image data is binarized into black and white with a predetermined threshold, and a portion where a white region and a black region are adjacent is determined as a contour portion. As an example of a method using edge detection, there is a method in which an edge image is created from image data using a Sobel method or the like, and binarized with a predetermined threshold value, and a pixel equal to or higher than the threshold value is determined as a contour portion.

輪郭部分を除去せずに、上記課題を緩和する方法もある。例えば、画像データを平滑化して輪郭部分を滑らかにし、輪郭部分で出現する色差を低減するというものである。平滑化には、平均化フィルタやローパスフィルタ等の従来技術を用いればよい。   There is also a method for alleviating the above problem without removing the contour portion. For example, the image data is smoothed to smooth the contour portion, and the color difference appearing at the contour portion is reduced. Conventional techniques such as an averaging filter and a low-pass filter may be used for smoothing.

また、上記の例では色差式にCIE1976色差式を用いて説明したが、この色差式に限定されるものではなく、CIE1994色差式やCIE2000色差式、CMC(1:c)色差式等を用いてもよい。   In the above example, the CIE 1976 color difference formula is described as the color difference formula. However, the present invention is not limited to this color difference formula. Also good.

b) 色相差を用いる評価方法
L*a*b*色空間の色相差ΔH*abは次式で定義される。
b) Evaluation method using hue difference
The hue difference ΔH * ab in the L * a * b * color space is defined by the following equation.

Figure 0006384268
ここで、ΔE*abは色差、(ΔL*, Δa*, Δb*)は2色の色度差、ΔC*abはクロマの差ある。クロマC*abは次式で定義される。
Figure 0006384268
Here, ΔE * ab is a color difference, (ΔL *, Δa *, Δb *) is a chromaticity difference between two colors, and ΔC * ab is a chroma difference. Chroma C * ab is defined by the following equation.

Figure 0006384268
基準印刷物とユーザ印刷物の色相差を求める手順は色差を求める手順と同じであるが、色差ではなく色相差を算出する。また、統計的な分析方法や品質の判定方法も同様である。
Figure 0006384268
The procedure for obtaining the hue difference between the reference print and the user print is the same as the procedure for obtaining the color difference, but the hue difference is calculated instead of the color difference. The same applies to statistical analysis methods and quality determination methods.

c) 各色成分の差の絶対値を用いる評価方法
所定の色空間において、基準印刷物とユーザ印刷物との各色成分の差の絶対値を取り、評価を行う方法である。RGB色空間を例に取れば、R成分値の絶対値の差、G成分値の絶対値の差、B成分値の絶対値の差を用いる。基準印刷物とユーザ印刷物の各色成分の差の絶対値を求める手順の一例を以下に示す。
(1)基準印刷物をスキャナ300により読み取り基準画像データを得る。
(2)ユーザ印刷物を(1)と同じスキャナ300により読み取りユーザ画像データを得る。
(3)基準画像データとユーザ画像データとをスキャナ300のカラープロファイルを用いてデバイス非依存の色空間(XYZ色空間など)に変換する。
(4)変換後の色空間において、画素ごとに各色成分値の差の絶対値を求める。
c) Evaluation method using absolute value of difference of each color component This is a method of performing evaluation by taking the absolute value of the difference of each color component between the reference print product and the user print product in a predetermined color space. Taking the RGB color space as an example, the difference between the absolute values of the R component values, the difference between the absolute values of the G component values, and the difference between the absolute values of the B component values are used. An example of a procedure for obtaining the absolute value of the difference between the color components of the reference print and the user print is shown below.
(1) A reference print is read by the scanner 300 to obtain reference image data.
(2) A user print is read by the same scanner 300 as in (1) to obtain user image data.
(3) The reference image data and user image data are converted into a device-independent color space (such as an XYZ color space) using the color profile of the scanner 300.
(4) In the converted color space, the absolute value of the difference between the color component values is obtained for each pixel.

基準印刷物とユーザ印刷物とを同じスキャナ300で読み取るとしているが、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換できる条件の下で、二つの印刷物を別々のスキャナ300で読み取ってもよい。   The reference print product and the user print product are read by the same scanner 300. However, even if the two print products are read by separate scanners 300 under the condition that the color profile of the scanner 300 can be used to convert the color print into a device-independent color space. Good.

なお、色差のケースと同様に、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換することは必須ではなく、スキャナ300のデバイス依存の色空間で直接差の絶対値を求めてもよい。また、統計的な分析方法や品質の判定方法は色差のケースと同様である。   As in the case of the color difference, conversion to a device-independent color space using the color profile of the scanner 300 is not essential, and the absolute value of the direct difference can be obtained directly in the device-dependent color space of the scanner 300. Good. The statistical analysis method and quality determination method are the same as in the case of color difference.

次に、色変換部301は、原稿画像データを色変換する(ステップS704)。すなわち、色変換部301は、色再現特性記憶装置605に記憶されている基準色再現特性とユーザ色再現特性の逆特性を用いて原稿画像データに色変換を施し、中間画像データを生成する。   Next, the color conversion unit 301 performs color conversion on the document image data (step S704). In other words, the color conversion unit 301 performs color conversion on the document image data using the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics stored in the color reproduction characteristic storage device 605, and generates intermediate image data.

ここで、色変換部301が、基準色再現特性S(P1(x))と、ユーザ色再現特性S(P2(x))の逆特性P2 -1(S-1(x))とを用いて原稿画像データに色変換を施して、中間画像データを生成する手順を以下に示す。
(1)基準色再現特性から、原稿画像データの色aが対応付く基準画像データの色s=S(P1(a))を得る。
(2)ユーザ色再現特性の逆特性から、ユーザ画像データの色sが対応付く原稿画像データの色b=P2 -1(S-1(s))を得る(すなわち、S(P1(a))=s=S(P2(b))となる組合せ(a, b)を求める)。
(3)原稿画像データの色aをbに変換して、中間画像データを生成する。
Here, the color conversion unit 301 determines that the reference color reproduction characteristic S (P 1 (x)) and the inverse characteristic P 2 -1 (S -1 (x)) of the user color reproduction characteristic S (P 2 (x)). A procedure for performing color conversion on document image data using the above and generating intermediate image data is shown below.
(1) From the reference color reproduction characteristics, the color s = S (P 1 (a)) of the reference image data corresponding to the color a of the document image data is obtained.
(2) The color b = P 2 −1 (S −1 (s)) of the original image data corresponding to the color s of the user image data is obtained from the inverse characteristic of the user color reproduction characteristic (ie, S (P 1 ( a)) = s = S (find a combination (a, b) such that P 2 (b)).
(3) The color a of the document image data is converted to b to generate intermediate image data.

次に、差分処理部302は、差分画像データを生成する(ステップS705)。すなわち、差分処理部302は、原稿画像データと、上記のステップS704で生成した中間画像データとの対応する画素の画素値の差分を、すべての画素に対して算出して、差分画像データを生成する。なお、差分処理部302は、画素値の差分を色成分毎に、符号まで含めて算出する。   Next, the difference processing unit 302 generates difference image data (step S705). That is, the difference processing unit 302 calculates the difference between the pixel values of the corresponding pixels between the document image data and the intermediate image data generated in step S704 described above, and generates difference image data. To do. Note that the difference processing unit 302 calculates the pixel value difference including the sign for each color component.

次に、変換強度パラメータ取得部303は、色変換の強度を制御するための変換強度パラメータを取得する(ステップS706)。すなわち、変換強度パラメータ取得部303は、例えば、ユーザにより入力装置106を介して入力された変換強度パラメータの値を取得する。なお、変換強度パラメータは、ユーザにより直接に値を入力させるようにしてもよいし、予め設定された複数の候補値からユーザにより選択されるようにしてもよい。   Next, the conversion intensity parameter acquisition unit 303 acquires a conversion intensity parameter for controlling the intensity of color conversion (step S706). That is, the conversion intensity parameter acquisition unit 303 acquires the value of the conversion intensity parameter input by the user via the input device 106, for example. The conversion intensity parameter may be directly input by the user, or may be selected by the user from a plurality of preset candidate values.

次に、補正処理部304は、差分画像データを補正する(ステップS707)。すなわち、補正処理部304は、上記のステップS706で取得した変換強度パラメータを用いて、差分画像データに対して補正処理を施し、補正差分画像データを生成する。差分画像データに対して行う補正の例としては、以下のようなものが挙げられる。   Next, the correction processing unit 304 corrects the difference image data (step S707). That is, the correction processing unit 304 performs correction processing on the difference image data using the conversion intensity parameter acquired in step S706 described above, and generates correction difference image data. Examples of correction performed on the difference image data include the following.

a) 差分画像データに一律に変換強度パラメータを掛けて補正する方法
一例として、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に変換強度パラメータを掛けることで、差分画像データを補正する。この方法は、以下の式で表される。
a) Method for Correcting by Applying Uniform Conversion Intensity Parameter to Difference Image Data A case where the difference image data is in RGB color space will be described as an example. The difference image data is corrected by multiplying each pixel value of the difference image data by the conversion intensity parameter. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、wは変換強度パラメータを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, w is the conversion intensity parameter, and (R diff ', G diff ', B diff ') is the RGB value of the corrected difference image data Represents.

このとき、変換強度パラメータwが0の場合、補正差分画像データのRGB値(Rdiff', Gdiff', Bdiff')がすべて0となる。したがって、次のステップS708で原稿画像データと補正差分画像データとを合成しても、合成後の原稿画像データ(これを「色変換済み原稿画像データ」と表す)の色は変換されないことを意味している。 At this time, when the conversion intensity parameter w is 0, the RGB values (R diff ', G diff ', B diff ') of the corrected difference image data are all 0. Therefore, even if the original image data and the corrected difference image data are combined in the next step S708, it means that the color of the combined original image data (represented as “color-converted original image data”) is not converted. doing.

また、変換強度パラメータwが1の場合、補正差分画像データのRGB値(Rdiff', Gdiff', Bdiff')は差分画像データのRGB値(Rdiff, Gdiff, Bdiff)と等しい。したがって、次のステップS708で原稿画像データと補正差分画像データとを合成すると、色変換済み原稿画像データは中間画像データと等しくなることを意味している。 Also, if the transformation strength parameter w is 1, the RGB values of the corrected differential image data (R diff ', G diff' , B diff ') equal RGB values of the difference image data (R diff, G diff, B diff) and . Therefore, when the document image data and the corrected difference image data are combined in the next step S708, it means that the color-converted document image data becomes equal to the intermediate image data.

また、変換強度パラメータwが0<w<1の場合、次のステップS708で原稿画像データと補正差分画像データとを合成すると、色変換済み原稿画像データは、中間原稿画像データよりも色変換の度合いが弱くなることを意味している。   If the conversion intensity parameter w is 0 <w <1, then when the original image data and the corrected difference image data are combined in the next step S708, the color-converted original image data is more color-converted than the intermediate original image data. It means that the degree becomes weaker.

また、変換強度パラメータwが1<wの場合、次のステップS708で原稿画像データと補正差分画像データとを合成すると、色変換済み原稿画像データは、中間原稿画像データよりも色変換の度合いが強くなることを意味している。   When the conversion intensity parameter w is 1 <w, when the original image data and the corrected difference image data are combined in the next step S708, the color converted original image data has a degree of color conversion higher than that of the intermediate original image data. It means to become stronger.

b) 差分画像データの色空間の各軸に異なる変換強度パラメータを掛けて補正する方法
一例として、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に、R成分値、G成分値、B成分値毎に異なる変換強度パラメータを掛けることで、差分画像データを補正する。この方法は、以下の式で表される。
b) Correction Method by Applying Different Conversion Intensity Parameters to Each Axis of the Color Space of the Difference Image Data A case where the difference image data is in the RGB color space will be described as an example. The difference image data is corrected by multiplying each pixel value of the difference image data by a different conversion intensity parameter for each of the R component value, the G component value, and the B component value. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、(wR, wG, wB)はR成分値、G成分値、B成分値毎に異なる変換強度パラメータを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, and (w R , w G , w B ) is the conversion intensity parameter that differs for each R component value, G component value, and B component value (R diff ', G diff ', B diff ') represents the RGB value of the corrected difference image data.

c) 差分画像データの階調値毎に異なる変換強度パラメータを用いて補正する方法
一例として、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に、変換強度パラメータを掛けることで、差分画像データを補正する。上記のa)の方法と異なる点は、変換強度パラメータの値が階調値毎に異なることである。階調値毎に異なる変換強度パラメータは、ルックアップテーブル(LUT)で管理すればよい。この方法は、以下の式で表される。
c) Correction Method Using Different Conversion Intensity Parameters for Different Tone Values of Difference Image Data A case where the difference image data is in RGB color space will be described as an example. The difference image data is corrected by multiplying each pixel value of the difference image data by the conversion intensity parameter. The difference from the method a) is that the value of the conversion intensity parameter differs for each gradation value. Conversion intensity parameters that differ for each gradation value may be managed by a look-up table (LUT). This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、w[・]は階調値毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Here, (R diff , G diff , B diff ) is the RGB value of the difference image data, w [•] is a lookup table that stores the conversion intensity parameter for each gradation value, and (R diff ', G diff ', B diff ') represents the RGB value of the corrected difference image data.

d) 差分画像データの色空間の各軸の階調値毎に異なる変換強度パラメータを用いて補正する方法
一例として、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に、R成分値、G成分値、B成分値毎に異なる変換強度パラメータを掛けることで、差分画像データを補正する。上記のb)の方法と異なる点は、変換強度パラメータの値が階調値毎に異なることである。階調値毎に異なる変換強度パラメータは、ルックアップテーブルで管理すればよい。この方法は、以下の式で表される。
d) Correction method using different conversion intensity parameters for each tone value of each axis in the color space of the difference image data As an example, a case where the difference image data is in the RGB color space will be described. The difference image data is corrected by multiplying each pixel value of the difference image data by a different conversion intensity parameter for each of the R component value, the G component value, and the B component value. A difference from the above method b) is that the value of the conversion intensity parameter differs for each gradation value. Conversion intensity parameters that differ for each gradation value may be managed using a lookup table. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、(wR[・], wG[・], wB[・])はR成分値、G成分値、B成分値の階調値毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, (w R [•], w G [•], w B [•]) is the R component value, G component value, In the lookup table storing the conversion intensity parameter for each gradation value of the B component value, (R diff ', G diff ', B diff ') represents the RGB value of the corrected difference image data.

続いて、画像合成部305は、原稿画像データと補正差分画像データとを合成する(ステップS708)。すなわち、画像合成部305は、原稿画像データと、上記のステップS707で生成した補正差分画像データとを合成して、原稿画像データを更新する。この更新された原稿画像データが、色変換済み原稿画像データである。原稿画像データと補正差分画像データとを合成する手順の一例を以下に示す。
(1)原稿画像データのある座標の画素値を取得する。
(2)補正差分画像データの対応する座標の画素値を取得する。
(3)上記の(1)及び(2)で得られた2つの画素値の平均を算出し、これを合成後の画素値とする。
(4)合成後の画素値を用いて原稿画像データの該当の画素の画素値を更新する。
(5)上記の(1)〜(4)を、すべての座標について行う。
Subsequently, the image composition unit 305 synthesizes the document image data and the corrected difference image data (step S708). That is, the image composition unit 305 synthesizes the document image data and the corrected difference image data generated in step S707, and updates the document image data. This updated document image data is color-converted document image data. An example of a procedure for combining the document image data and the corrected difference image data is shown below.
(1) A pixel value at a certain coordinate in the document image data is acquired.
(2) The pixel value of the corresponding coordinate of the corrected difference image data is acquired.
(3) The average of the two pixel values obtained in the above (1) and (2) is calculated, and this is used as the combined pixel value.
(4) Update the pixel value of the corresponding pixel of the document image data using the combined pixel value.
(5) Perform (1) to (4) above for all coordinates.

なお、上記の手順では、合成後の画素値で原稿画像データを更新しているが、合成後の画素値を用いて新しい画像データを生成してもよい。また、上記の手順の(3)において、平均は相加平均に限られず、例えば、幾何平均や加重平均等を用いてもよい。   In the above procedure, the original image data is updated with the combined pixel value. However, new image data may be generated using the combined pixel value. Moreover, in (3) of said procedure, an average is not restricted to an arithmetic mean, For example, you may use a geometric average, a weighted average, etc.

次に、ユーザは、ユーザプリンタ200を用いて色変換済み原稿画像データを印刷する(ステップS709)。すなわち、ユーザプリンタ200を用いて色変換済み原稿画像データを印刷することにより、色変換済みユーザ印刷物を得る。   Next, the user prints the color-converted document image data using the user printer 200 (step S709). That is, by printing the color-converted document image data using the user printer 200, a color-converted user print is obtained.

ユーザは、得られた色変換済みユーザ印刷物を評価する(ステップS710)。すなわち、ユーザは、色変換済みユーザ印刷物と基準印刷物とを比較してユーザ印刷物の品質を評価する。そして、色変換済みユーザ印刷物の品質が十分であれば(ステップS711のYes)、処理を終了し、そうでなければ(ステップS711のNo)、次ステップS712に進む。なお、色変換済みユーザ印刷物の品質を評価する方法は、上記ステップS702で述べた方法と同様である。   The user evaluates the obtained color-converted user print (step S710). That is, the user evaluates the quality of the user print by comparing the color-converted user print and the reference print. If the quality of the color-converted user printed material is sufficient (Yes in step S711), the process ends. If not (No in step S711), the process proceeds to the next step S712. Note that the method for evaluating the quality of the color-converted user printed material is the same as the method described in step S702.

その後、変換強度パラメータ取得部303は、変換強度パラメータの調整がユーザ等により指示されているか否かを判定する(ステップS712)。そして、変換強度パラメータの調整が指示されている場合(ステップS712のYes)、ステップS706に戻り、再度、変換強度パラメータ取得部303は、変換強度パラメータを取得する。そうでなければ(ステップS712のNo)、処理を終了する。   Thereafter, the conversion intensity parameter acquisition unit 303 determines whether or not adjustment of the conversion intensity parameter is instructed by a user or the like (step S712). When the conversion strength parameter adjustment is instructed (Yes in step S712), the process returns to step S706, and the conversion strength parameter acquisition unit 303 acquires the conversion strength parameter again. Otherwise (No in step S712), the process ends.

これによって一連の流れが完了する。図7に示す色変換処理では、処理の終了条件の判定が3つ設定されているが、これらすべてを設定する必要はない。必要に応じて適宜省略してもよいが、何れか1つは少なくとも設定されることが望ましい。   This completes a series of flows. In the color conversion process shown in FIG. 7, three determinations of the process end condition are set, but it is not necessary to set all of them. Although it may be omitted as appropriate, any one is desirably set at least.

(実施例2)
次に、実施例2について説明する。実施例2は、差分画像データの補正処理を行う際に、差分画像データの値に基づいて補正を行うのではなく、差分画像データの画素と対応する原稿画像データの画素の画素値に基づいて補正する点が実施例1と異なる。なお、以降では、実施例1と実質的に同一の機能を有する箇所及び同一の処理を行う箇所については、実施例1と同一の符号を用いて、その説明を省略する。
(Example 2)
Next, Example 2 will be described. In the second embodiment, when the correction process of the difference image data is performed, the correction is not performed based on the value of the difference image data, but based on the pixel value of the pixel of the document image data corresponding to the pixel of the difference image data. The correction is different from the first embodiment. Hereinafter, the same reference numerals as those in the first embodiment are used for the portions having substantially the same functions as those in the first embodiment and the portions for performing the same processing, and the description thereof is omitted.

<機能構成>
図8は、本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例2)。実施例2に係る画像処理システム600又はMFP700は、補正処理部304Aの機能が実施例1と異なる。
<Functional configuration>
FIG. 8 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 2). The image processing system 600 or the MFP 700 according to the second embodiment is different from the first embodiment in the function of the correction processing unit 304A.

補正処理部304Aは、例えば画像処理装置606等により実現され、原稿画像データと変換強度パラメータとを用いて差分画像データに補正処理を施し、補正差分画像データを生成する。   The correction processing unit 304A is realized by, for example, the image processing device 606 and the like, and performs correction processing on the difference image data using the document image data and the conversion intensity parameter to generate correction difference image data.

<処理の詳細>
図9は、色変換処理の一例のフローチャートである(実施例2)。実施例2に係る色変換処理は、ステップS901の処理が実施例1と異なる。したがって、ステップS901の処理についてのみ説明する。
<Details of processing>
FIG. 9 is a flowchart of an example of color conversion processing (second embodiment). The color conversion process according to the second embodiment is different from the first embodiment in the process of step S901. Therefore, only the process of step S901 will be described.

補正処理部304Aは、差分画像データを補正する(ステップS901)。すなわち、補正処理部304Aは、原稿画像データと、ステップS706で取得した変換強度パラメータとを用いて、差分画像データに対して補正処理を施し、補正差分画像データを生成する。差分画像データに対して行う補正の例としては、以下のようなものが挙げられる。   The correction processing unit 304A corrects the difference image data (step S901). That is, the correction processing unit 304A performs correction processing on the difference image data using the document image data and the conversion intensity parameter acquired in step S706, and generates correction difference image data. Examples of correction performed on the difference image data include the following.

a) 差分画像データの画素と対応する原稿画像データの画素の階調値毎に異なる変換強度パラメータを用いて補正する方法
一例として、原稿画像データと、差分画像データとがRGB色空間である場合について説明する。差分画像データの各画素値に、変換強度パラメータを掛けることで、差分画像データを補正する。変換強度パラメータは、差分画像データの画素と対応する原稿画像データの画素の階調値毎に制御可能である。原稿画像データの画素の階調値毎に異なる変換強度パラメータは、ルックアップテーブルで管理すればよい。この方法は、以下の式で表される。
a) Method of performing correction using different conversion intensity parameters for each gradation value of a pixel of original image data corresponding to a pixel of difference image data When original image data and difference image data are in an RGB color space Will be described. The difference image data is corrected by multiplying each pixel value of the difference image data by the conversion intensity parameter. The conversion intensity parameter can be controlled for each gradation value of the pixel of the document image data corresponding to the pixel of the difference image data. Conversion intensity parameters that differ for each pixel gradation value of the document image data may be managed by a lookup table. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、(Rin, Gin, Bin)は原稿画像データのRGB値を、w[・]は階調値毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, (R in , G in , B in ) is the RGB value of the original image data, and w [ (R diff ', G diff ', B diff ') represents the RGB values of the corrected difference image data.

b) 差分画像データの画素と対応する原稿画像データの画素の色空間の各軸の階調値毎に異なる変換強度パラメータを用いて補正する方法
一例として、原稿画像データと、差分画像データとがRGB色空間である場合について説明する。差分画像データの各画素値に、R成分値、G成分値、B成分値毎に異なる変換強度パラメータを掛けることで、差分画像データを補正する。変換強度パラメータは、差分画像データの画素と対応する原稿画像データの画素の色空間の各軸の階調値毎に制御可能である。各軸の階調値毎に異なる変換強度パラメータは、ルックアップテーブルで管理すればよい。この方法は、以下の式で表される。
b) Correction method using different conversion intensity parameters for each tone value of each axis of the color space of the pixel of the original image data corresponding to the pixel of the difference image data As an example, the original image data and the difference image data are The case of the RGB color space will be described. The difference image data is corrected by multiplying each pixel value of the difference image data by a different conversion intensity parameter for each of the R component value, the G component value, and the B component value. The conversion intensity parameter can be controlled for each gradation value of each axis of the color space of the pixel of the original image data corresponding to the pixel of the difference image data. Conversion intensity parameters that differ for each tone value of each axis may be managed by a look-up table. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、(Rin, Gin, Bin)は原稿画像データのRGB値を、(wR[・], wG[・], wB[・])はR成分値、G成分値、B成分値の階調値毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, (R in , G in , B in ) is the RGB value of the original image data, and (w R [•], w G [•], w B [•]) is a lookup table that stores the conversion intensity parameter for each gradation value of R component value, G component value, and B component value, (R diff ', G diff ', B diff ') Represents the RGB value of the corrected difference image data.

(実施例3)
次に、実施例3について説明する。実施例3は、差分画像データの補正処理を行う際に、原稿画像データの色空間をそのまま使用するのではなく、色相、明度、又は彩度を表現することができる色空間に変換する。そして、差分画像データの画素と対応する色空間変換後の原稿画像データの画素の色相、明度、又は彩度のうち少なくとも一つの値に基づいて差分画像データを補正する点が実施例2と異なる。これにより、原稿画像データの色相、明度、又は彩度に応じて、色変換の強度(度合い)を制御することができるようになる。
(Example 3)
Next, Example 3 will be described. In the third embodiment, when the correction process of the difference image data is performed, the color space of the document image data is not used as it is, but is converted into a color space that can express hue, lightness, or saturation. The difference from the second embodiment is that the difference image data is corrected based on at least one of the hue, brightness, and saturation of the pixel of the original image data after color space conversion corresponding to the pixel of the difference image data. . As a result, the intensity (degree) of color conversion can be controlled in accordance with the hue, brightness, or saturation of the document image data.

すなわち、例えば、原稿画像データの黄色に関しては色変換の度合いを弱めたい場合や原稿画像データの高明度領域に関しては色変換の度合いを弱めたい場合、原稿画像データの高彩度領域に関しては色変換の度合いを弱めたい場合等においても色変換の強度を制御することができる。なお、以降では、実施例1〜2と実質的に同一の機能を有する箇所及び同一の処理を行う箇所については、実施例1〜2と同一の符号を用いて、その説明を省略する。   That is, for example, when it is desired to reduce the degree of color conversion for yellow in the original image data, or when it is desired to reduce the degree of color conversion for the high brightness area of the original image data, the degree of color conversion for the high saturation area of the original image data. Even when it is desired to weaken the color, the intensity of color conversion can be controlled. In the following description, the same reference numerals as those in the first and second embodiments are used for the portions having substantially the same functions as those in the first and second embodiments and the portions for performing the same processing, and the description thereof is omitted.

<機能構成>
図10は、本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例3)。実施例3に係る画像処理システム600又はMFP700は、補正処理部304Bの機能、及び色空間変換部306を有する点が実施例2と異なる。
<Functional configuration>
FIG. 10 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 3). The image processing system 600 or the MFP 700 according to the third embodiment is different from the second embodiment in that the function of the correction processing unit 304B and the color space conversion unit 306 are included.

補正処理部304Bは、例えば画像処理装置606により実現され、色空間変換部306により色空間が変換された原稿画像データと、変換強度パラメータとを用いて、差分画像データに補正処理を施し、補正差分画像データを生成する。   The correction processing unit 304B is realized by, for example, the image processing device 606, performs correction processing on the difference image data by using the original image data whose color space has been converted by the color space conversion unit 306, and the conversion intensity parameter. Difference image data is generated.

色空間変換部306は、例えば画像処理装置606等により実現され、原稿画像データの色空間を、色相、明度、又は彩度を表現することができる色空間に変換する。   The color space conversion unit 306 is realized by the image processing device 606, for example, and converts the color space of the document image data into a color space that can express hue, lightness, or saturation.

<処理の詳細>
図11は、色変換処理の一例のフローチャートである(実施例3)。実施例3に係る色変換処理は、ステップS1101及びステップS1102の処理が実施例2と異なる。したがって、ステップS1101及びステップS1102の処理についてのみ説明する。
<Details of processing>
FIG. 11 is a flowchart of an example of color conversion processing (third embodiment). The color conversion process according to the third embodiment is different from the second embodiment in the processes of step S1101 and step S1102. Therefore, only the processing in steps S1101 and S1102 will be described.

色空間変換部306は、原稿画像データの色空間を、色相、明度、又は彩度を表現することができる色空間に変換する(ステップS1101)。ここで、色相、明度、又は彩度を表現することができる色空間とは、例えば、HSV色空間、HLS色空間、YCbCr色空間、L*a*b*色空間、L*u*v*色空間等である。なお、本ステップS1101で色変換を行った原稿画像データは、ステップS1101の処理でのみ用いられる。   The color space conversion unit 306 converts the color space of the document image data into a color space that can express hue, lightness, or saturation (step S1101). Here, the color space capable of expressing the hue, lightness, or saturation is, for example, the HSV color space, the HLS color space, the YCbCr color space, the L * a * b * color space, or the L * u * v * Color space, etc. Note that the document image data subjected to color conversion in this step S1101 is used only in the processing of step S1101.

補正処理部304Bは、差分画像データを補正する(ステップS1102)。すなわち、補正処理部304Bは、上記のステップS1101で色空間を変換した原稿画像データと、ステップS706で取得した変換強度パラメータとを用いて、差分画像データに対して補正処理を施し、補正差分画像データを生成する。差分画像データに対して行う補正の例としては、以下のようなものが挙げられる。なお、以降では、原稿画像データの色空間が、L*a*b*色空間に変換されたものとして説明する。L*a*b*色空間に色空間における色相hと彩度C*は以下の式で定義される。   The correction processing unit 304B corrects the difference image data (step S1102). That is, the correction processing unit 304B performs correction processing on the difference image data using the document image data obtained by converting the color space in step S1101 and the conversion intensity parameter acquired in step S706, and the corrected difference image. Generate data. Examples of correction performed on the difference image data include the following. In the following description, it is assumed that the color space of the document image data is converted to the L * a * b * color space. In the L * a * b * color space, the hue h and saturation C * in the color space are defined by the following equations.

Figure 0006384268
a) 差分画像データの画素と対応する原稿画像データの画素の色相毎に異なる変換強度パラメータを用いて補正する方法
一例として、色空間変換後の原稿画像データがL*a*b*色空間、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に、変換強度パラメータを掛けることで、差分画像データを補正する。変換強度パラメータは、差分画像データの画素と対応する、色空間変換後の原稿画像データの画素の色相毎に制御可能である。色相毎に異なる変換強度パラメータは、ルックアップテーブルで管理すればよい。この方法は、以下の式で表される。
Figure 0006384268
a) Correction method using different conversion intensity parameters for each hue of pixels of original image data corresponding to pixels of difference image data As an example, original image data after color space conversion is L * a * b * color space, A case where the difference image data is in the RGB color space will be described. The difference image data is corrected by multiplying each pixel value of the difference image data by the conversion intensity parameter. The conversion intensity parameter can be controlled for each hue of the pixels of the original image data after color space conversion corresponding to the pixels of the difference image data. What is necessary is just to manage the conversion strength parameter which changes for every hue with a look-up table. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、hinは色空間変換後の原稿画像データの色相hを、w[・]は色相毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, h in is the hue h of the original image data after color space conversion, and w [•] is the conversion intensity parameter for each hue. In the stored lookup table, (R diff ', G diff ', B diff ') represents the RGB value of the corrected difference image data.

b) 差分画像データの画素と対応する原稿画像データの画素の明度毎に異なる変換強度パラメータを用いて補正する方法
一例として、色空間変換後の原稿画像データがL*a*b*色空間、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に、変換強度パラメータを掛けることで、差分画像データを補正する。変換強度パラメータは、差分画像データの画素と対応する、色空間変換後の原稿画像データの画素の明度毎に制御可能である。明度毎に異なる変換強度パラメータは、ルックアップテーブルで管理すればよい。この方法は、以下の式で表される。
b) Method of correcting using different conversion intensity parameters for each pixel value of original image data corresponding to pixels of difference image data As an example, original image data after color space conversion is L * a * b * color space, A case where the difference image data is in the RGB color space will be described. The difference image data is corrected by multiplying each pixel value of the difference image data by the conversion intensity parameter. The conversion intensity parameter can be controlled for each lightness of the pixel of the original image data after color space conversion corresponding to the pixel of the difference image data. What is necessary is just to manage the conversion strength parameter which changes for every brightness with a look-up table. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、L*inは色空間変換後の原稿画像データの明度L*を、w[・]は色相毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, L * in is the lightness L * of the original image data after color space conversion, and w [•] is the conversion intensity for each hue In the lookup table storing the parameters, (R diff ', G diff ', B diff ') represents the RGB value of the corrected difference image data.

c) 差分画像データの画素と対応する原稿画像データの画素の彩度毎に異なる変換強度パラメータを用いて補正する方法
一例として、色空間変換後の原稿画像データがL*a*b*色空間、差分画像データがRGB色空間である場合について説明する。差分画像データの各画素値に、変換強度パラメータを掛けることで、差分画像データを補正する。変換強度パラメータは、差分画像データの画素と対応する、色空間変換後の原稿画像データの画素の彩度毎に制御可能である。彩度毎に異なる変換強度パラメータは、ルックアップテーブルで管理すればよい。この方法は、以下の式で表される。
c) Method of correcting using different conversion intensity parameters for each saturation of the original image data pixels corresponding to the pixels of the difference image data. As an example, the original image data after color space conversion is L * a * b * color space The case where the difference image data is in the RGB color space will be described. The difference image data is corrected by multiplying each pixel value of the difference image data by the conversion intensity parameter. The conversion intensity parameter can be controlled for each saturation of the pixels of the original image data after color space conversion corresponding to the pixels of the difference image data. What is necessary is just to manage the conversion strength parameter which changes for every saturation with a look-up table. This method is represented by the following equation.

Figure 0006384268
ここで、(Rdiff, Gdiff, Bdiff)は差分画像データのRGB値を、C*inは色空間変換後の原稿画像データの彩度C*を、w[・]は色相毎の変換強度パラメータを格納したルックアップテーブルを、(Rdiff', Gdiff', Bdiff')は補正差分画像データのRGB値を表す。
Figure 0006384268
Where (R diff , G diff , B diff ) is the RGB value of the difference image data, C * in is the saturation C * of the original image data after color space conversion, and w [•] is the conversion for each hue. In the lookup table storing the intensity parameter, (R diff ', G diff ', B diff ') represents the RGB value of the corrected difference image data.

なお、差分画像データを補正する方法は、上記のa)〜c)の方法に限られず、上記のa)〜c)の方法のうち2以上の方法を組み合わせた方法で補正してもよい。例えば、上記のa)の方法で差分画像データを補正した後、上記のb)又はc)の方法でさらに補正してもよい。   The method of correcting the difference image data is not limited to the above methods a) to c), and the difference image data may be corrected by a method combining two or more of the methods a) to c). For example, after the difference image data is corrected by the method a), the correction may be further performed by the method b) or c).

(実施例4)
次に、実施例4について説明する。実施例4は、基準色再現特性及びユーザ色再現特性の逆特性が未知である点が実施例1〜3と異なる。したがって、実施例4では、基準色再現特性及びユーザ色再現特性の逆特性の推定を行う。なお、以降では、実施例1と実質的に同一の機能を有する箇所及び同一の処理を行う箇所については、実施例1と同一の符号を用いて、その説明を省略する。
Example 4
Next, Example 4 will be described. The fourth embodiment is different from the first to third embodiments in that the reverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics are unknown. Therefore, in the fourth embodiment, the inverse characteristics of the reference color reproduction characteristics and the user color reproduction characteristics are estimated. Hereinafter, the same reference numerals as those in the first embodiment are used for the portions having substantially the same functions as those in the first embodiment and the portions for performing the same processing, and the description thereof is omitted.

<機能構成>
図12は、本実施形態に係る画像処理システム又はMFPの一例の機能ブロック図である(実施例4)。実施例4に係る画像処理システム600又はMFP700は、画像読み取り部307、幾何学変換パラメータ推定部308、画素値対応付け部309、色再現特性推定部310を有する点が実施例1と異なる。なお、図12では、これら以外の各構成は実施例1と同様であるが、実施例2又は実施例3と同様の構成としてもよい。すなわち、補正処理部304の代わりに補正処理部304Aで構成されていてもよいし、補正処理部304の代わりに補正処理部304Bを有するとともに、色空間変換部306を有していてもよい。
<Functional configuration>
FIG. 12 is a functional block diagram of an example of an image processing system or MFP according to the present embodiment (Example 4). The image processing system 600 or MFP 700 according to the fourth embodiment is different from the first embodiment in that the image processing system 600 or the MFP 700 includes an image reading unit 307, a geometric transformation parameter estimation unit 308, a pixel value association unit 309, and a color reproduction characteristic estimation unit 310. In FIG. 12, each configuration other than these is the same as that of the first embodiment, but may be the same as that of the second or third embodiment. In other words, the correction processing unit 304 may be configured instead of the correction processing unit 304, or the correction processing unit 304B may be included instead of the correction processing unit 304, and the color space conversion unit 306 may be included.

画像読み取り部307は、例えば画像入力装置601等により実現され、原稿画像データの出力結果である基準印刷物及びユーザ印刷物を読み取り、基準画像データ及びユーザ画像データを生成する。   The image reading unit 307 is realized by, for example, the image input device 601 and the like, and reads a reference print product and a user print product, which are output results of document image data, and generates reference image data and user image data.

幾何学変換パラメータ推定部308は、例えば画像解析装置604等により実現され、原稿画像データと基準画像データ、原稿画像データとユーザ画像データのそれぞれの幾何学変換パラメータを推定する。   The geometric conversion parameter estimation unit 308 is realized by, for example, the image analysis device 604 and the like, and estimates the respective geometric conversion parameters of document image data and reference image data, document image data, and user image data.

画素値対応付け部309は、例えば画像解析装置604等により実現され、幾何学変換パラメータを用いて、原稿画像データの画素に対応する位置の基準画像データの画素を検出し、それらの画素値を色成分の組合せ毎に対応付けて画素値対応付けデータを作成する。同様に、画素値対応付け部309は、幾何学変換パラメータを用いて、原稿画像データの画素に対応する位置のユーザ画像データの画素を検出し、それらの画素値を色成分の組合せ毎に対応付けて画素値対応付けデータを作成する。   The pixel value associating unit 309 is realized by, for example, the image analysis device 604 and the like, and detects the pixels of the reference image data at the position corresponding to the pixels of the document image data using the geometric conversion parameters, and sets the pixel values. Pixel value association data is created in association with each combination of color components. Similarly, the pixel value associating unit 309 detects the user image data pixels at positions corresponding to the pixels of the document image data using the geometric conversion parameters, and associates the pixel values with each color component combination. In addition, pixel value association data is created.

色再現特性推定部310は、例えば画像解析装置604等により実現され、画素値対応付けデータを用いて、基準色再現特性とユーザ色再現特性の逆特性を推定(決定)する。   The color reproduction characteristic estimation unit 310 is realized by, for example, the image analysis device 604 and the like, and estimates (determines) an inverse characteristic of the reference color reproduction characteristic and the user color reproduction characteristic using the pixel value association data.

<処理の詳細>
≪色変換処理≫
図13は、色変換処理の一例のフローチャートである(実施例4)。実施例3に係る色変換処理は、ステップS1301〜ステップS1305の処理が実施例1と異なる。したがって、ステップS1301〜ステップS1305の処理についてのみ説明する。
<Details of processing>
≪Color conversion process≫
FIG. 13 is a flowchart illustrating an example of color conversion processing (fourth embodiment). The color conversion process according to the third embodiment is different from the first embodiment in the processes of steps S1301 to S1305. Therefore, only the processing in steps S1301 to S1305 will be described.

色再現特性推定部310は、原稿画像データと基準画像データとに基づき、基準色再現特性を推定する(ステップS1301)。色再現特性推定部310による基準色再現特性の推定処理の詳細は、後述する。なお、本ステップは1回だけ実行すればよい。仮に複数回実行する場合、本ステップで使用する原稿画像データはオリジナルのものを用い、色変換後のものを用いないことに留意する必要がある。   The color reproduction characteristic estimation unit 310 estimates the reference color reproduction characteristic based on the document image data and the reference image data (step S1301). Details of the reference color reproduction characteristic estimation processing by the color reproduction characteristic estimation unit 310 will be described later. Note that this step need only be executed once. If it is executed a plurality of times, it should be noted that the original image data used in this step is the original one, and the color-converted one is not used.

色再現特性推定部310は、原稿画像データとユーザ画像データとに基づき、ユーザ色再現特性の逆特性を推定する(ステップS1302)。色再現特性推定部310によるユーザ色再現特性の逆特性の推定処理の詳細は、後述する。   The color reproduction characteristic estimation unit 310 estimates an inverse characteristic of the user color reproduction characteristic based on the document image data and the user image data (step S1302). Details of the process of estimating the inverse characteristics of the user color reproduction characteristics by the color reproduction characteristic estimation unit 310 will be described later.

次に、ユーザは、上記のステップS1301及びステップS1302で推定した基準色再現特性とユーザ色再現特性の逆特性を評価する(ステップS1303)。推定した色再現特性が妥当であれば(ステップS1304のYes)、次ステップS704に進み、そうでなければ(ステップS1304のNo)、処理を終了する。   Next, the user evaluates the reverse characteristic of the reference color reproduction characteristic estimated in the above-described step S1301 and step S1302 and the user color reproduction characteristic (step S1303). If the estimated color reproduction characteristics are appropriate (Yes in step S1304), the process proceeds to the next step S704, and if not (No in step S1304), the process ends.

色再現特性が妥当か否かを判断するのは、この特性で色変換を実行することに意味があるか否かを判断するためであり、色変換の収束判定と換言することもできる。このため、ステップS1303は必要に応じて省略しても良い。色変換を実行する意味がない例としては、次のようなものが挙げられる。なお、本実施形態に係る画像処理システム600又はMFP700は、このような判断を行う写像判定手段(不図示)を有していてもよい。
a)推定した色再現特性の推定精度が極端に低いケース
このような場合、色変換を施しても基準印刷物の色に合わせることができないので変換しないことが好ましい。
b)色変換の変換前後で画像データがほとんど変化しないケース
このような場合、色変換を実行する意味がない。
c)色変換の変換前後で画像データが極端に変化するケース
このような場合、色変換はユーザ印刷物の色を大きく変化させるので変換しないことが好ましい。
Whether or not the color reproduction characteristic is appropriate is determined in order to determine whether or not it is meaningful to perform color conversion with this characteristic, and it can also be referred to as a color conversion convergence determination. For this reason, step S1303 may be omitted as necessary. Examples that do not make sense to perform color conversion include the following. Note that the image processing system 600 or the MFP 700 according to the present embodiment may include mapping determination means (not shown) that performs such determination.
a) Case where the estimation accuracy of the estimated color reproduction characteristic is extremely low In such a case, it is preferable not to convert the color because the color of the reference printed matter cannot be matched even if the color conversion is performed.
b) Case where image data hardly changes before and after conversion of color conversion In such a case, there is no point in executing color conversion.
c) Case in which image data changes extremely before and after conversion of color conversion In such a case, it is preferable not to convert color conversion because it greatly changes the color of the user print.

上記a)で記載の色再現特性の妥当性を判断する基準の例としては、実測値と推定値がどれだけ離れているかが挙げられる。基準色再現特性を例にとれば、画素値対応付けデータに登録されている基準画像データの値(実測値)と基準色再現特性で推定した値(推定値)の差を用いる。   An example of a criterion for determining the validity of the color reproduction characteristics described in the above a) is how far the actually measured value is from the estimated value. Taking the reference color reproduction characteristic as an example, the difference between the value of the reference image data (measured value) registered in the pixel value association data and the value estimated with the reference color reproduction characteristic (estimated value) is used.

この離れ具合を測る尺度の例としては、
・実測値と推定値の差の絶対値を累積した値
・実測値と推定値の二乗を累積した値
・実測値と推定値の差の絶対値の最大値
・実測値と推定値との相関係数
等が挙げられる。
As an example of the scale to measure the distance,
-Accumulated absolute value of difference between measured value and estimated value-Accumulated value of square of measured value and estimated value-Maximum absolute value of difference between measured value and estimated value-Phase between measured value and estimated value For example, the number of relationships.

また、上記b)、c)で記載の色再現特性の妥当性を判断する基準の例としては、色変換において画素値がどれだけ変換するかが挙げられる。RGB色空間を例に取れば、変換前後のR成分値の差、変換前後のG成分値の差、変換前後のB成分値の差を用いる。この変換度合いを測る尺度の例としては、
・変換前後の画素値の差の絶対値を累積した値
・変換前後の画素値の差の二乗を累積した値
・変換前後の画素値の差の絶対値の最大値
等が挙げられる。
An example of a criterion for judging the validity of the color reproduction characteristics described in the above b) and c) is how much the pixel value is converted in the color conversion. Taking the RGB color space as an example, the difference between R component values before and after conversion, the difference between G component values before and after conversion, and the difference between B component values before and after conversion are used. Examples of scales that measure this degree of conversion include:
A value obtained by accumulating the absolute value of the difference between pixel values before and after conversion, a value obtained by accumulating the square of the difference between pixel values before and after conversion, and the maximum absolute value of the difference between pixel values before and after conversion.

これらの尺度で計測して得られる評価値が予め決められた所定の範囲内に存在することで、色再現特性が妥当であると判断することができる。   Since the evaluation values obtained by measuring with these scales are within a predetermined range, it can be determined that the color reproduction characteristics are appropriate.

また、ステップS712の処理において変換強度パラメータの調整が指示されていない場合(ステップS712のNo)、色変換部301は、処理の継続が例えばユーザ等により指示されているかを判別する(ステップS1305)。処理の継続が指示されている場合(ステップS1305のYes)、ステップS708で生成した色変換済み原稿画像データと、ステップS700で印刷した色変換済みユーザ印刷物(ユーザ画像データ)とに基づいて、再びステップS1302の処理を行う。このように、次のループで用いる原稿画像データは、すべて色変換済み原稿画像データを用いる。   When the conversion intensity parameter adjustment is not instructed in the process of step S712 (No in step S712), the color conversion unit 301 determines whether the continuation of the process is instructed by, for example, the user (step S1305). . If an instruction to continue the process is given (Yes in step S1305), the color-converted original image data generated in step S708 and the color-converted user printed matter (user image data) printed in step S700 are used again. The process of step S1302 is performed. As described above, all the document image data used in the next loop is the color-converted document image data.

これによって一連の流れが完了する。図13に示す色変換処理では、処理の終了条件の判定が4つ設定されているが、これらすべてを設定する必要はない。必要に応じて適宜省略してもよいが、何れか1つは少なくとも設定されることが望ましい。   This completes a series of flows. In the color conversion process shown in FIG. 13, four determinations of process end conditions are set, but it is not necessary to set all of them. Although it may be omitted as appropriate, any one is desirably set at least.

なお、図13並びに後述する図14及び図16において、スキャナ300で読み取った際に使用された色空間をそのまま使用しているが、この色空間はデバイス依存の色空間であるため、スキャナ300のカラープロファイルを用いてデバイス非依存の色空間に変換することが望ましい。デバイス非依存の色空間の例としては、デバイス非依存のRGB色空間、XYZ色空間等が挙げられる。さらに、L*a*b*色空間など均等色空間に変換すればなおよい。したがって、本実施形態に係る画像処理システム600又はMFP700は、基準画像データ及びユーザ画像データをデバイス非依存の色空間に変換する第二の色空間変換手段(不図示)を有していてもよい。   In FIG. 13 and FIGS. 14 and 16 to be described later, the color space used at the time of reading by the scanner 300 is used as it is. However, since this color space is a device-dependent color space, It is desirable to convert to a device-independent color space using a color profile. Examples of device-independent color spaces include device-independent RGB color space and XYZ color space. Furthermore, it is more preferable to convert to a uniform color space such as an L * a * b * color space. Therefore, the image processing system 600 or the MFP 700 according to the present embodiment may include a second color space conversion unit (not shown) that converts the reference image data and the user image data into a device-independent color space. .

スキャナ300で読み取った基準画像データとユーザ画像データは同じ色空間である事は必須であるが、原稿画像データと基準画像データ、又は、原稿画像データとユーザ画像データは同じ色空間である事は必須ではない。例えば、原稿画像データの色空間がCMYK色空間であり、基準画像データとユーザ画像データがRGB色空間であっても構わない。   It is essential that the reference image data and user image data read by the scanner 300 are in the same color space, but the document image data and reference image data, or the document image data and user image data are in the same color space. Not required. For example, the color space of the document image data may be a CMYK color space, and the reference image data and user image data may be an RGB color space.

≪基準色再現特性の推定処理≫
次に、図13のステップS1301の基準色再現特性の推定処理について説明する。図14は、基準色再現特性の推定処理の一例のフローチャートである。
≪Standard color reproduction characteristics estimation process≫
Next, the reference color reproduction characteristic estimation process in step S1301 of FIG. 13 will be described. FIG. 14 is a flowchart of an example of a reference color reproduction characteristic estimation process.

画像読み取り部307は、基準印刷物を読み取り、基準画像データを生成する(ステップS1401)。   The image reading unit 307 reads the reference printed material and generates reference image data (step S1401).

幾何学変換パラメータ推定部308は、原稿画像データと基準画像データの位置を合わせる(ステップS1402)。   The geometric conversion parameter estimation unit 308 aligns the document image data and the reference image data (step S1402).

2つの画像データの位置合わせを行うに先立って、幾何学変換パラメータ推定部308は、原稿画像データを基準とした時の基準画像データの幾何学変換パラメータを求める。幾何学変換パラメータの例としては、変位量、回転角、変倍率などがある。幾何学パラメータの推定には公知の技術を用いればよい。その例としては、マーカーを用いる方法や、マーカーを用いないパターンマッチング法や位相限定相関法などが挙げられる。   Prior to aligning the two image data, the geometric conversion parameter estimation unit 308 obtains the geometric conversion parameter of the reference image data when the document image data is used as a reference. Examples of geometric transformation parameters include displacement, rotation angle, and scaling factor. A known technique may be used to estimate the geometric parameter. Examples thereof include a method using a marker, a pattern matching method not using a marker, a phase-only correlation method, and the like.

a) マーカーを用いる方法
「トンボ」と呼ばれるマーカーを原稿画像データの四隅や各辺の中央に配置したうえで出力し、基準画像データを読み取った際に、このトンボマーカの位置のずれを用いて、変位量や回転角、変倍率を求める方法である。
a) Method of using a marker Markers called “register marks” are arranged at the four corners and the center of each side of the document image data, and output when the reference image data is read. This is a method for obtaining the displacement amount, rotation angle, and magnification.

b) パターンマッチング法を用いる方法
変位量のみを推定する方法の一例としては、テンプレートマッチング法が挙げられる。テンプレートマッチング法は一方の画像をテンプレートとし、位置を少しずつずらしながら他方の画像と一致度を求め、最も一致度の高くなる位置を検出するものである。幾何学変換が変位だけに限定できない場合には、回転角を推定する方法(ハフ変換など)や変倍量を推定する方法(マルチスケール解析など)と組み合わせて利用する必要がある。
b) Method Using Pattern Matching Method One example of a method for estimating only the displacement amount is a template matching method. In the template matching method, one image is used as a template, the degree of coincidence with the other image is obtained while gradually shifting the position, and the position with the highest degree of coincidence is detected. When the geometric transformation cannot be limited to only displacement, it is necessary to use in combination with a method for estimating the rotation angle (such as Hough transform) or a method for estimating the amount of magnification (such as multi-scale analysis).

テンプレートマッチングを応用したブロックマッチング法では、一方の画像をブロックに分割し、ブロックごとに他方の画像と最も一致度の高くなる位置を検出することにより変位量を求めることができる。ブロックマッチング法では、ブロックごとの変位量から回転角や変倍率を推定することも可能である。   In the block matching method using template matching, one image is divided into blocks, and the displacement amount can be obtained by detecting the position having the highest degree of coincidence with the other image for each block. In the block matching method, it is also possible to estimate the rotation angle and magnification from the displacement amount for each block.

c) 位相限定相関法を用いる方法
高い精度で変位量や回転角、変倍率を求める方法の例として、位相限定相関法(POC、Phase Only Correlation)や回転不変位相限定相関法(RIPOC、Rotation Invariant Phase Only Correlation)がある。位相限定相関法は、画像に対して離散フーリエ変換をかけて得られる位相画像を用い、比較対象の二枚の画像から得られる二つの位相画像の相関が最も高くなる位置を検出することにより、変位量を求める手法である。また、回転不変位相限定相関法は、上記位相画像を対数極座標変換することにより、回転角と変倍率を変換された位相画像上での変位量として検出できるようにしたものである。
c) Method using phase-only correlation method Examples of methods for obtaining displacement, rotation angle, and magnification with high accuracy include phase-only correlation (POC) and rotation-invariant phase-only correlation (RIPOC, Rotation Invariant). Phase Only Correlation). The phase only correlation method uses a phase image obtained by subjecting an image to a discrete Fourier transform, and detects a position where the correlation between two phase images obtained from two images to be compared is highest, This is a method for obtaining a displacement amount. The rotation-invariant phase-only correlation method is such that the rotation angle and the scaling factor can be detected as a displacement amount on the converted phase image by logarithmic polar coordinate conversion of the phase image.

以上により幾何学変換パラメータが求まったら、幾何学変換パラメータ推定部308は基準画像データに幾何学変換を実行する。変換に際してサブピクセル精度の移動や何らかの回転、実数値での変倍などにより変換前後の画素が一対一で対応付かないようなケースでは、適宜画素補間手法を用いて画素値を導出すればよい。画素補間手法の例としては、バイリニア法、バイキュービック法などが挙げられる。   When the geometric transformation parameters are obtained as described above, the geometric transformation parameter estimation unit 308 performs geometric transformation on the reference image data. In the case where the pixels before and after conversion do not correspond one-to-one due to sub-pixel precision shift, some rotation, or scaling with a real value at the time of conversion, the pixel value may be derived appropriately using a pixel interpolation method. Examples of pixel interpolation methods include bilinear methods and bicubic methods.

なお、幾何学変換は必須ではなく、次ステップにおいて原稿画像データと基準画像データにおいて同じ位置の画素を取得する際に、幾何学変換パラメータを用いて座標変換を行い、同じ位置か否かを判断することによって代替してもよい。後者を換言すれば、各画像の原点を基準とする座標系では異なる座標値を保持していても、幾何学変換の結果、同じ座標値となる画素を「同じ位置の画素」と見なすことになる。   Note that geometric conversion is not essential, and in the next step, when obtaining the pixel at the same position in the original image data and the reference image data, coordinate conversion is performed using the geometric conversion parameter to determine whether the position is the same. It may be replaced by doing. In other words, even if the coordinate system based on the origin of each image holds different coordinate values, the pixels that have the same coordinate value as a result of geometric transformation are regarded as “pixels at the same position”. Become.

原稿画像データを出力して得られた印刷物には画像の周囲に余白が存在するケースが存在する。この様なケースでは、幾何学変換の変位量に余白部分の高さや幅が含まれるため余白部分を参照することはないが、出力画像データにおいて余白部分を排除するように必要な領域を切り出し、各画像における原点の位置を一致させてもよい。   There are cases where margins exist around the printed material obtained by outputting the document image data. In such a case, since the height and width of the margin part are included in the displacement amount of the geometric transformation, the margin part is not referred to, but a necessary area is cut out in the output image data so as to exclude the margin part, You may make the position of the origin in each image correspond.

次に、画素値対応付け部309は、原稿画像データと基準画像データの同じ位置の画素値を色成分の組合せごとに対応付ける(ステップS1403)。すなわち、画素値対応付け部309は、原稿画像データと基準画像データの位置合わせが完了したら、二つの画像データにおいて対応する画素の画素値を取得し、これらを色成分の組合せごとに対応付けて画素値対応付けデータを作成する。なお、画像データを幾何学変換して位置合わせを行う場合には、「対応する画素」とは「同じ位置にある画素」である。一方、画像データを幾何学変換しない場合には、座標変換によって同じ座標値となる位置を「同じ位置」とし、その位置に存在する画素を「対応する画素」と見なす。   Next, the pixel value association unit 309 associates pixel values at the same position in the document image data and the reference image data for each combination of color components (step S1403). That is, the pixel value association unit 309 acquires the pixel values of the corresponding pixels in the two image data when the alignment of the document image data and the reference image data is completed, and associates these with each color component combination. Pixel value association data is created. Note that, when performing alignment by geometrically converting image data, the “corresponding pixels” are “pixels at the same position”. On the other hand, when the image data is not geometrically converted, the position having the same coordinate value by the coordinate conversion is regarded as “the same position”, and the pixel existing at that position is regarded as the “corresponding pixel”.

画素値を色成分の組合せごとに対応付けて記録する方法の例としては、リスト形式で記録する方法がある。原稿画像データと基準画像データが両方ともRGB画像で各色成分が256階調であるケースを想定して説明する。画素値のリストへの記録は次の手順で行う。
(1)リストを1枚用意する。
(2)原稿画像データのある座標を選択する。
(3)上記の(2)で選択された原稿画像データの画素のR成分値(Rin)と、G成分値(Gin)と、B成分値(Bin)と、基準画像データの対応する画素のR成分値(Rout1)と、G成分値(Gout1)と、B成分値(Bout1)と、を束ねてリストに追加する。
(4)これを原稿画像データの全ての座標について繰り返す。
As an example of a method of recording pixel values in association with each combination of color components, there is a method of recording in a list format. Description will be made assuming that both the document image data and the reference image data are RGB images and each color component has 256 gradations. The pixel value list is recorded in the following procedure.
(1) Prepare one list.
(2) Select a coordinate with document image data.
(3) Correspondence between R component value (R in ), G component value (G in ), B component value (B in ), and reference image data of the original image data pixel selected in (2) above The R component value (R out1 ), G component value (G out1 ), and B component value (B out1 ) of the pixel to be added are bundled and added to the list.
(4) This is repeated for all coordinates of the document image data.

これらのリストは必要に応じて昇順や降順に並び替えてもよい。処理を簡略化するために、原稿画像データの全ての座標について繰り返すのではなく、特定の範囲に限定したり、所定の刻み幅で座標を移動したりしてもよい。なお、リスト形式で記録したデータの一例を図15に示す。図15では、左半分に原稿画像データの画素の各成分値(Rin, Gin, Bin)が記録されており、右半分に基準画像データの対応する画素各成分値(Rout1, Gout1, Bout1)が記録されている。 These lists may be rearranged in ascending or descending order as necessary. In order to simplify the processing, the coordinates may be limited to a specific range, or the coordinates may be moved by a predetermined step size, instead of being repeated for all the coordinates of the document image data. An example of data recorded in a list format is shown in FIG. In FIG. 15, the component values (R in , G in , B in ) of the pixels of the original image data are recorded in the left half, and the corresponding pixel component values (R out1 , G in ) of the reference image data are recorded in the right half. out1 , B out1 ) is recorded.

なお、画素値対応付けデータを生成する際には、画像データ(原稿画像データ、基準画像データ)のコンテンツの輪郭部分を除くことが望ましい。これは、位置合わせにおいて、輪郭部分を完全に合わせることが困難であり、画素値の対応付けに誤りが発生する可能性があるためである。画素値対応付けに誤りが発生すると、後述する色再現特性の推定精度を低下させてしまう。   When generating the pixel value association data, it is desirable to remove the outline portion of the content of the image data (original image data, reference image data). This is because it is difficult to perfectly align the contour portion in alignment, and an error may occur in association of pixel values. If an error occurs in pixel value association, the estimation accuracy of the color reproduction characteristics described later is lowered.

輪郭部分を検出する方法としては、例えば、二値化を用いる方法や、エッジ検出を用いる方法がある。   As a method for detecting a contour portion, for example, there are a method using binarization and a method using edge detection.

二値化を用いる方法としては、例えば、画像データを所定の閾値で白黒に二値化し、白い領域と黒い領域とが隣接する箇所を輪郭部分として判断する方法がある。   As a method using binarization, for example, there is a method in which image data is binarized into black and white with a predetermined threshold, and a portion where a white region and a black region are adjacent is determined as a contour portion.

エッジ検出を用いる方法としては、例えば、画像データからSobel法などを用いてエッジ画像を生成し、これを所定の閾値で二値化して閾値以上の画素を輪郭部分として判断する方法がある。   As a method using edge detection, for example, there is a method in which an edge image is generated from image data using a Sobel method or the like, binarized with a predetermined threshold value, and a pixel equal to or higher than the threshold value is determined as a contour portion.

なお、輪郭部分を除去せずに、上記の推定精度の低下を緩和する方法もある。例えば、画像データを平滑化して輪郭部分を滑らかにし、輪郭部分で出現する色差を低減するというものである。平滑化には、平均化フィルタやローパスフィルタなど従来技術を用いればよい。   There is also a method of alleviating the above-described decrease in estimation accuracy without removing the contour portion. For example, the image data is smoothed to smooth the contour portion, and the color difference appearing at the contour portion is reduced. For smoothing, a conventional technique such as an averaging filter or a low-pass filter may be used.

次に、色再現特性推定部310は、基準色再現特性を推定する(ステップS1404)。すなわち、ステップS1403で生成した画素値対応付けデータを用いて、原稿画像データのある画素値が基準画像データのどの画素値が対応付くかを求める。ステップS1403と同様に原稿画像データと基準画像データが両方ともRGB画像で各色成分が256階調であるとして説明する。   Next, the color reproduction characteristic estimation unit 310 estimates reference color reproduction characteristics (step S1404). That is, the pixel value association data generated in step S1403 is used to determine which pixel value in the reference image data corresponds to a certain pixel value in the document image data. As in step S1403, it is assumed that both the original image data and the reference image data are RGB images and each color component has 256 gradations.

基準色再現特性の推定とは、画素値対応付けデータを用いて、原稿画像データの色成分値(Rin, Gin, Bin)から基準画像データの色成分値(Rout1, Gout1, Bout1)への色変換を行なう際の対応関係を表す色変換特性を推定することである。 The estimated reference color reproduction characteristics by using the pixel value mapping data, the color component values of the original image data (R in, G in, B in) color component values of the reference image data from the (R out1, G out1, Bout1 ) is to estimate a color conversion characteristic representing a correspondence relationship when color conversion is performed.

基準色再現特性を推定する方法としては、例えば次のような多項式関数近似が挙げられる。   As a method for estimating the reference color reproduction characteristics, for example, the following polynomial function approximation can be cited.

Figure 0006384268
ここで、Xは原稿画像データの色成分値[Rin, Gin, Bin]t、Yは基準画像データの色成分値[Rout1, Gout1, Bout1]t、MSは補正係数行列、fは補正関数である。補正関数f(X)は、以下の式等が用いられる。
Figure 0006384268
Here, X is the color component values of the original image data [R in, G in, B in] t, Y color component values of the reference image data [R out1, G out1, B out1] t, M S is the correction factor Matrix, f is a correction function. The following equation or the like is used for the correction function f (X).

Figure 0006384268
原稿画像データと基準画像データとの間が線形歪みをもつときは、補正係数f(X)=[Rin, Gin, Bin]tの3項に、3×3の補正係数行列MSを操作した線形変換による推定で十分であるが、複雑な非線形歪みをもつときは高次の関数項を用いて高精度の色再現特性の推定が必要となる。
Figure 0006384268
When the original image data and the reference image data have a linear distortion, the 3 × 3 correction coefficient matrix M S is added to the three terms of the correction coefficient f (X) = [R in , G in , B in ] t. However, when there is complex nonlinear distortion, it is necessary to estimate the color reproduction characteristics with high accuracy using higher-order function terms.

補正係数MSは、例えば最小2乗法により求めることができる。画素値対応付けデータに記憶されたN個の基準画像データの色成分値Y(n)(n=1〜N)に対応する原稿画像データの色成分値X(n)(n=1〜N)を用いて、 The correction coefficient M S can be obtained by, for example, the least square method. Color component value X (n) (n = 1 to N) of document image data corresponding to the color component value Y (n) (n = 1 to N) of N reference image data stored in the pixel value association data )Using,

Figure 0006384268
の最小条件により、次式で計算される。
Figure 0006384268
Is calculated by the following equation.

Figure 0006384268
ここで、YN及びXNはN個の画素値対応付けデータ行列を表し、YNは基準画像データの色成分値行列であり、XNは原稿画像データの色成分値行列を表す。
Figure 0006384268
Here, Y N and X N represent N pixel value association data matrices, Y N represents a color component value matrix of reference image data, and X N represents a color component value matrix of document image data.

Figure 0006384268
Figure 0006384268

Figure 0006384268
ここで、Rout1(n)は画素値対応付けデータに登録されているn番目の基準画像データのR成分値を表し、Rin(n)は画素値対応付けデータに登録されているn番目の原稿画像データのR成分値を表す(Gout1(n)、Bout1(n)、Gin(n)、Bin(n)も同様である)。
Figure 0006384268
Here, R out1 (n) represents the R component value of the n-th reference image data registered in the pixel value association data, and R in (n) is the n-th registered in the pixel value association data. Represents the R component value of the original image data (G out1 (n), B out1 (n), G in (n), and B in (n) are the same).

f(XN)は、原稿画像データの色成分値の関数項行列で、2次関数の場合を例にとれば、次の10×Nの行列となる。 f (X N ) is a function term matrix of the color component values of the original image data, and taking the case of a quadratic function as an example, it is the following 10 × N matrix.

Figure 0006384268
なお、基準色再現特性の推定に用いる関数項は、複数の色成分値を基にした多次元のデータであれば、上述したものに限定されるものではない。また、基準色再現特性の推定方法の一例として多項式近似を挙げたが、その他にも画素値対応付けデータを学習データに用いたニューラルネットワークなどで特性を推定することも可能である。また、ステップS1403で生成した画素値対応付けデータにおいて原稿画像データの全ての座標について対応関係を記録してある場合には、画素値対応付けデータをそのまま基準色再現特性として用いることもできる。
Figure 0006384268
Note that the function term used for estimating the reference color reproduction characteristics is not limited to the above as long as it is multidimensional data based on a plurality of color component values. In addition, polynomial approximation is given as an example of the estimation method of the reference color reproduction characteristics, but it is also possible to estimate the characteristics using a neural network or the like using pixel value association data as learning data. Further, when the correspondence relation is recorded for all the coordinates of the document image data in the pixel value association data generated in step S1403, the pixel value association data can be used as the reference color reproduction characteristic as it is.

以上により推定された基準色再現特性は、例えば色再現特性記憶装置605に記憶される。   The reference color reproduction characteristics estimated as described above are stored in the color reproduction characteristic storage device 605, for example.

≪ユーザ色再現特性の逆特性の推定処理≫
次に、図13のステップS1302のユーザ色再現特性の逆特性の推定処理について説明する。図16は、ユーザ色再現特性の逆特性の推定処理の一例のフローチャートである。
≪Process for estimating reverse characteristics of user color reproduction characteristics≫
Next, the inverse characteristic estimation process of the user color reproduction characteristic in step S1302 of FIG. 13 will be described. FIG. 16 is a flowchart of an example of a process for estimating the inverse characteristic of the user color reproduction characteristic.

ステップS1601〜ステップS1603の処理は、それぞれ図14のステップS1401〜ステップS1403の処理において「基準画像データ」を「ユーザ画像データ」と読み替える。すると、ステップS1601〜ステップS1603の処理は、それぞれ図14のステップS1401〜ステップS1403の処理と同様のため説明を省略する。   In the processes in steps S1601 to S1603, “reference image data” is read as “user image data” in the processes in steps S1401 to S1403 in FIG. Then, since the process of step S1601-step S1603 is the same as the process of step S1401-step S1403 of FIG. 14, respectively, description is abbreviate | omitted.

ステップS1603においてリスト形式で記録したデータの一例を図17に示す。図17では、左半分に原稿画像データの画素の各成分値(Rin, Gin, Bin)が記録されており、右半分にユーザ画像データの対応する画素各成分値(Rout2, Gout2, Bout2)が記録されている。 An example of data recorded in the list format in step S1603 is shown in FIG. In FIG. 17, each component value (R in , G in , B in ) of the original image data pixel is recorded in the left half, and each corresponding pixel component value (R out2 , G in ) of the user image data is recorded in the right half. out2 and Bout2 ) are recorded.

次に、色再現特性推定部310は、ユーザ色再現特性の逆特性を推定する(ステップS1604)。すなわち、ステップS1603で生成した画素値対応付けデータを用いて、ユーザ画像データのある画素値が原稿画像データのどの画素値が対応付くかを求める。ステップS1403と同様にユーザ画像データと原稿画像データが両方ともRGB画像で各色成分が256階調であるとして説明する。   Next, the color reproduction characteristic estimation unit 310 estimates an inverse characteristic of the user color reproduction characteristic (step S1604). That is, the pixel value association data generated in step S1603 is used to determine which pixel value in the document image data corresponds to a certain pixel value in the user image data. As in step S1403, it is assumed that both the user image data and the document image data are RGB images and each color component has 256 gradations.

ユーザ色再現特性の逆特性の推定とは、画素値対応付けデータを用いて、ユーザ画像データの色成分値(Rout2, Gout2, Bout2)から原稿画像データの色成分値(Rin, Gin, Bin)への色変換を行なう際の対応関係を表す色変換特性を推定することである。 The estimation of the inverse characteristic of the user color reproduction characteristics by using the pixel value mapping data, the color component values of the user image data (R out2, G out2, B out2) color component values of the original image data from the (R in, G in, it is to estimate the color conversion characteristic representing a relationship at the time of performing the color conversion to B in).

ユーザ色再現特性の逆特性を推定する方法としては、例えば次のような多項式関数近似が挙げられる。   As a method for estimating the inverse characteristic of the user color reproduction characteristic, for example, the following polynomial function approximation can be cited.

Figure 0006384268
ここで、Xはユーザ画像データの色成分値[Rout2, Gout2, Bout2]t、Yは原稿画像データの色成分値[Rin, Gin, Bin]t、MSは補正係数行列、fは補正関数である。補正関数f(X)は、以下の式等が用いられる。
Figure 0006384268
Here, X is the color component values of the user image data [R out2, G out2, B out2] t, Y color component values of the original image data [R in, G in, B in] t, M S is the correction factor Matrix, f is a correction function. The following equation or the like is used for the correction function f (X).

Figure 0006384268
ユーザ画像データと原稿画像データとの間が線形歪みをもつときは、補正係数f(X)=[Rout2, Gout2, Bout2]tの3項に、3×3の補正係数行列MSを操作した線形変換による推定で十分であるが、複雑な非線形歪みをもつときは高次の関数項を用いて高精度の色再現特性の推定が必要となる。
Figure 0006384268
When there is linear distortion between the user image data and the document image data, the 3 × 3 correction coefficient matrix M S is added to the three terms of the correction coefficient f (X) = [R out2 , G out2 , B out2 ] t. However, when there is complex nonlinear distortion, it is necessary to estimate the color reproduction characteristics with high accuracy using higher-order function terms.

補正係数MSは、例えば最小2乗法により求めることができる。画素値対応付けデータに記憶されたN個の原稿画像データの色成分値Y(n)(n=1〜N)に対応するユーザ画像データの色成分値X(n)(n=1〜N)を用いて、 The correction coefficient M S can be obtained by, for example, the least square method. Color component value X (n) (n = 1 to N) of user image data corresponding to the color component value Y (n) (n = 1 to N) of N document image data stored in the pixel value association data )Using,

Figure 0006384268
の最小条件により、次式で計算される。
Figure 0006384268
Is calculated by the following equation.

Figure 0006384268
ここで、YN及びXNはN個の画素値対応付けデータ行列を表し、YNは原稿画像データの色成分値行列であり、XNはユーザ画像データの色成分値行列を表す。
Figure 0006384268
Here, Y N and X N represent N pixel value association data matrices, Y N represents a color component value matrix of document image data, and X N represents a color component value matrix of user image data.

Figure 0006384268
Figure 0006384268

Figure 0006384268
ここで、Rout2(n)は画素値対応付けデータに登録されているn番目のユーザ画像データのR成分値を表し、Rin(n)は画素値対応付けデータに登録されているn番目の原稿画像データのR成分値を表す(Gout2(n)、Bout2(n)、Gin(n)、Bin(n)も同様である)。
Figure 0006384268
Here, R out2 (n) represents the R component value of the nth user image data registered in the pixel value association data, and R in (n) represents the nth user image data registered in the pixel value association data. R component value of the original image data (G out2 (n), B out2 (n), G in (n), and B in (n) are the same).

f(XN)は、原稿画像データの色成分値の関数項行列で、2次関数の場合を例にとれば、次の10×Nの行列となる。 f (X N ) is a function term matrix of the color component values of the original image data, and taking the case of a quadratic function as an example, it is the following 10 × N matrix.

Figure 0006384268
なお、ユーザ色再現特性の逆特性の推定に用いる関数項は、複数の色成分値を基にした値を含む多次元のデータであれば、上述したものに限定されるものではない。また、ユーザ色再現特性の逆特性の推定方法の一例として多項式近似を挙げたが、その他にも画素値対応付けデータを学習データに用いたニューラルネットワークなどで特性を推定することも可能である。ただし、ステップS1404とは異なり、ステップS1603で生成した画素値対応付けデータをそのままユーザ色再現特性の逆特性として用いることはできない。これは、基準画像データにある画素値の色成分の組合せが、ユーザ画像データ内にあるとは限らないため、画素値対応付けデータには存在しない画素値の色成分の組合せに対しても、推定する必要があるためである。
Figure 0006384268
Note that the function term used to estimate the inverse characteristic of the user color reproduction characteristic is not limited to the above as long as it is multidimensional data including a value based on a plurality of color component values. In addition, polynomial approximation is given as an example of a method for estimating the inverse characteristic of the user color reproduction characteristic, but it is also possible to estimate the characteristic using a neural network or the like using pixel value association data as learning data. However, unlike step S1404, the pixel value association data generated in step S1603 cannot be directly used as the inverse characteristic of the user color reproduction characteristic. This is because the combination of the color components of the pixel values in the reference image data is not necessarily in the user image data, so even for the combination of the color components of the pixel values that do not exist in the pixel value association data, This is because it is necessary to estimate.

以上により推定されたユーザ色再現特性の逆特性は、例えば色再現特性記憶装置605に記憶される。   The inverse characteristics of the user color reproduction characteristics estimated as described above are stored in the color reproduction characteristic storage device 605, for example.

<まとめ>
以上のように、本実施形態に係る画像処理システム600又はMFP700は、原稿画像データに対して色変換を施すことで、基準印刷物とユーザ印刷物の色合わせを行うことができる。また、本実施形態に係る画像処理システム600又はMFP700は、原稿画像データに対して色変換を行った結果出力されたユーザ印刷物が、ユーザの意図する色でない場合、変換強度パラメータを調整することで、所望の色変換を行うことができるようになる。したがって、ユーザが画像処理に関して専門的な知識を有しない場合であっても、簡便に所望のユーザ印刷物を得ることができる。
<Summary>
As described above, the image processing system 600 or the MFP 700 according to the present embodiment can perform color matching between the reference print product and the user print product by performing color conversion on the document image data. In addition, the image processing system 600 or the MFP 700 according to the present embodiment adjusts the conversion intensity parameter when the user print output as a result of performing color conversion on the document image data is not the color intended by the user. The desired color conversion can be performed. Therefore, even if the user has no specialized knowledge regarding image processing, a desired user print can be easily obtained.

なお、色変換部301は、色変換手段の一例である。差分処理部302は、差分処理手段の一例である。変換強度パラメータ取得部303は、変換強度パラメータ取得手段の一例である。補正処理部304、補正処理部304A、及び補正処理部304Bは、補正処理手段の一例である。画像合成部305は、画像合成手段の一例である。色空間変換部306は、第一の色空間変換手段の一例である。幾何学変換パラメータ推定部308は、幾何学変換パラメータ推定手段の一例である。画素値対応付け部309は、画素値対応付け手段の一例である。色再現特性推定部310は、写像推定手段の一例である。   The color conversion unit 301 is an example of a color conversion unit. The difference processing unit 302 is an example of a difference processing unit. The conversion intensity parameter acquisition unit 303 is an example of a conversion intensity parameter acquisition unit. The correction processing unit 304, the correction processing unit 304A, and the correction processing unit 304B are examples of correction processing means. The image composition unit 305 is an example of an image composition unit. The color space conversion unit 306 is an example of a first color space conversion unit. The geometric transformation parameter estimation unit 308 is an example of a geometric transformation parameter estimation unit. The pixel value association unit 309 is an example of a pixel value association unit. The color reproduction characteristic estimation unit 310 is an example of mapping estimation means.

本発明は、具体的に開示された上記の実施形態に限定されるものではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。   The present invention is not limited to the specifically disclosed embodiments, and various modifications and changes can be made without departing from the scope of the claims.

100 コンピュータ
101 色変換部
102 差分処理部
103 変換強度パラメータ取得部
104 補正処理部
105 画像合成部
106 色空間変換部
107 画像読み取り部
108 幾何学変換パラメータ推定部
109 画素値対応付け部
110 色再現特性推定部
200 ユーザプリンタ
300 スキャナ
400 基準プリンタ
500 ネットワーク
600 画像処理システム
601 画像入力装置
602 画像出力装置
603 画像記憶装置
604 画像解析装置
605 色再現特性記憶装置
606 画像処理装置
607 パラメータ入力装置
700 MFP
DESCRIPTION OF SYMBOLS 100 Computer 101 Color conversion part 102 Difference processing part 103 Conversion intensity parameter acquisition part 104 Correction processing part 105 Image composition part 106 Color space conversion part 107 Image reading part 108 Geometric conversion parameter estimation part 109 Pixel value matching part 110 Color reproduction characteristic Estimator 200 User printer 300 Scanner 400 Reference printer 500 Network 600 Image processing system 601 Image input device 602 Image output device 603 Image storage device 604 Image analysis device 605 Color reproduction characteristic storage device 606 Image processing device 607 Parameter input device 700 MFP

特開2013−30996号公報JP2013-30996A

Claims (12)

第一の画像出力手段が原稿画像データを出力した第一の出力結果の色を、第二の画像出力手段が前記原稿画像データを出力した第二の出力結果において再現する画像処理装置であって、
前記原稿画像データの色から読み取り装置が前記第一の出力結果を読み取った第一の出力画像データの色を推定する第一の写像と、前記読み取り装置が前記第二の出力結果を読み取った第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とに基づいて、前記原稿画像データの画素値を変換して中間画像データを生成する色変換手段と、
前記原稿画像データと前記中間画像データとの対応する画素の画素値の差分を算出して差分画像データを生成する差分処理手段と、
前記原稿画像データの画素値の色変換の強度を制御するための変換強度パラメータを取得する変換強度パラメータ取得手段と、
前記差分画像データと前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する補正処理手段と、
前記原稿画像データと前記補正差分画像データとの対応する画素の画素値について所定の演算を行い、前記原稿画像データと前記補正差分画像データとを合成する画像合成手段と、
を有する画像処理装置。
An image processing apparatus for reproducing a color of a first output result obtained by outputting original image data by a first image output means in a second output result obtained by outputting the original image data by a second image output means. ,
A first mapping for estimating the color of the first output image data obtained by the reading device reading the first output result from the color of the original image data, and the first image obtained by the reading device reading the second output result. Color conversion means for converting the pixel values of the document image data to generate intermediate image data based on a second mapping for estimating the color of the document image data from the color of the second output image data;
Difference processing means for calculating difference between pixel values of corresponding pixels of the original image data and the intermediate image data to generate difference image data;
Conversion intensity parameter acquisition means for acquiring a conversion intensity parameter for controlling the intensity of color conversion of pixel values of the document image data;
Correction processing means for generating corrected difference image data in which pixel values of the difference image data are converted based on the difference image data and the conversion intensity parameter;
Image combining means for performing a predetermined calculation on pixel values of corresponding pixels of the document image data and the corrected difference image data, and combining the document image data and the corrected difference image data;
An image processing apparatus.
前記補正処理手段は、
前記差分画像データの画素値と前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する、請求項1記載の画像処理装置。
The correction processing means includes
The image processing apparatus according to claim 1, wherein corrected difference image data obtained by converting a pixel value of the difference image data is generated based on a pixel value of the difference image data and the conversion intensity parameter.
前記補正処理手段は、
前記差分画像データの画素と対応する前記原稿画像データの画素の画素値と、前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する、請求項1記載の画像処理装置。
The correction processing means includes
The corrected difference image data obtained by converting the pixel value of the difference image data is generated based on the pixel value of the pixel of the original image data corresponding to the pixel of the difference image data and the conversion intensity parameter. The image processing apparatus according to 1.
前記原稿画像データの色空間を、色相、明度、又は彩度を表すことができる色空間に変換する第一の色空間変換手段を有し、
前記補正処理手段は、
前記差分画像データの画素と対応する前記第一の色空間変換手段により変換された前記原稿画像データの画素の色相、明度、又は彩度のうちの少なくとも1つの値と、前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する、請求項1記載の画像処理装置。
First color space conversion means for converting the color space of the document image data into a color space capable of expressing hue, brightness, or saturation;
The correction processing means includes
At least one value of hue, brightness, or saturation of the pixel of the original image data converted by the first color space conversion unit corresponding to the pixel of the difference image data, and the conversion intensity parameter The image processing apparatus according to claim 1, wherein based on the difference image data, corrected difference image data obtained by converting pixel values is generated.
前記第一の出力画像データと前記原稿画像データの位置を合わせる第一の幾何学変換パラメータと、前記第二の出力画像データと前記原稿画像データの位置を合わせる第二の幾何学変換パラメータとを推定する幾何学変換パラメータ推定手段と、
前記第一の幾何学変換パラメータを用いて前記第一の出力画像データと前記原稿画像データの対応する画素の色成分の組合せが対応付けられた第一の画素値対応付けデータと、前記第二の幾何学変換パラメータを用いて前記第二の出力画像データと前記原稿画像データの対応する画素の色成分の組合せが対応付けられた第二の画素値対応付けデータとをそれぞれ生成する画素値対応付け手段と、
を有し、
前記第一の写像は、
前記第一の画素値対応付けデータに基づいて前記原稿画像データから前記第一の出力画像データの色を推定し、
前記第二の写像は、
前記第二の画素値対応付けデータに基づいて前記第二の出力画像データの色から前記原稿画像データの色を推定する、請求項1ないし4のいずれか1項に記載の画像処理装置。
A first geometric conversion parameter for aligning the positions of the first output image data and the document image data; and a second geometric conversion parameter for aligning the positions of the second output image data and the document image data. A geometric transformation parameter estimating means for estimating;
First pixel value association data in which combinations of color components of corresponding pixels of the first output image data and the document image data are associated using the first geometric transformation parameter; and the second Pixel value correspondence that generates second pixel value correspondence data in which a combination of color components of corresponding pixels of the original image data is associated with the second output image data using the geometric conversion parameters Attaching means;
Have
The first map is
Estimating the color of the first output image data from the document image data based on the first pixel value association data;
The second map is
5. The image processing apparatus according to claim 1, wherein a color of the document image data is estimated from a color of the second output image data based on the second pixel value association data. 6.
前記第一の写像と前記第二の写像を決定する写像推定手段を有し、
前記写像推定手段は、
前記原稿画像データの複数の色成分値を基にした多次元のデータを用いて前記第一の出力画像データの色を推定する前記第一の写像を決定し、前記第二の出力画像データの複数の色成分値を基にした多次元のデータを用いて前記原稿画像データの色を推定する前記第二の写像を決定する、請求項5記載の画像処理装置。
Mapping estimation means for determining the first mapping and the second mapping;
The mapping estimation means includes
The first mapping for estimating the color of the first output image data is determined using multidimensional data based on a plurality of color component values of the document image data, and the second output image data 6. The image processing apparatus according to claim 5, wherein the second mapping for estimating the color of the document image data is determined using multidimensional data based on a plurality of color component values.
画像データをデバイス非依存の色空間に変換する第二の色空間変換手段を有し、
前記写像推定手段は、
前記第一の出力画像データ及び前記第二の出力画像データを前記第二の色空間変換手段によりデバイス非依存の色空間に変換した後、該変換された第一の出力画像データ及び第二の出力画像データを用いて前記第一の写像及び前記第二の写像を決定する、請求項6記載の画像処理装置。
A second color space conversion means for converting image data into a device-independent color space;
The mapping estimation means includes
After the first output image data and the second output image data are converted into a device-independent color space by the second color space conversion means, the converted first output image data and second The image processing apparatus according to claim 6, wherein the first mapping and the second mapping are determined using output image data.
前記第一の写像及び前記第二の写像が所定の基準を満たすか否かを判定する写像判定手段を有し、
前記色変換手段は、
前記写像判定手段により、前記第一の写像及び前記第二の写像が前記所定の基準を満たすと判定された場合、該第一の写像及び前記第二の写像に基づいて前記原稿画像データの画素値を変換して前記中間画像データを生成する、請求項6又は7記載の画像処理装置。
Mapping determination means for determining whether or not the first mapping and the second mapping satisfy a predetermined criterion;
The color conversion means includes
When the mapping determination unit determines that the first mapping and the second mapping satisfy the predetermined criterion, pixels of the document image data based on the first mapping and the second mapping The image processing apparatus according to claim 6, wherein the intermediate image data is generated by converting a value.
前記画素値対応付け手段は、
前記原稿画像データ、前記第一の出力画像データ、及び前記第二の出力画像データの各コンテンツの輪郭部分を除外した後、前記第一の出力画像データと前記原稿画像データの対応する画素の色成分の組合せの対応付け、及び、前記第二の出力画像データと前記原稿画像データの対応する画素の色成分の組合せが対応付けを行う、請求項5ないし8のいずれか1項に記載の画像処理装置。
The pixel value association unit includes:
After excluding contour portions of the contents of the original image data, the first output image data, and the second output image data, the colors of the corresponding pixels of the first output image data and the original image data The image according to any one of claims 5 to 8, wherein the association of the combination of components and the combination of the color components of the corresponding pixels of the second output image data and the document image data are associated. Processing equipment.
前記第一の出力画像データと前記第二の出力画像データとを所定の評価方法により評価する色評価手段を有し、
前記色変換手段は、
前記色評価手段による評価結果が所定の基準を満たさない場合、前記原稿画像データの画素値を変換して前記中間画像データを生成する、請求項1ないし9のいずれか1項に記載の画像処理装置。
Color evaluation means for evaluating the first output image data and the second output image data by a predetermined evaluation method ;
The color conversion means includes
If it that evaluation result to the color evaluation means does not meet a predetermined standard, the converted pixel values of the original image data to generate the intermediate image data, according to any one of claims 1 to 9 Image processing apparatus.
第一の画像出力手段が原稿画像データを出力した第一の出力結果の色を、第二の画像出力手段が前記原稿画像データを出力した第二の出力結果において再現する画像処理装置に用いられる画像処理方法であって、
前記原稿画像データの色から読み取り装置が前記第一の出力結果を読み取った第一の出力画像データの色を推定する第一の写像と、前記読み取り装置が前記第二の出力結果を読み取った第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とに基づいて、前記原稿画像データの画素値を変換して中間画像データを生成する色変換手順と、
前記原稿画像データと前記中間画像データとの対応する画素の画素値の差分を算出して差分画像データを生成する差分処理手順と、
前記原稿画像データの画素値の色変換の強度を制御するための変換強度パラメータを取得する変換強度パラメータ取得手順と、
前記差分画像データと前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する補正処理手順と、
前記原稿画像データと前記補正差分画像データとの対応する画素の画素値について所定の演算を行い、前記原稿画像データと前記補正差分画像データとを合成する画像合成手順と、
を有する画像処理方法。
Used in an image processing apparatus for reproducing the color of the first output result obtained by outputting the original image data by the first image output means in the second output result obtained by outputting the original image data by the second image output means. An image processing method comprising:
A first mapping for estimating the color of the first output image data obtained by the reading device reading the first output result from the color of the original image data, and the first image obtained by the reading device reading the second output result. A color conversion procedure for generating intermediate image data by converting pixel values of the document image data based on a second mapping for estimating the color of the document image data from the color of the second output image data;
A difference processing procedure for generating difference image data by calculating a difference between corresponding pixel values of the original image data and the intermediate image data;
A conversion intensity parameter acquisition procedure for acquiring a conversion intensity parameter for controlling the intensity of color conversion of the pixel value of the document image data;
Based on the difference image data and the conversion intensity parameter, a correction processing procedure for generating corrected difference image data in which pixel values of the difference image data are converted;
An image composition procedure for performing a predetermined calculation on pixel values of corresponding pixels of the document image data and the corrected difference image data, and combining the document image data and the corrected difference image data;
An image processing method.
原稿画像データから第一の出力結果を出力する第一の画像出力機と、前記原稿画像データから第二の出力結果を出力する第二の画像出力機と、前記第一の出力結果及び前記第二の出力結果を読み取ってそれぞれ第一の出力画像データ及び第二の出力画像データを生成する読み取り装置と、前記第二の出力結果の色を前記第一の出力結果において再現するための処理を行う画像処理装置とを有する画像処理システムであって、
前記原稿画像データの色から前記第一の出力画像データの色を推定する第一の写像と、前記第二の出力画像データの色から前記原稿画像データの色を推定する第二の写像とに基づいて、前記原稿画像データの画素値を変換して中間画像データを生成する色変換手段と、
前記原稿画像データと前記中間画像データとの対応する画素の画素値の差分を算出して差分画像データを生成する差分処理手段と、
前記原稿画像データの画素値の色変換の強度を制御するための変換強度パラメータを取得する変換強度パラメータ取得手段と、
前記差分画像データと前記変換強度パラメータとに基づいて、前記差分画像データの画素値が変換された補正差分画像データを生成する補正処理手段と、
前記原稿画像データと前記補正差分画像データとの対応する画素の画素値について所定の演算を行い、前記原稿画像データと前記補正差分画像データとを合成する画像合成手段と、
を有する画像処理システム。
A first image output device that outputs a first output result from the document image data; a second image output device that outputs a second output result from the document image data; the first output result and the first output A reading device that reads the second output result and generates first output image data and second output image data, respectively, and a process for reproducing the color of the second output result in the first output result. An image processing system having an image processing device to perform,
A first mapping for estimating the color of the first output image data from the color of the original image data, and a second mapping for estimating the color of the original image data from the color of the second output image data. Based on color conversion means for converting the pixel values of the document image data to generate intermediate image data;
Difference processing means for calculating difference between pixel values of corresponding pixels of the original image data and the intermediate image data to generate difference image data;
Conversion intensity parameter acquisition means for acquiring a conversion intensity parameter for controlling the intensity of color conversion of pixel values of the document image data;
Correction processing means for generating corrected difference image data in which pixel values of the difference image data are converted based on the difference image data and the conversion intensity parameter;
Image combining means for performing a predetermined calculation on pixel values of corresponding pixels of the document image data and the corrected difference image data, and combining the document image data and the corrected difference image data;
An image processing system.
JP2014219102A 2014-10-28 2014-10-28 Image processing apparatus, image processing method, and image processing system Active JP6384268B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014219102A JP6384268B2 (en) 2014-10-28 2014-10-28 Image processing apparatus, image processing method, and image processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014219102A JP6384268B2 (en) 2014-10-28 2014-10-28 Image processing apparatus, image processing method, and image processing system

Publications (2)

Publication Number Publication Date
JP2016086339A JP2016086339A (en) 2016-05-19
JP6384268B2 true JP6384268B2 (en) 2018-09-05

Family

ID=55973906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014219102A Active JP6384268B2 (en) 2014-10-28 2014-10-28 Image processing apparatus, image processing method, and image processing system

Country Status (1)

Country Link
JP (1) JP6384268B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011121760A1 (en) * 2010-03-31 2011-10-06 キヤノン株式会社 Image processing apparatus and image capturing apparatus using same
JP5760785B2 (en) * 2011-07-15 2015-08-12 株式会社リコー Image processing apparatus and image processing system
JP5857676B2 (en) * 2011-11-24 2016-02-10 株式会社リコー Image processing apparatus and image processing system

Also Published As

Publication number Publication date
JP2016086339A (en) 2016-05-19

Similar Documents

Publication Publication Date Title
JP5733083B2 (en) Image processing apparatus and image processing system
JP5799634B2 (en) Image processing apparatus and image processing system
US10735627B2 (en) Color conversion table creation apparatus and method, color conversion apparatus, and program
JP5857676B2 (en) Image processing apparatus and image processing system
JP5924091B2 (en) Image processing apparatus, image processing system, and program
JP6339962B2 (en) Image processing apparatus and method, and program
JP5760785B2 (en) Image processing apparatus and image processing system
JP2015111801A (en) Image processing apparatus and image processing system
US20120206756A1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP7367159B2 (en) Image processing device, image processing method, and program
JP6680076B2 (en) Image processing apparatus, image processing method, and image processing system
JP5906924B2 (en) Image processing apparatus, image processing system, and program
WO2015072542A1 (en) Color conversion table creation device and method, program, and recording medium
JP6298387B2 (en) Color conversion table creation device and method, and program
JP6428454B2 (en) Image processing apparatus, image processing method, and image processing system
US20220036570A1 (en) Image processing apparatus, image processing method, and image processing system
JP6384268B2 (en) Image processing apparatus, image processing method, and image processing system
JP2016015647A (en) Image processing device, image processing method, and image processing system
JP6127585B2 (en) Image processing apparatus, image processing system, and image processing method
JP7321885B2 (en) Image processing device, image processing method, and program
JP2016051972A (en) Image processing apparatus, program, and printed matter reading method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180522

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180723

R151 Written notification of patent or utility model registration

Ref document number: 6384268

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151