JP2006268216A - Image processing to be implemented differently for face area and for normal area - Google Patents

Image processing to be implemented differently for face area and for normal area Download PDF

Info

Publication number
JP2006268216A
JP2006268216A JP2005083042A JP2005083042A JP2006268216A JP 2006268216 A JP2006268216 A JP 2006268216A JP 2005083042 A JP2005083042 A JP 2005083042A JP 2005083042 A JP2005083042 A JP 2005083042A JP 2006268216 A JP2006268216 A JP 2006268216A
Authority
JP
Japan
Prior art keywords
area
image data
color
profile
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005083042A
Other languages
Japanese (ja)
Inventor
Hiroyuki Tsuji
宏幸 辻
Original Assignee
Seiko Epson Corp
セイコーエプソン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp, セイコーエプソン株式会社 filed Critical Seiko Epson Corp
Priority to JP2005083042A priority Critical patent/JP2006268216A/en
Publication of JP2006268216A publication Critical patent/JP2006268216A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a technique for processing image data in such a way as to enhance the quality of the output results of a face included in an image. <P>SOLUTION: The range of a face area where a face exists within the image of the first image data is first determined. The first image data is converted into second image data. To convert the first image data of the normal area other than the face area, a profile for the normal area is used for conversion. To convert the first image data of the face area, a profile for the face area that is different from the profile for the normal area is used for conversion. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

この発明は、画像データの処理に関するものであり、さらに詳しくは、画像中に含まれる顔の画像の品質が高くなるような画像データの処理に関する。   The present invention relates to processing of image data, and more particularly to processing of image data so that the quality of a face image included in the image is improved.
従来より、印刷媒体上に画像を表現するために、レッド、グリーン、ブルーの各基準色の階調値で表現された画像データから、シアン、マゼンタ、イエロなどのインク色の階調値で表現された画像データを生成する、いわゆる色変換処理の技術が存在した。   Conventionally, in order to express an image on a print medium, it is expressed by gradation values of ink colors such as cyan, magenta and yellow from image data expressed by gradation values of red, green and blue reference colors. There has been a so-called color conversion processing technique for generating processed image data.
一方、特許文献1の技術は、画像中において人物の顔が存在する領域を特定するというものである。   On the other hand, the technique of Patent Document 1 specifies an area where a human face exists in an image.
特開2001−309225号公報JP 2001-309225 A
しかし、特許文献1の技術においては、ある画像データから表色系が異なる他の画像データを生成する際に、顔領域の画像の品質が高くなるように、データ処理を行うことについては考慮されていなかった。このような問題は、一般に、ある表色系で表現された画像データに基づいて、他の表色系で表現された画像データを生成する場合に、同様に存在する。   However, in the technique of Patent Document 1, when generating other image data having a different color system from certain image data, data processing is considered so as to improve the quality of the face area image. It wasn't. Such a problem generally exists when image data expressed in another color system is generated based on image data expressed in a certain color system.
本発明は、上記の課題を取り扱うためになされたものであり、ある画像データから表色系が異なる他の画像データを生成する際に、顔領域の画像の品質が高くなるように、データ処理を行う技術を提供することを目的とする。   The present invention has been made in order to deal with the above-described problems. When generating other image data having a different color system from certain image data, the data processing is performed so that the quality of the image in the face area is high. The purpose is to provide the technology to perform.
上記目的を達成するために、本発明は、第1の表色系の第1の画像データを、第1の表色系とは異なる第2の表色系の第2の画像データに変換する際に、以下のような処理を行う。まず、第1の画像データの画像中において顔が存在する顔領域の範囲を決定する。そして、第1の画像データを第2の画像データに変換する。   In order to achieve the above object, the present invention converts first image data of a first color system into second image data of a second color system different from the first color system. At this time, the following processing is performed. First, the range of the face area where the face exists in the image of the first image data is determined. Then, the first image data is converted into second image data.
顔領域以外の通常領域の第1の画像データの変換を行う際には、通常領域用プロファイルを使用して変換を行う。一方、顔領域の第1の画像データの変換を行う際には、通常領域用プロファイルとは異なる顔領域用プロファイルを使用して変換を行う。   When converting the first image data in the normal area other than the face area, the conversion is performed using the normal area profile. On the other hand, when converting the first image data of the face area, the conversion is performed using a face area profile different from the normal area profile.
このような態様とすれば、顔領域の特性にあった顔領域用プロファイルを用意することで、顔領域については、顔領域に適した変換を行うことができる。よって、顔領域の画像の品質が高くなるように、データ処理を行うことができる。   According to such an aspect, by preparing a face area profile that matches the characteristics of the face area, it is possible to perform conversion suitable for the face area. Therefore, data processing can be performed so that the quality of the image of the face area is improved.
なお、顔領域の範囲を決定する際には、第1の画像データの画像中の特徴点を抽出し、特徴点に基づいて顔領域の範囲を決定することが好ましい。そのような態様とすれば、色に基づいて顔領域の範囲を特定する態様に比べて、肌の色や光源の色の違いによって顔領域を特定する際の精度が低下しにくい。   When determining the range of the face area, it is preferable to extract feature points in the image of the first image data and determine the range of the face area based on the feature points. In such an aspect, compared with an aspect in which the range of the face area is specified based on the color, the accuracy in specifying the face area due to a difference in skin color or light source color is unlikely to decrease.
なお、顔領域用プロファイルは、顔領域用プロファイルが有する複数の入力値のうちで、顔領域内で最も頻度が高い色の近傍における入力値の間隔が、通常領域用プロファイルよりも狭く設定されていることが好ましい。   In the face area profile, among the input values of the face area profile, the interval between the input values in the vicinity of the most frequently used color in the face area is set to be narrower than that of the normal area profile. Preferably it is.
このような態様においては、顔領域の変換において高い頻度で使用される色の入力値については、その入力値に値が近い入力値が、顔領域用プロファイルに格納されていることになる。よって、変換の対象である入力値に近い顔領域用プロファイルの入力値を使用して、高精度な色変換を行うことができる。   In such an aspect, for color input values that are frequently used in face area conversion, input values that are close to the input values are stored in the face area profile. Therefore, highly accurate color conversion can be performed using the input value of the face area profile close to the input value to be converted.
なお、通常領域用プロファイルおよび顔領域用プロファイルは、第1の表色系の各基準色の階調値の組み合わせである第1の階調値セットと、第2の表色系の各基準色の階調値の組み合わせである第2の階調値セットと、を対応づけて、それぞれ複数組ずつ格納している参照用のデータとすることができる。   Note that the normal area profile and the face area profile include a first gradation value set that is a combination of gradation values of each reference color of the first color system and each reference color of the second color system. The second gradation value set, which is a combination of the gradation values, can be associated with each other and used as reference data stored in plural sets.
また、通常領域用プロファイルと顔領域用プロファイルとがそれぞれ有する入力値の数は、同じとすることができる。一方、顔領域用プロファイルが、通常領域用プロファイルよりも多くの入力値を有している態様とすることもできる。そのような態様とすれば、顔領域の変換において、格納している入力値が多い顔領域用プロファイルを参照できるため、通常領域に比べて高精度の画像処理を行うことができる。   The number of input values that each of the normal area profile and the face area profile has can be the same. On the other hand, the face area profile may have more input values than the normal area profile. According to such an aspect, in the face area conversion, the stored face area profile with a large number of input values can be referred to, so that it is possible to perform image processing with higher accuracy than in the normal area.
なお、顔領域用プロファイルは、顔領域用プロファイルが有する複数の入力値のうちで、顔領域内で最も頻度が高い色の近傍における入力値の間隔が、他の色の近傍における入力値の間隔よりも狭く設定されていることが好ましい。   Note that the face area profile is an interval between input values in the vicinity of the most frequently used color in the face area, among input values of the face area profile. It is preferable that it is set narrower.
このような態様においては、顔領域用プロファイルは、顔領域において多く使用される色の入力値の近傍に、他の色の入力値の範囲よりも入力値密に格納している。このため、顔領域において多く使用される入力値については、特に高精度の変換を行うことができる。   In such an aspect, the face area profile is stored in the vicinity of the input values of the colors often used in the face area more densely than the input values of the other colors. For this reason, it is possible to perform particularly high-precision conversion on input values that are frequently used in the face area.
なお、顔領域用プロファイルは、顔領域の色に基づいて、通常領域用プロファイルから、適応的に生成されることが好ましい。このような態様とすれば、個々の顔領域の画像データに適した顔領域用プロファイルを生成することができる。その結果、顔領域の画像処理をより高精度に行うことができる。   The face area profile is preferably generated adaptively from the normal area profile based on the color of the face area. With such an aspect, a face area profile suitable for the image data of each face area can be generated. As a result, face area image processing can be performed with higher accuracy.
また、第1の画像データの変換において、入力された入力値に対応する出力値を決定する際には、通常領域用プロファイルまたは顔領域用プロファイルを参照して、第1の方法で出力値を決定することができる。そして、顔領域用プロファイルの生成生成においては、顔領域用プロファイルが有すべき入力値に対応する出力値を決定する際には、通常領域用プロファイルを参照して、第1の方法よりも精度が高い第2の方法で出力値を決定することが好ましい。   In the conversion of the first image data, when determining the output value corresponding to the input value, the output value is determined by the first method with reference to the normal area profile or the face area profile. Can be determined. In generating and generating a face area profile, when determining an output value corresponding to an input value that the face area profile should have, the normal area profile is referred to and the accuracy is higher than that of the first method. It is preferable to determine the output value by the second method having a high value.
このような態様においては、画像データの変換に先だって、あらかじめ高精度な方法で顔領域用プロファイルが生成されている。このため、画像データの変換において、より精度の低い方法で出力値を決定しても、生成される画像データの画像の品質は高い。   In such an aspect, the face area profile is generated in advance by a highly accurate method prior to the conversion of the image data. For this reason, in the conversion of image data, even if the output value is determined by a less accurate method, the image quality of the generated image data is high.
なお、第1の画像データが、第1の表色系の複数の基準色の階調値で画像を表すデータであるときには、以下のような態様とすることが好ましい。すなわち、顔領域用プロファイルを生成する際には、まず、複数の基準色の複数の階調値について、顔領域の第1の画像データ中の頻度を計算する。そして、複数の基準色の頻度の合計値が高い階調値ほど近傍において顔領域用プロファイルが格納している入力値の間隔が狭くなるように、顔領域用プロファイルを生成する。このような態様とすれば、顔領域内で使用頻度が高い色の階調値について精度の高い画像処理が可能な顔領域用プロファイルを生成することができる。   When the first image data is data representing an image with gradation values of a plurality of reference colors in the first color system, it is preferable to adopt the following mode. That is, when generating the face area profile, first, the frequency in the first image data of the face area is calculated for a plurality of gradation values of a plurality of reference colors. Then, the face area profile is generated so that the interval between the input values stored in the face area profile is closer in the vicinity as the gradation value has a higher total value of the frequencies of the plurality of reference colors. With such an aspect, it is possible to generate a face area profile capable of high-accuracy image processing for tone values of colors that are frequently used in the face area.
また、画像中において複数の顔領域を決定することも好ましい。そのような態様においては、複数の顔領域にそれぞれ対応する複数の顔領域用プロファイルを生成することができる。そして、複数の顔領域をそれぞれ表す複数の第1のデータの変換を行う際には、複数の顔領域用プロファイルをそれぞれ使用することができる。このような態様とすれば、各顔領域に適した顔領域用プロファイルに基づいて画像処理を行うことができる。   It is also preferable to determine a plurality of face regions in the image. In such an aspect, a plurality of face area profiles respectively corresponding to a plurality of face areas can be generated. Then, when converting a plurality of pieces of first data representing a plurality of face areas, a plurality of face area profiles can be used. With such an aspect, image processing can be performed based on a face area profile suitable for each face area.
また、第1の画像データが、第1の表色系の複数の基準色の階調値で画像を表すデータであって、画像中において複数の顔領域が決定される態様においては、以下のような処理を行うこともできる。すなわち、顔領域用プロファイルを生成する際には、複数の基準色の複数の階調値について、複数の顔領域をそれぞれ表す複数の第1の画像データ中の頻度を計算する。そして、複数の顔領域についての複数の基準色の頻度の合計値が高い階調値ほど近傍における入力値の間隔が狭くなるように、顔領域用プロファイルを生成する。   In an aspect in which the first image data is data representing an image with gradation values of a plurality of reference colors of the first color system, and a plurality of face regions are determined in the image, Such processing can also be performed. That is, when generating the face area profile, the frequencies in the plurality of first image data respectively representing the plurality of face areas are calculated for the plurality of gradation values of the plurality of reference colors. Then, the face area profile is generated such that the interval between the input values in the vicinity becomes narrower as the gradation value has a higher total value of the frequencies of the plurality of reference colors for the plurality of face areas.
このような態様においては、生成される顔領域用プロファイルが一つであるため、参照されるデータの量を少なくすることができる。   In such an aspect, since only one face area profile is generated, the amount of referenced data can be reduced.
なお、本発明は、以下に示すような種々の態様で実現することが可能である。
(1)画像処理装置。印刷装置、印刷制御装置、印刷装置。印刷データ生成装置。
(2)画像処理方法。印刷方法、印刷制御方法。印刷データ生成方法。
(3)上記の装置や方法を実現するためのコンピュータプログラム。
(4)上記の装置や方法を実現するためのコンピュータプログラムを記録した記録媒体。
(5)上記の装置や方法を実現するためのコンピュータプログラムを含み搬送波内に具現化されたデータ信号。
Note that the present invention can be realized in various modes as described below.
(1) Image processing apparatus. Printing device, printing control device, printing device. Print data generation device.
(2) Image processing method. Printing method and printing control method. Print data generation method.
(3) A computer program for realizing the above apparatus and method.
(4) A recording medium on which a computer program for realizing the above apparatus and method is recorded.
(5) A data signal embodied in a carrier wave including a computer program for realizing the above-described apparatus and method.
次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
A1.装置構成:
A2.各モジュールにおける処理:
B.第2実施例:
C.変形例:
Next, embodiments of the present invention will be described in the following order based on examples.
A. First embodiment:
A1. Device configuration:
A2. Processing in each module:
B. Second embodiment:
C. Variations:
A.第1実施例:
A1.装置構成:
図1は第1実施例の印刷システムのソフトウェアの構成を示すブロック図である。コンピュータ90では、所定のオペレーティングシステムの下で、アプリケーションプログラム95が動作している。オペレーティングシステムには、ビデオドライバ91やプリンタドライバ96が組み込まれており、アプリケーションプログラム95からはこれらのドライバを介してプリンタ22に転送するための初期画像データPIDが出力されることになる。画像のレタッチなどを行うアプリケーションプログラム95は、CD−R140から画像を読み込み、これに対して所定の処理を行いつつビデオドライバ91を介してCRTディスプレイ21に画像を表示している。CD−R140から供給されるデータORGは、レッド(R),グリーン(G),ブルー(B)の3色の色成分からなる原カラー画像データORGである。
A. First embodiment:
A1. Device configuration:
FIG. 1 is a block diagram illustrating a software configuration of the printing system according to the first embodiment. In the computer 90, an application program 95 operates under a predetermined operating system. A video driver 91 and a printer driver 96 are incorporated in the operating system, and initial image data PID to be transferred to the printer 22 is output from the application program 95 via these drivers. An application program 95 for performing image retouching reads an image from the CD-R 140 and displays the image on the CRT display 21 via the video driver 91 while performing predetermined processing on the image. Data ORG supplied from the CD-R 140 is original color image data ORG composed of three color components of red (R), green (G), and blue (B).
マウス130やキーボード120からユーザの指示が入力され、アプリケーションプログラム95が印刷命令を発すると、コンピュータ90のプリンタドライバ96が初期画像データPIDをアプリケーションプログラム95から受け取り、これをプリンタ22が処理可能な印刷画像データFNL(ここではシアン、ライトシアン、マゼンダ、ライトマゼンタ、イエロー、ブラックの各色についての多値化された信号)に変換する。   When a user instruction is input from the mouse 130 or the keyboard 120 and the application program 95 issues a print command, the printer driver 96 of the computer 90 receives the initial image data PID from the application program 95 and prints that can be processed by the printer 22. It is converted into image data FNL (here, multivalued signals for each color of cyan, light cyan, magenta, light magenta, yellow, and black).
図1に示した例では、プリンタドライバ96の内部には、顔認識モジュール101と、解像度変換モジュール97と、色変換モジュール98と、ハーフトーンモジュール99と、並べ替えモジュール100と、が備えられている。プリンタドライバ96の内部には、さらに、通常色変換テーブル104sと、LUT生成モジュール103と、通常ドット分配テーブル105sと、分配テーブル生成モジュール106と、が備えられている。   In the example shown in FIG. 1, the printer driver 96 includes a face recognition module 101, a resolution conversion module 97, a color conversion module 98, a halftone module 99, and a rearrangement module 100. Yes. The printer driver 96 further includes a normal color conversion table 104s, an LUT generation module 103, a normal dot distribution table 105s, and a distribution table generation module 106.
顔認識モジュール101は、アプリケーションプログラム95から受け取った初期画像データPIDの画像の中で人間の顔が存在する部分を特定する。そして、その情報を色変換モジュール98と、ハーフトーンモジュール99と、に送る。   The face recognition module 101 specifies a portion where a human face exists in the image of the initial image data PID received from the application program 95. Then, the information is sent to the color conversion module 98 and the halftone module 99.
解像度変換モジュール97は、アプリケーションプログラム95が扱っている初期画像データPIDの解像度を、印刷の際の解像度に変換する。こうして解像度変換された画像データMID1はまだRGBの3色からなる画像情報である。   The resolution conversion module 97 converts the resolution of the initial image data PID handled by the application program 95 into the resolution at the time of printing. The resolution-converted image data MID1 is still image information composed of three colors of RGB.
LUT生成モジュール103は、初期画像データPID中に顔領域が存在する場合に、通常色変換テーブル104sに基づいて、顔用色変換テーブル104fを生成する。図1において、顔用色変換テーブル104fを破線で示す。   The LUT generation module 103 generates a face color conversion table 104f based on the normal color conversion table 104s when a face area exists in the initial image data PID. In FIG. 1, the face color conversion table 104f is indicated by a broken line.
色変換モジュール98は、RGBの階調値で各画素の色が現されている画像データMID1を、プリンタ22が使用するシアン(C)、ライトシアン(LC)、マゼンダ(M)、ライトマゼンタ(LM)、イエロー(Y)、ブラック(K)の階調値で各画素の色が表された画像データMID2に変換する。色変換モジュール98は、画像データMID1の画像中の顔領域を表すデータを変換する際には、顔用色変換テーブル104fを参照して、画像データMID2を生成する。また、画像データMID1の画像中の他の領域を表すデータを変換する際には、通常色変換テーブル104sを参照して画像データMID2を生成する。こうして色変換された画像データMID2は例えばC、LC、M、LM、Y、Kの各色について256階調等の幅で階調値を有している。この色変換モジュール98と解像度変換モジュール97とが、特許請求の範囲にいう「色変換部」に相当する。   The color conversion module 98 converts image data MID1 in which the color of each pixel is expressed with RGB gradation values into cyan (C), light cyan (LC), magenta (M), and light magenta (LM) used by the printer 22. ), Yellow (Y), and black (K) gradation values, and converted into image data MID2 in which the color of each pixel is represented. The color conversion module 98 generates image data MID2 with reference to the face color conversion table 104f when converting the data representing the face area in the image of the image data MID1. Further, when converting data representing another region in the image of the image data MID1, the image data MID2 is generated with reference to the normal color conversion table 104s. The color-converted image data MID2 has gradation values with a width such as 256 gradations for each color of C, LC, M, LM, Y, and K, for example. The color conversion module 98 and the resolution conversion module 97 correspond to a “color conversion unit” in the claims.
分配テーブル生成モジュール106は、初期画像データPID中に顔領域が存在する場合に、通常ドット分配テーブル105sに基づいて、顔用ドット分配テーブル105fを生成する。図1において、顔用ドット分配テーブル105fを破線で示す。   The distribution table generation module 106 generates a face dot distribution table 105f based on the normal dot distribution table 105s when a face area exists in the initial image data PID. In FIG. 1, the face dot distribution table 105f is indicated by a broken line.
ハーフトーンモジュール99は、画像データMID2中の各画素のC、LC、M、LM、Y、Kの各色の階調値を、各色の大ドット、中ドット、小ドットの記録率に変換する。その際、ハーフトーンモジュール99は、画像データMID2の画像中の顔領域を表すデータについては顔用ドット分配テーブル105fを参照して記録率を決定する。そして、画像データMID2の画像中の他の領域を表すデータについては通常ドット分配テーブル105sを参照する。   The halftone module 99 converts the gradation values of the C, LC, M, LM, Y, and K colors of each pixel in the image data MID2 into the recording rates of large dots, medium dots, and small dots for each color. At this time, the halftone module 99 determines the recording rate with reference to the face dot distribution table 105f for the data representing the face area in the image of the image data MID2. The normal dot distribution table 105s is referred to for data representing other areas in the image of the image data MID2.
その後、ハーフトーンモジュール99は、C、LC、M、LM、Y、Kの各色の大中小のドットの記録率で表されたデータに対して、ディザマトリクスDMまたは誤差拡散マトリクスEDMを使用して、各画素における大中小ドットの記録または不記録の決定を行う(図1参照)。その結果、各画素の各色の濃度が各色の階調値で表された画像データMID2は、各色の濃度が各画素における大中小のドットの有無で表される画像データMID3(「印刷データ」または「ドットデータ」とも呼ぶ)に変換される。なお、ディザマトリクスDMおよび誤差拡散マトリクスEDMは、コンピュータ90のメモリ内に格納されている。   After that, the halftone module 99 uses the dither matrix DM or the error diffusion matrix EDM for the data represented by the recording rates of large, medium, and small dots of each color of C, LC, M, LM, Y, and K. The recording of large / medium / small dots in each pixel is determined (see FIG. 1). As a result, the image data MID2 in which the density of each color of each pixel is represented by the gradation value of each color is the image data MID3 ("print data" or the density of each color is represented by the presence or absence of large, medium, and small dots in each pixel. (Also called “dot data”). The dither matrix DM and the error diffusion matrix EDM are stored in the memory of the computer 90.
こうして生成された画像データMID3は、並べ替えモジュール100によりプリンタ22に転送すべきデータ順に並べ替えられて、最終的な印刷画像データFNLとして出力される。プリンタ22は、印刷画像データFNLを受け取って印刷を実行する。   The image data MID3 generated in this way is rearranged in the order of data to be transferred to the printer 22 by the rearrangement module 100, and is output as final print image data FNL. The printer 22 receives the print image data FNL and executes printing.
プリンタ22は、紙送りモータによって用紙Pを搬送する機構と、キャリッジモータによってキャリッジ31を用紙Pの搬送方向SSと垂直な方向MSに往復動させる機構と、キャリッジ31に搭載されインクの吐出およびドットの形成を行う印刷ヘッド28と、各種の設定データを格納しているP−ROM42と、これらの紙送りモータ,キャリッジモータ,印刷ヘッド28、P−ROM42および操作パネル32を制御するCPU41とから構成されている。なお、本明細書においては、「印刷装置」とは、狭義にはプリンタ22のみをさすが、広義にはコンピュータ90とプリンタ22とを含む印刷システム全体を表す。   The printer 22 includes a mechanism for transporting the paper P by a paper feed motor, a mechanism for reciprocating the carriage 31 in a direction MS perpendicular to the transport direction SS of the paper P by a carriage motor, and ink ejection and dots mounted on the carriage 31. And a P-ROM 42 that stores various setting data, and a CPU 41 that controls the paper feed motor, carriage motor, print head 28, P-ROM 42, and operation panel 32. Has been. In the present specification, the “printing apparatus” refers only to the printer 22 in a narrow sense, but represents the entire printing system including the computer 90 and the printer 22 in a broad sense.
印刷ヘッド28上には、複数のインクを吐出するための複数のノズル列が設けられている(図示省略)。印刷ヘッド28は、これらの各ノズルから、互いに量が異なる3種類のインク滴を吐出することができる。そして、印刷ヘッド28は、3種類のインク滴をそれぞれ印刷用紙上に着弾させることによって、各インク色について印刷用紙上に大中小の3種類の大きさのドットを形成することができる。   A plurality of nozzle rows for ejecting a plurality of inks are provided on the print head 28 (not shown). The print head 28 can eject three types of ink droplets having different amounts from each of these nozzles. The print head 28 can form three types of large, medium, and small dots on the print paper for each ink color by landing the three types of ink droplets on the print paper.
A2.各モジュールにおける処理:
(1)顔認識処理:
図2は、初期画像データPID中の顔領域Afを示す図である。顔認識モジュール101は、アプリケーションプログラム95から受け取った初期画像データPIDの画像の中で人間の顔が存在する部分を特定する。
A2. Processing in each module:
(1) Face recognition processing:
FIG. 2 is a diagram showing the face area Af in the initial image data PID. The face recognition module 101 specifies a portion where a human face exists in the image of the initial image data PID received from the application program 95.
より具体的には、顔認識モジュール101は、初期画像データPIDの画像から特徴点pcを抽出する。そして、予め用意したテンプレートを特徴点抽出画像に対して平行移動、拡大・縮小、および回転させて、特徴点抽出画像の各部分とテンプレートとの類似度を計算する。類似度が所定のしきい値を越える部分があった場合には、その部分を含む所定の領域を、「顔領域」と判定する。一方、顔領域以外の領域は、「通常領域」と判定される。   More specifically, the face recognition module 101 extracts feature points pc from the image of the initial image data PID. Then, the template prepared in advance is translated, enlarged / reduced, and rotated with respect to the feature point extraction image, and the similarity between each part of the feature point extraction image and the template is calculated. If there is a part where the degree of similarity exceeds a predetermined threshold, the predetermined area including the part is determined as a “face area”. On the other hand, an area other than the face area is determined as a “normal area”.
画像中の各領域が顔領域Afであるか通常領域Asであるかの情報は、色変換モジュール98およびハーフトーンモジュール99に伝えられる(図1参照)。また、画像中に顔領域が存在するか否かの情報は、LUT生成モジュール103と、分配テーブル生成モジュール106に伝えられる。   Information about whether each area in the image is the face area Af or the normal area As is transmitted to the color conversion module 98 and the halftone module 99 (see FIG. 1). Information about whether or not a face area exists in the image is transmitted to the LUT generation module 103 and the distribution table generation module 106.
初期画像データPIDから生成される画像データMID1〜3においても、各画像データが表す画像において顔領域が占める位置は、図2に示した初期画像データPIDの場合と同じである。よって、以下では、初期画像データPIDと、画像データMID1〜3と、を区別することなく、顔領域Af、通常領域Asの用語を用いる。   Also in the image data MID1 to MID3 generated from the initial image data PID, the position occupied by the face area in the image represented by each image data is the same as in the case of the initial image data PID shown in FIG. Therefore, hereinafter, the terms of the face area Af and the normal area As are used without distinguishing between the initial image data PID and the image data MID1 to MID3.
上記のように顔領域を特定することによって、顔認識モジュール101は、人種や光源などによって変化しうる画像の色に左右されずに、顔領域を特定することができる。また、そのために、上記のような手法で特徴点に基づいて特定され顔領域は、個々の顔領域ごとに色の傾向が大きく異なっている可能性がある。よって、以下で説明するように、顔領域を表す画像データに基づいて適応的に顔用色変換テーブル104fを生成し、色変換処理において使用することは、特徴点に基づいて顔領域が特定される場合に特に有効である。なお、「適応的に」とは、個々の画像データに応じて、という意味である。   By specifying the face area as described above, the face recognition module 101 can specify the face area without being influenced by the color of the image that can change depending on the race or the light source. For this reason, the face areas identified based on the feature points by the above-described method may have greatly different color trends for each face area. Therefore, as described below, the face color conversion table 104f is adaptively generated based on the image data representing the face area and used in the color conversion process. The face area is specified based on the feature points. This is particularly effective when “Adaptively” means according to individual image data.
(2)通常色変換テーブル104sと顔用色変換テーブル104f:
図3は、通常色変換テーブル104sを表す図である。通常色変換テーブル104sは、レッド、グリーン、ブルーの階調値の組み合わせ(Vr,Vb,Vg)と、シアン、ライトシアン、マゼンダ、ライトマゼンタ、イエロー、ブラックの階調値の組み合わせ(Vc,Vlc,Vm,Vlm,Vy,Vk)と、を対応づけて格納している。破線は、通常色変換テーブル104sに格納されているレッド、グリーン、ブルーの入力階調値(以下、「サンプル階調値」という)を表している。
(2) Normal color conversion table 104s and face color conversion table 104f:
FIG. 3 is a diagram illustrating the normal color conversion table 104s. The normal color conversion table 104s includes a combination of gradation values of red, green, and blue (Vr, Vb, Vg) and a combination of gradation values of cyan, light cyan, magenta, light magenta, yellow, and black (Vc, Vlc, Vm, Vlm, Vy, Vk) are stored in association with each other. A broken line represents input gradation values (hereinafter referred to as “sample gradation values”) of red, green, and blue stored in the normal color conversion table 104s.
サンプル階調値は、レッド、グリーン、ブルーそれぞれについて31個存在する。図3では、サンプル階調値を表す破線は模式的に均等の幅で記載されているが、実際には、通常色変換テーブル104sが格納しているレッド、グリーン、ブルーの階調値の幅は均等ではない。通常色変換テーブル104sのサンプル階調値は、一般の多くの画像の印刷結果の品質が高くなるように設定されている。   There are 31 sample gradation values for each of red, green, and blue. In FIG. 3, the broken lines representing the sample gradation values are schematically illustrated with uniform widths. However, in practice, the widths of the gradation values of red, green, and blue stored in the normal color conversion table 104s Are not even. The sample gradation values of the normal color conversion table 104s are set so that the quality of the print results of many general images is high.
図4は、顔用色変換テーブル104fを表す図である。顔用色変換テーブル104fも、通常色変換テーブル104sと同様に、レッド、グリーン、ブルーの階調値の組み合わせ(Vr,Vb,Vg)と、シアン、ライトシアン、マゼンダ、ライトマゼンタ、イエロー、ブラックの階調値の組み合わせ(Vc,Vlc,Vm,Vlm,Vy,Vk)と、を対応づけて、格納している。図4において、破線は、顔用色変換テーブル104fに格納されているサンプル階調値を表している。顔用色変換テーブル104fにおいても、サンプル階調値は、レッド、グリーン、ブルーそれぞれについて31個存在する。   FIG. 4 is a diagram illustrating the face color conversion table 104f. Similarly to the normal color conversion table 104s, the face color conversion table 104f also includes combinations of red, green, and blue tone values (Vr, Vb, Vg), cyan, light cyan, magenta, light magenta, yellow, and black. A combination of gradation values (Vc, Vlc, Vm, Vlm, Vy, Vk) is stored in association with each other. In FIG. 4, a broken line represents the sample gradation value stored in the face color conversion table 104f. Also in the face color conversion table 104f, there are 31 sample gradation values for each of red, green, and blue.
顔用色変換テーブル104fは、次のような性質を備えたルックアップテーブルである。すなわち、顔用色変換テーブル104fは、格納している複数のサンプル階調値のうちで、顔領域Af内で最も頻度が高い色の近傍におけるサンプル階調値の間隔が、他の色の近傍におけるサンプル階調値の間隔よりも狭く設定されている(図4中の範囲R1参照)。   The face color conversion table 104f is a lookup table having the following properties. That is, the face color conversion table 104f has a sample tone value interval in the vicinity of the most frequently used color in the face area Af among the plurality of stored sample tone values. Is set to be narrower than the interval of the sample gradation values (see range R1 in FIG. 4).
また、顔用色変換テーブル104fは、格納している複数のサンプル階調値のうちで、顔領域Af内で最も頻度が高い色の近傍(図3中の範囲R1参照)におけるサンプル階調値の間隔が、通常色変換テーブル104s(図4中の範囲R1参照)よりも狭く設定されている。   Also, the face color conversion table 104f includes sample tone values in the vicinity of the most frequently used color in the face area Af (see range R1 in FIG. 3) among the plurality of stored sample tone values. Is set narrower than the normal color conversion table 104s (see range R1 in FIG. 4).
LUT生成モジュール103(図1参照)は、初期画像データPID中に顔領域が存在する場合に、通常色変換テーブル104sに基づいて顔用色変換テーブル104fを生成する。このため、初期画像データPID中に顔領域が存在しない場合には、コンピュータ90のRAMの領域の一部を顔用色変換テーブル104fが占有することがない。また、あらかじめ顔用色変換テーブル104fを保持している態様とは異なり、顔領域についての処理を行わない状態においてコンピュータ90のハードディスクを顔用色変換テーブル104fで占有することもない。すなわち、上記のような態様とすれば、データ処理に必要となる記憶媒体の量を少なくすることができる。   The LUT generation module 103 (see FIG. 1) generates a face color conversion table 104f based on the normal color conversion table 104s when a face area exists in the initial image data PID. Therefore, when there is no face area in the initial image data PID, the face color conversion table 104f does not occupy a part of the RAM area of the computer 90. Further, unlike the aspect in which the face color conversion table 104f is held in advance, the face color conversion table 104f does not occupy the hard disk of the computer 90 in a state where the process for the face area is not performed. That is, with the above-described aspect, the amount of storage medium required for data processing can be reduced.
図5は、顔用色変換テーブル104fを生成する手順を示すフローチャートである。ステップS110では、LUT生成モジュール103は、顔領域Afのデータ中の各画素におけるレッド、グリーン、ブルーの頻度N(vr)、N(vg)、N(vb)を計算する。   FIG. 5 is a flowchart showing a procedure for generating the face color conversion table 104f. In step S110, the LUT generation module 103 calculates red, green, and blue frequencies N (vr), N (vg), and N (vb) for each pixel in the data of the face area Af.
図6は、顔領域Afのデータ中の各画素におけるレッドの階調値Vr(0〜255)の頻度N(vr)を表すヒストグラムである。図7は、顔領域Afのデータ中の各画素におけるグリーンの階調値Vg(0〜255)の頻度N(vg)を表すヒストグラムである。図8は、顔領域Afのデータ中の各画素におけるレッドの階調値Vb(0〜255)の頻度N(vb)を表すヒストグラムである。なお、図6〜図8の各図の各ヒストグラムの形状は、実際のデータの値を反映するものではない。   FIG. 6 is a histogram showing the frequency N (vr) of the red gradation value Vr (0 to 255) in each pixel in the data of the face area Af. FIG. 7 is a histogram showing the frequency N (vg) of the green gradation value Vg (0 to 255) in each pixel in the data of the face area Af. FIG. 8 is a histogram showing the frequency N (vb) of the red gradation value Vb (0 to 255) in each pixel in the data of the face area Af. It should be noted that the shape of each histogram in each of FIGS. 6 to 8 does not reflect actual data values.
図9は、顔領域Afのデータ中のレッド、グリーン、ブルーの合計の頻度SN(v)を表すヒストグラムである。LUT生成モジュール103は、その後、ステップS120で、同じ階調値ごとにレッドの頻度N(vr)と、グリーンの頻度N(vg)と、ブルーの頻度N(vb)と、を合計して、合計の頻度SN(v)を求める。そして、最も合計の頻度SN(v)が高い最多階調値Vpを求める。最多階調値Vpの頻度をSNmaxとする。なお、合計の頻度SN(v)に付された(v)は、SNがインク色の階調値に応じて定められる数であることを示す。   FIG. 9 is a histogram showing the total frequency SN (v) of red, green, and blue in the data of the face area Af. In step S120, the LUT generation module 103 then sums the red frequency N (vr), the green frequency N (vg), and the blue frequency N (vb) for each same gradation value, The total frequency SN (v) is obtained. Then, the most frequent gradation value Vp having the highest total frequency SN (v) is obtained. The frequency of the most frequent gradation value Vp is assumed to be SNmax. Note that (v) added to the total frequency SN (v) indicates that SN is a number determined according to the gradation value of the ink color.
なお、図6〜図9において、Vrpは、レッドの階調値のうち顔領域Afにおいて最も頻度が高い階調値である。Vgpは、グリーンの階調値のうち顔領域Afにおいて最も頻度が高い階調値である。Vbpは、ブルーの階調値のうち顔領域Afにおいて最も頻度が高い階調値である。この例では、Vgpは、最多階調値Vpと一致している(図9参照)。   In FIGS. 6 to 9, Vrp is a gradation value having the highest frequency in the face area Af among the gradation values of red. Vgp is a tone value having the highest frequency in the face area Af among the green tone values. Vbp is the most frequent gradation value in the face area Af among the blue gradation values. In this example, Vgp matches the most frequent gradation value Vp (see FIG. 9).
ステップS130では、LUT生成モジュール103は、顔用色変換テーブル104fが保持するサンプル階調値を定める。具体的には、まず、下記の式(1)にしたがって、各階調値の頻度SN(v)と(SNmax+1)との差D(v)を求める。   In step S130, the LUT generation module 103 determines sample gradation values held by the face color conversion table 104f. Specifically, first, a difference D (v) between the frequency SN (v) and (SNmax + 1) of each gradation value is obtained according to the following equation (1).
D(v)=(SNmax+1)−SN(v) ・・・ (1)   D (v) = (SNmax + 1) −SN (v) (1)
図10は、各階調値の頻度SN(v)と(SNmax+1)との差D(v)を表すヒストグラムである。式(1)より、最多階調値VpのD(v)は、すべての階調値のD(v)の中で最小となり、1である。   FIG. 10 is a histogram showing the difference D (v) between the frequency SN (v) and (SNmax + 1) of each gradation value. From Expression (1), D (v) of the most frequent gradation value Vp is the smallest among D (v) of all gradation values, and is 1.
上記のようにして、0〜255までの各階調値に対するD(v)が得られると、LUT生成モジュール103は、D(v)を、vの小さい順に端から8個ずつグループ化する。そのようにしてD(v)のグループを32個作り、各グループのD(v)の合計値であるSD(i)を求める(i=1〜32)。なお、グループの数は、決定しようとするサンプル階調値の数よりも1多い数である。   As described above, when D (v) is obtained for each gradation value from 0 to 255, the LUT generation module 103 groups D (v) from the end in a descending order of v by eight. In this way, 32 groups of D (v) are created, and SD (i) which is the total value of D (v) of each group is obtained (i = 1 to 32). Note that the number of groups is one more than the number of sample gradation values to be determined.
図11は、31個のサンプル階調値Vs(1)〜Vs(31)とSD(i)の関係を示す図である。なお、引き出し線を付されて示されるSD(1),SD(i),SD(32)は、SD(i)とVs(i)の対応関係を示すものであり、引き出し線の先の間隔がそれぞれSD(1),SD(i),SD(32)であることを示すものではない。LUT生成モジュール103は、以下の式(2)に基づいて、SD(i)からサンプル階調値Vs(i)を求める。ここで、Vmaxは階調値の最大値であり、255である。   FIG. 11 is a diagram showing the relationship between 31 sample gradation values Vs (1) to Vs (31) and SD (i). Note that SD (1), SD (i), and SD (32) shown with leader lines indicate the correspondence between SD (i) and Vs (i), and the distance between the leader lines. Does not indicate that SD (1), SD (i), and SD (32), respectively. The LUT generation module 103 obtains the sample gradation value Vs (i) from SD (i) based on the following equation (2). Here, Vmax is the maximum value of the gradation value and is 255.
式(2)に基づいてサンプル階調値Vs(i)を定めるにあたって、1以下の少数は適宜調整される。式(2)に基づいてサンプル階調値Vs(i)を定めると、サンプル階調値同士の間隔[Vs(i)−Vs(i−1)]は、Vmax×SD(i)/ΣSDと一致することとなる。ここで、ΣSDは、SD(k)のk=1〜32の合計値である。   In determining the sample gradation value Vs (i) based on the equation (2), a decimal number of 1 or less is appropriately adjusted. When the sample gradation value Vs (i) is determined based on the equation (2), the interval [Vs (i) −Vs (i−1)] between the sample gradation values is Vmax × SD (i) / ΣSD. Will match. Here, ΣSD is the total value of SD = 1 (k) where k = 1 to 32.
このようにサンプル階調値Vs(i)を定めることとすれば、図11に示されるように、最多階調値Vpの近傍の範囲R1に、同じ幅を有する階調値0の近傍の範囲R2、および階調値255の近傍の範囲R3よりも多数のサンプル階調値が存在するように、サンプル階調値Vs(i)を定めることができる。   If the sample gradation value Vs (i) is determined in this way, as shown in FIG. 11, the range near the gradation value 0 having the same width in the range R1 near the most frequent gradation value Vp. The sample gradation value Vs (i) can be determined so that there are more sample gradation values than R2 and the range R3 in the vicinity of the gradation value 255.
なお、図11には、レッド、グリーン、ブルーの階調値のうちそれぞれ最も頻度が高い階調値Vrp,Vgp,Vbpを示している。図11からも分かるように、Vrp,Vgp,Vbpの近傍の範囲R1には、同じ幅を有する階調値0の近傍の範囲R2、階調値255の近傍の範囲R3よりも多数のサンプル階調値が存在する。   FIG. 11 shows the tone values Vrp, Vgp, and Vbp having the highest frequency among the tone values of red, green, and blue. As can be seen from FIG. 11, the range R1 in the vicinity of Vrp, Vgp, and Vbp has more sample levels than the range R2 in the vicinity of the gradation value 0 and the range R3 in the vicinity of the gradation value 255 having the same width. A key value exists.
また、上記の範囲R1を図3および図4に示している。上記のように、サンプル階調値の総数を変えずに、最多階調値Vpの近傍に多数のサンプル階調値を決定することで、最多階調値Vpの近傍の所定の範囲R1内のサンプル階調値の数が通常色変換テーブル104sよりも多い顔用色変換テーブル104fを生成することができる。   The range R1 is shown in FIGS. As described above, by determining a large number of sample gradation values in the vicinity of the most frequent gradation value Vp without changing the total number of sample gradation values, the number of sample gradation values is within the predetermined range R1 in the vicinity of the most frequent gradation value Vp. It is possible to generate a face color conversion table 104f having more sample tone values than the normal color conversion table 104s.
このようにしてサンプル階調値が決定された顔用色変換テーブル104fは、実質的に次のような性質を備える。すなわち、顔用色変換テーブル104fは、顔領域Af内で最も頻度が高い色の近傍におけるサンプル階調値の間隔が、他の色の近傍におけるサンプル階調値の間隔よりも狭い。そして、顔用色変換テーブル104fは、顔領域Af内で最も頻度が高い色の近傍におけるサンプル階調値の間隔が、通常色変換テーブル104sよりも狭い。   The face color conversion table 104f for which the sample tone value has been determined in this way has substantially the following properties. That is, in the face color conversion table 104f, the interval of the sample gradation values in the vicinity of the most frequently used color in the face area Af is narrower than the interval of the sample gradation values in the vicinity of the other colors. In the face color conversion table 104f, the interval between sample tone values in the vicinity of the most frequently used color in the face area Af is narrower than that in the normal color conversion table 104s.
その後、LUT生成モジュール103は、図5のステップS140で、通常色変換テーブル104sが格納している出力階調値に基づいて、顔用色変換テーブル104fのサンプル階調値の組み合わせに対する出力階調値を計算する。   Thereafter, in step S140 of FIG. 5, the LUT generation module 103 outputs the output gradation for the combination of the sample gradation values of the face color conversion table 104f based on the output gradation values stored in the normal color conversion table 104s. Calculate the value.
図12は、通常色変換テーブル104sが格納している出力階調値に基づいて、顔用色変換テーブル104fのサンプル階調値の組み合わせに対する出力階調値を計算する方法を示す図である。顔用色変換テーブル104fのサンプル階調値の組み合わせに対する出力階調値は、四面体補間により計算される。   FIG. 12 is a diagram illustrating a method for calculating an output gradation value for a combination of sample gradation values in the face color conversion table 104f based on the output gradation values stored in the normal color conversion table 104s. The output tone value for the combination of sample tone values in the face color conversion table 104f is calculated by tetrahedral interpolation.
レッド、グリーン、ブルーの入力階調値によって構成される3次元空間における、出力階調値を計算しようとするサンプル階調値の組み合わせに対応する点を、対象グリッドGtとする。対象グリッドGtの出力階調値を計算する際には、まず、通常色変換テーブル104sが有するサンプル階調値の組み合わせのグリッドの中で、対象グリッドGtに最も近いグリッドを求める。図12では、グリッドG5である。そして、グリッドG5とともに対象グリッドGtを内部に含む最も小さい四面体を構成する他の3個のグリッドを特定する。ここでは、グリッドG1,G6,G8である。   A point corresponding to a combination of sample gradation values for which an output gradation value is to be calculated in a three-dimensional space constituted by red, green, and blue input gradation values is defined as a target grid Gt. When calculating the output gradation value of the target grid Gt, first, the grid closest to the target grid Gt is obtained from the combination of sample gradation values of the normal color conversion table 104s. In FIG. 12, it is a grid G5. And the other three grids which comprise the smallest tetrahedron which contains the object grid Gt inside with the grid G5 are specified. Here, the grids G1, G6, and G8.
対象グリッドGtの出力階調値は、グリッドG1,G5,G6,G8がそれぞれ有する出力階調値の重み付け和によって得られる。あるグリッドの出力階調値に付される重みは、「対象グリッドGtを挟んでそのグリッドの反対側にある四面体の堆積」を「グリッドGt,G1,G6,G8が構成する正四面体の堆積」で割った値である。たとえば、グリッドG5の出力階調値に付される重みは、(グリッドGt,G1,G6,G8が構成する正四面体の堆積)/(グリッドGt,G1,G6,G8が構成する正四面体の堆積)である。   The output gradation value of the target grid Gt is obtained by the weighted sum of the output gradation values that the grids G1, G5, G6, and G8 have. The weight assigned to the output gradation value of a certain grid is “the accumulation of tetrahedrons on the opposite side of the grid across the target grid Gt” and “the tetrahedron of grids Gt, G1, G6, G8”. Divided by “deposition”. For example, the weight given to the output gradation value of the grid G5 is (deposition of regular tetrahedrons constituted by the grids Gt, G1, G6, G8) / (regular tetrahedron constituted by the grids Gt, G1, G6, G8) (Deposition).
以上のようにして、サンプル階調値の組み合わせと、それに対応する出力階調値の組み合わせと、が計算され、顔用色変換テーブル104fが生成される。   As described above, the combination of the sample gradation values and the combination of the output gradation values corresponding thereto are calculated, and the face color conversion table 104f is generated.
LUT生成モジュール103(図1参照)は、初期画像データPIDの顔領域のデータに基づいて、顔用色変換テーブル104fを生成する。このため、顔用色変換テーブル104fは、処理の対象とするデータの特性を反映して生成される(図6〜図11参照)。よって、本実施例の印刷システムによれば、一般的に顔の画像処理に適するように生成された顔用色変換テーブルが予め用意されている態様に比べて、処理対象である個々の顔領域の印刷結果の品質が高くなるように、画像処理を行うことができる。   The LUT generation module 103 (see FIG. 1) generates the face color conversion table 104f based on the face area data of the initial image data PID. Therefore, the face color conversion table 104f is generated by reflecting the characteristics of the data to be processed (see FIGS. 6 to 11). Therefore, according to the printing system of the present embodiment, the individual face areas to be processed are compared with the aspect in which the face color conversion table generally generated so as to be suitable for face image processing is prepared in advance. The image processing can be performed so that the quality of the printing result is improved.
(3)色変換処理:
色変換モジュール98は、RGBの階調値で各画素の色が現されている画像データMID1を、シアン(C)、ライトシアン(LC)、マゼンダ(M)、ライトマゼンタ(LM)、イエロー(Y)、ブラック(K)の階調値で各画素の色が表された画像データMID2に変換する。
(3) Color conversion processing:
The color conversion module 98 converts image data MID1 in which the color of each pixel is expressed with RGB gradation values into cyan (C), light cyan (LC), magenta (M), light magenta (LM), yellow (Y ), And converted to image data MID2 in which the color of each pixel is represented by the gradation value of black (K).
前述のとおり、通常色変換テーブル104sおよび顔用色変換テーブル104fは、レッド、グリーン、ブルーの0〜255までの階調値のすべての組み合わせについて出力階調値を有しているわけではない。すなわち、通常色変換テーブル104sおよび顔用色変換テーブル104fは、レッド、グリーン、ブルーそれぞれ31個の階調値の組み合わせについて出力階調値を有している。このため、色変換モジュール98は、参照している色変換テーブルが出力階調値を有していない入力階調値の組み合わせについて、色変換を行う際には、以下のような処理を行う。なお、以下の処理は、通常色変換テーブル104sを参照する場合も、顔用色変換テーブル104fを参照する場合も同様である。よって、以下では、通常色変換テーブル104sと顔用色変換テーブル104fとをまとめて「色変換テーブル」と記載する。   As described above, the normal color conversion table 104s and the face color conversion table 104f do not have output gradation values for all combinations of gradation values from 0 to 255 of red, green, and blue. That is, the normal color conversion table 104s and the face color conversion table 104f have output gradation values for combinations of 31 gradation values for red, green, and blue. For this reason, the color conversion module 98 performs the following processing when performing color conversion for a combination of input gradation values whose reference color conversion table does not have an output gradation value. The following processing is the same when referring to the normal color conversion table 104s and when referring to the face color conversion table 104f. Therefore, hereinafter, the normal color conversion table 104s and the face color conversion table 104f are collectively referred to as a “color conversion table”.
図13は、色変換モジュール98が出力階調値を決定する際の方法を示す説明図である。レッド、グリーン、ブルーのある入力階調値の組み合わせ(Vrt,Vgt,Vbt)から出力階調値を得る場合を考える。レッド、グリーン、ブルーの入力階調値によって構成される3次元空間における、サンプル階調値の組み合わせ(Vrt,Vgt,Vbt)に対応する点を、対象グリッドGtとする。そして、入力階調値Vrt,Vgt,Vbtは、色変換テーブルに格納されていない入力階調値であるものとする。   FIG. 13 is an explanatory diagram showing a method when the color conversion module 98 determines the output gradation value. Consider a case where an output gradation value is obtained from a combination of input gradation values of red, green and blue (Vrt, Vgt, Vbt). A point corresponding to a combination of sample tone values (Vrt, Vgt, Vbt) in a three-dimensional space constituted by red, green, and blue input tone values is set as a target grid Gt. The input gradation values Vrt, Vgt, Vbt are input gradation values that are not stored in the color conversion table.
色変換テーブルが格納しているレッドの入力階調値であって、Vrtよりも小さくVrtに最も近い入力階調値をVr6とする。そして、同じく色変換テーブルが格納しているレッドの入力階調値であって、Vrtよりも大きくVrtに最も近い入力階調値をVr7とする。図13の例では、Vr6は、グリッドG6のレッドのサンプル階調値である。Vr7は、グリッドG7のレッドのサンプル階調値である。   The input tone value of red stored in the color conversion table and smaller than Vrt and closest to Vrt is defined as Vr6. Similarly, the input gradation value of red stored in the color conversion table and larger than Vrt and closest to Vrt is Vr7. In the example of FIG. 13, Vr6 is a red sample tone value of the grid G6. Vr7 is a red sample gradation value of the grid G7.
色変換モジュール98は、入力階調値Vrtが入力されると、これをVr6またはVr7に置き換える。その際、いずれに置き換えられるかについては、乱数を使用して確率的に決定される。また、決定に際しては、VrtとVr6の差の大きさ、およびVrtとVr7の差の大きさが考慮される。グリーンの入力階調値Vgt、ブルーの入力階調値Vbtについても同様の処理が行われる。   When the input gradation value Vrt is input, the color conversion module 98 replaces it with Vr6 or Vr7. At that time, which one is replaced is stochastically determined using a random number. In the determination, the magnitude of the difference between Vrt and Vr6 and the magnitude of the difference between Vrt and Vr7 are considered. The same processing is performed for the green input tone value Vgt and the blue input tone value Vbt.
その結果、色変換テーブルに格納されていない入力階調値の組み合わせGt(Vrt,Vgt,Vbt)は、色変換テーブルにおいてGt(Vrt,Vgt,Vbt)を囲む最小の直方体を構成する入力階調値の組み合わせG1〜G8のいずれかに、確率的に置き換えられる。その後、色変換モジュール98は、置き換えられた入力階調値の組み合わせに対応する出力階調値が、Gt(Vrt,Vgt,Vbt)の出力階調値として出力される。   As a result, the combination of input gradation values Gt (Vrt, Vgt, Vbt) not stored in the color conversion table is the input gradation that forms the smallest rectangular solid that surrounds Gt (Vrt, Vgt, Vbt) in the color conversion table. It is replaced probabilistically by any of the value combinations G1 to G8. Thereafter, the color conversion module 98 outputs an output gradation value corresponding to the replaced combination of input gradation values as an output gradation value of Gt (Vrt, Vgt, Vbt).
このような方法においては、画像データMID1の個々の画素の色は、画像データMID2中の対応する画素において正確には再現されない。しかし、一定の色を有する所定の領域において確率的にグリッドG1〜G8に対応する出力階調値が出力されることで、そのような領域全体としては、画像データMID1において対応する領域の色が再現されることとなる。ただし、四面体補間などの補間演算を行う場合に比べて、個々の画素の色の再現精度は低い。一方で、上記のような方法は出力階調値を求める際の負荷が低い。このため、色変換テーブルを参照して色変換処理を行う際に要する時間を短くすることができる。   In such a method, the color of each pixel of the image data MID1 is not accurately reproduced at the corresponding pixel in the image data MID2. However, the output gradation values corresponding to the grids G1 to G8 are output stochastically in a predetermined area having a certain color, so that the color of the corresponding area in the image data MID1 is such an entire area. It will be reproduced. However, the color reproduction accuracy of each pixel is low compared to the case of performing an interpolation operation such as tetrahedral interpolation. On the other hand, the above method has a low load when obtaining the output gradation value. For this reason, it is possible to shorten the time required for performing the color conversion processing with reference to the color conversion table.
色変換モジュール98は、以上のような処理で、限られたサンプル階調値の組み合わせについてのみ出力階調値を有している色変換テーブルに基づいて、0〜255のすべての階調値の組み合わせについて色変換を行う。   Based on the color conversion table having the output gradation values only for a limited combination of sample gradation values, the color conversion module 98 performs processing of the above processing for all gradation values from 0 to 255. Perform color conversion for the combination.
図14は、色変換処理の手順を示すフローチャートである。色変換モジュール98は、まず、顔認識モジュール101から受け取った情報に基づいて、処理の対象である画像部分が顔領域であるか否かの判定を行う(ステップS310)。この判定を行う色変換モジュール98の機能部を、顔領域決定モジュール98aとして図1に示す。   FIG. 14 is a flowchart illustrating the procedure of the color conversion process. The color conversion module 98 first determines whether or not the image portion to be processed is a face area based on the information received from the face recognition module 101 (step S310). A functional unit of the color conversion module 98 that performs this determination is shown in FIG. 1 as a face area determination module 98a.
処理の対象である画像部分が顔領域である場合には、色変換モジュール98は、顔用色変換テーブル104fを参照して色変換処理を行う(ステップS320)。そして、処理の対象である画像部分が顔領域ではない場合は、色変換モジュール98は、通常色変換テーブル104sを参照して、色変換処理を行う(ステップS330)。   If the image portion to be processed is a face area, the color conversion module 98 performs color conversion processing with reference to the face color conversion table 104f (step S320). If the image portion to be processed is not a face area, the color conversion module 98 performs color conversion processing with reference to the normal color conversion table 104s (step S330).
顔用色変換テーブル104fは、顔領域において使用される頻度が高い階調値の近傍においてサンプル階調値の間隔が狭いテーブルである(図4参照)。このため、顔領域において多く使用される階調値については、入力階調値を確率的に他の階調値に置き換える際の(図13参照)、置き換えの前後の入力階調値の差が小さくなる。   The face color conversion table 104f is a table in which the interval between sample tone values is narrow in the vicinity of tone values that are frequently used in the face area (see FIG. 4). For this reason, regarding the gradation values that are frequently used in the face area, when the input gradation value is replaced with another gradation value stochastically (see FIG. 13), the difference between the input gradation values before and after the replacement is Get smaller.
また、通常色変換テーブル104sに基づいて顔用色変換テーブル104fが生成される際には、四面体補間が行われる(図12参照)。すなわち、本実施例においては、確率的な手法で変換テーブルを使用するのに先立って、変換テーブルを使用する際よりも精度が高い方法で、顔用色変換テーブル104fに格納される各グリッドの出力階調値が計算される。   Further, when the face color conversion table 104f is generated based on the normal color conversion table 104s, tetrahedral interpolation is performed (see FIG. 12). That is, in this embodiment, prior to using the conversion table in a probabilistic manner, each grid stored in the face color conversion table 104f is more accurate than when using the conversion table. An output tone value is calculated.
このため、(1)置き換えによって生じる入力階調値の差が小さいこと、(2)置き換え後の入力階調値に対応する出力階調値は、通常ドット分配テーブル105sの出力階調値に基づいて、精度が高い方法(補間演算)で計算されていること、の二点より、本実施例において色変換処理で得られる出力階調値が再現する色は、置き換えられる前の入力階調値が表す色に近い色となる。よって、本実施例によれば、色変換後の画像データMID2の顔領域において再現される画像の質が高くなる。   For this reason, (1) the difference between the input tone values generated by the replacement is small, and (2) the output tone value corresponding to the input tone value after the replacement is based on the output tone value of the normal dot distribution table 105s. Therefore, the color reproduced by the output gradation value obtained by the color conversion processing in this embodiment is the input gradation value before being replaced, based on the fact that it is calculated by a method with high accuracy (interpolation calculation). It becomes a color close to the color represented by. Therefore, according to the present embodiment, the quality of the image reproduced in the face area of the image data MID2 after color conversion is improved.
なお、出力階調値を決定する方法の「精度が高い」とは、以下のような意味である。出力階調値を決定すべき入力階調値が与えられたときに、その入力階調値に対して決定される出力階調値の変動範囲を考える。図13の例では、入力階調値Vrtの変動幅は、Vr6からVr7までである。補間演算が行われる場合は、与えられた入力階調値に対して常に同じ出力階調値が決定されるため、変動範囲は一つの数値である。第1の方法における変動範囲が、第2の方法における変動範囲を内部に含むとき、第2の方法は第1の方法よりも精度が高い。   Note that “high accuracy” in the method of determining the output gradation value has the following meaning. When an input tone value for which an output tone value is to be determined is given, a variation range of the output tone value determined for the input tone value is considered. In the example of FIG. 13, the fluctuation range of the input gradation value Vrt is from Vr6 to Vr7. When the interpolation calculation is performed, the same output tone value is always determined for a given input tone value, so the variation range is a single numerical value. When the variation range in the first method includes the variation range in the second method, the second method is more accurate than the first method.
一方、色変換モジュール98は、画像データMID1の画像中の顔領域以外の領域については通常色変換テーブル104sを参照する(ステップS330参照)。通常色変換テーブル104sは、顔用色変換テーブル104fのように顔領域において多く使用される階調値の近傍にサンプル階調値が集中し、他の領域においてサンプル階調値の密度が低くなっているわけではない。そして、通常色変換テーブル104sのサンプル階調値は、一般の多くの画像の印刷結果の品質が高くなるように設定されている。このため、図14の様な処理を行うことで、すべての領域の色変換処理において顔領域用に調整された顔用色変換テーブル104fを参照する態様に比べて、空や海など顔領域以外の印刷結果の品質が高くすることができる。   On the other hand, the color conversion module 98 refers to the normal color conversion table 104s for areas other than the face area in the image of the image data MID1 (see step S330). In the normal color conversion table 104s, sample gradation values are concentrated in the vicinity of gradation values that are frequently used in the face area like the face color conversion table 104f, and the density of the sample gradation values is low in other areas. I don't mean. The sample gradation values in the normal color conversion table 104s are set so that the quality of the print results of many general images is high. For this reason, by performing the process as shown in FIG. 14, compared to the aspect in which the face color conversion table 104 f adjusted for the face area is referred to in the color conversion process of all areas, the area other than the face area such as the sky and the sea is used. The quality of printing results can be increased.
以上で説明した第1実施例の印刷システムは、顔領域と、顔領域以外の通常領域とで、画像データに対して異なる処理を行う。このような処理を行うことで、顔が存在する顔領域については、顔領域の特質に焦点を合わせた処理を行うことができる。よって、印刷物中で人の注意が注がれる顔について、高品質な印刷結果が得られる。一方、印刷物中の他の通常領域については、顔領域とは異なる処理が行われる。このため、通常領域について顔領域の特質に合わせた処理が行われることによって印刷結果の品質が低下することはない。   The printing system according to the first embodiment described above performs different processing on image data in the face area and the normal area other than the face area. By performing such processing, for a face area where a face exists, it is possible to perform processing focusing on the characteristics of the face area. Therefore, a high-quality print result can be obtained for a face to which human attention is poured in the printed matter. On the other hand, other normal areas in the printed material are processed differently from the face area. For this reason, the quality of the print result is not deteriorated by performing the processing in accordance with the characteristics of the face area on the normal area.
B.第2実施例:
図15は、第2実施例の顔用色変換テーブル104f2を表す図である。第2実施例は、顔用色変換テーブルの構成および生成方法が第1実施例とは異なる。他の点は、第1実施例と同じである。
B. Second embodiment:
FIG. 15 is a diagram illustrating the face color conversion table 104f2 according to the second embodiment. The second embodiment differs from the first embodiment in the configuration and generation method of the face color conversion table. The other points are the same as in the first embodiment.
第2実施例においては、レッドとグリーンとブルーのサンプル階調値は、それぞれ独立に選択される。レッドのサンプル階調値は、初期画像データPID中の顔領域において頻度が最も大きいレッドの階調値Vrp(図6参照)近傍Rrにおいて、通常色変換テーブル104sよりもサンプル階調値の間隔が狭くなるように決定される。また、グリーンのサンプル階調値は、顔領域において頻度が最も大きいグリーンの階調値Vgp(図7参照)近傍Rgにおいて、通常色変換テーブル104sよりもサンプル階調値の間隔が狭くなるように決定される。さらに、ブルーのサンプル階調値は、顔領域において頻度が最も大きいブルーの階調値Vbp(図8参照)近傍Rbにおいて、通常色変換テーブル104sよりもサンプル階調値の間隔が狭くなるように決定される。   In the second embodiment, the sample tone values of red, green and blue are selected independently. The sample gradation value of red has an interval between the sample gradation values larger than that of the normal color conversion table 104s in the vicinity Rr of the red gradation value Vrp (see FIG. 6) having the highest frequency in the face area in the initial image data PID. It is determined to be narrow. Further, the sample tone value of green is such that the interval between the sample tone values is narrower than the normal color conversion table 104s in the vicinity Rg of the green tone value Vgp (see FIG. 7) having the highest frequency in the face region. It is determined. Further, the sample tone value of blue is such that the interval between the sample tone values is narrower than the normal color conversion table 104s in the vicinity Rb of the blue tone value Vbp (see FIG. 8) having the highest frequency in the face region. It is determined.
レッド、グリーン、ブルーについての具体的なサンプル階調値の決定方法は、第1実施例においてレッド、グリーン、ブルーの階調値の頻度の合計に基づいてサンプル階調値を決定した際と同じである(図9〜図11参照)。   A specific method for determining sample tone values for red, green, and blue is the same as that for determining sample tone values based on the total frequency of red, green, and blue tone values in the first embodiment. (See FIGS. 9 to 11).
このような顔用色変換テーブル104f2を使用して色変換処理を行えば、初期画像データPID中の顔領域において、レッド、グリーン、ブルーの階調値の分布(図6〜図8参照)が互いに大きく異なる場合にも、変換後の画像の品質が高い色変換処理を行うことができる。   If color conversion processing is performed using such a face color conversion table 104f2, red, green, and blue tone value distributions (see FIGS. 6 to 8) in the face area in the initial image data PID. Even when they differ greatly from each other, color conversion processing with high quality of the converted image can be performed.
C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C. Variations:
The present invention is not limited to the above-described examples and embodiments, and can be implemented in various modes without departing from the gist thereof. For example, the following modifications are possible.
C1.変形例1:
上記実施例では、初期画像データPIDデータ中に顔領域Afが一つだけある例について説明した(図2参照)。しかし、初期画像データPIDデータ中に顔領域Afが複数ある場合についても同様の処理を行うことができる。すなわち、複数の顔領域のデータに対して、1または2以上の顔用色変換テーブル104fを参照して画像処理を行うことができる。
C1. Modification 1:
In the above-described embodiment, an example in which only one face area Af is included in the initial image data PID data has been described (see FIG. 2). However, the same processing can be performed when there are a plurality of face areas Af in the initial image data PID data. That is, image processing can be performed on the data of a plurality of face areas with reference to one or more face color conversion tables 104f.
なお、顔領域が複数存在する場合は、顔用色変換テーブルを各顔領域のデータに基づいて複数生成し、対応する顔領域の色変換処理においてそれぞれ参照してもよい。そのような態様とすれば、それぞれの顔領域の特性を反映した顔用色変換テーブルを生成して、それぞれの顔領域の特性に合った画像処理を行うことができる。   When there are a plurality of face areas, a plurality of face color conversion tables may be generated based on the data of each face area, and referred to in the corresponding face area color conversion processing. With such an aspect, it is possible to generate a face color conversion table that reflects the characteristics of each face area and perform image processing that matches the characteristics of each face area.
また、各顔領域のデータに基づいて一つの顔用色変換テーブルを生成し、複数の顔領域のデータの色変換に際して、同一の顔用色変換テーブルを参照してもよい。そのような態様においては、複数の顔領域における色の階調値の合計の頻度が高いほど、その階調値の近傍に存在するサンプル階調値が多くなるように、顔用変換テーブルを生成することが好ましい。このような態様とすれば、コンピュータのハードディスクやRAM内において顔用色変換テーブルが占有する領域を少なくすることができる。   Further, one face color conversion table may be generated based on the data of each face area, and the same face color conversion table may be referred to when performing color conversion of data of a plurality of face areas. In such an aspect, the face conversion table is generated so that the higher the total frequency of the color gradation values in a plurality of face regions, the more sample gradation values exist in the vicinity of the gradation values. It is preferable to do. With this configuration, the area occupied by the face color conversion table in the computer hard disk or RAM can be reduced.
C2.変形例2:
上記実施例では、顔認識モジュール101は、初期画像データPIDを解析して顔領域Afを決定していた。しかし、顔領域の決定は、初期画像データPIDを解析して行う態様の他、解像度変換後の画像データMID1を解析して行う態様とすることができる。すなわち、顔領域の決定は、色変換前の表色系で表された画像データを解析して行うものであればよい。
C2. Modification 2:
In the above embodiment, the face recognition module 101 determines the face area Af by analyzing the initial image data PID. However, the determination of the face area can be performed by analyzing the initial image data PID and analyzing the image data MID1 after resolution conversion. That is, the determination of the face area may be performed by analyzing the image data expressed in the color system before color conversion.
C3.変形例3:
上記実施例では、通常色変換テーブル104sと顔用色変換テーブル104fとは、ともにレッド、グリーン、ブルーの31個のサンプル階調値の組み合わせ、すなわち、31×31×31個のグリッドを格納していた。しかし、通常色変換テーブル104sと顔用色変換テーブル104fとは、RGBそれぞれについて17個のサンプル階調値の組み合わせなど、より少数のグリッドを格納していてもよいし、また、より多数のグリッドを格納していてもよい。さらに、通常色変換テーブル104sと顔用色変換テーブル104fとが格納しているサンプル階調値の組み合わせの数は異なっていてもよい。
C3. Modification 3:
In the above embodiment, the normal color conversion table 104s and the face color conversion table 104f both store combinations of 31 sample gradation values of red, green, and blue, that is, 31 × 31 × 31 grids. It was. However, the normal color conversion table 104s and the face color conversion table 104f may store a smaller number of grids such as a combination of 17 sample gradation values for each of RGB, or a larger number of grids. May be stored. Further, the number of combinations of sample gradation values stored in the normal color conversion table 104s and the face color conversion table 104f may be different.
ただし、顔用色変換テーブル104fは、顔領域において多く使用される階調値の近傍の範囲に、通常色変換テーブル104sよりも多数のサンプル階調値を有していることが好ましい。そして、顔領域において多く使用される階調値の近傍の範囲に、階調値の他の範囲よりも多数のサンプル階調値を有していることがより好ましい。   However, it is preferable that the face color conversion table 104f has a larger number of sample gradation values than the normal color conversion table 104s in the vicinity of gradation values frequently used in the face area. It is more preferable to have a larger number of sample gradation values in a range in the vicinity of gradation values that are frequently used in the face area than in other ranges of gradation values.
C4.変形例4:
上記実施例では、色変換処理は、通常色変換テーブル104sおよび顔用色変換テーブル104fを参照しつつ行われた。しかし、色変換処理において参照されるプロファイルは、テーブル以外の形式を有していてもよい。たとえば、色変換処理において参照されるプロファイルは、入力階調値から出力階調値を計算しうる関数であってもよい。すなわち、色変換の際に参照されるプロファイルは、入力階調値から出力階調値を特定することができる情報を表す様々な形式のものとすることができる。
C4. Modification 4:
In the above embodiment, the color conversion processing is performed with reference to the normal color conversion table 104s and the face color conversion table 104f. However, the profile referred to in the color conversion process may have a format other than the table. For example, the profile referred to in the color conversion process may be a function that can calculate the output gradation value from the input gradation value. That is, the profile referred to in the color conversion can be in various formats representing information that can specify the output gradation value from the input gradation value.
C5.変形例5:
上記実施例では、色変換処理については、RGB表色系からC、LC、M、LM、Y、Kの各色による表色系の色変換について説明した。しかし、色変換はこれに限らず、たとえば、RGB表色系からシアン、マゼンタ、イエロ、ブラック、レッド、バイオレット等の他の表色系の階調値への色変換であってもよい。すなわち、所定の第1の表色系による画像データを、第1の表色系とは異なる第2の表色系による画像データに変換するものであればよい。
C5. Modification 5:
In the above-described embodiments, the color conversion processing has been described with respect to color conversion of the color system from each color of C, LC, M, LM, Y, K from the RGB color system. However, the color conversion is not limited to this, and may be, for example, color conversion from an RGB color system to other color system gradation values such as cyan, magenta, yellow, black, red, and violet. In other words, any image data having a predetermined first color system may be converted into image data having a second color system different from the first color system.
C6.変形例6:
上記実施例においては、顔用色変換テーブル104fのサンプル階調値は、初期画像データPIDの顔領域Af全体のデータ中の階調値の頻度に基づいて決定されていた。しかし、顔用色変換テーブルは、初期画像データPIDの顔領域Afの一部を表すデータに基づいて生成されてもよい。すなわち、顔領域用プロファイル(顔用色変換テーブル104f)は、顔領域の少なくとも一部を表すデータに基づいて、通常領域用プロファイル(通常色変換テーブル104s)から生成することができる。
C6. Modification 6:
In the above embodiment, the sample gradation value of the face color conversion table 104f is determined based on the frequency of the gradation value in the entire face area Af of the initial image data PID. However, the face color conversion table may be generated based on data representing a part of the face area Af of the initial image data PID. That is, the face area profile (face color conversion table 104f) can be generated from the normal area profile (normal color conversion table 104s) based on data representing at least a part of the face area.
C7.変形例7:
上記実施例においては、顔用色変換テーブル104fは、通常色変換テーブル104sに基づいて生成されていた。しかし、顔用色変換テーブル104fは、あらかじめ格納されていてもよい。
C7. Modification 7:
In the above embodiment, the face color conversion table 104f is generated based on the normal color conversion table 104s. However, the face color conversion table 104f may be stored in advance.
すなわち、本発明の実施態様として行われる画像処理は、以下のようなものであればよい。第1の画像データに含まれ顔領域以外の通常領域の少なくとも一部を表す通常領域データを、第2の画像データの一部に変換する際には、通常領域用プロファイルを参照しつつ変換する。そして、第1の画像データに含まれ顔領域の少なくとも一部を表すデータを、第2の画像データの他の一部に変換する際には、通常領域用プロファイルとは異なる顔領域用プロファイルを参照しつつ変換する。   That is, the image processing performed as an embodiment of the present invention may be as follows. When converting the normal area data representing at least a part of the normal area other than the face area included in the first image data into a part of the second image data, the conversion is performed with reference to the normal area profile. . When converting data representing at least a part of the face area included in the first image data into another part of the second image data, a face area profile different from the normal area profile is used. Convert with reference.
C8.変形例8:
上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。例えば、プリンタドライバ96(図1参照)の機能の一部をプリンタのCPU41が実行するようにすることもできる。
C8. Modification 8:
In the above embodiment, a part of the configuration realized by hardware may be replaced by software, and conversely, a part of the configuration realized by software may be replaced by hardware. For example, a part of the functions of the printer driver 96 (see FIG. 1) can be executed by the printer CPU 41.
このような機能を実現するコンピュータプログラムは、フロッピディスクやCD−ROM等の、コンピュータ読み取り可能な記録媒体に記録された形態で提供される。ホストコンピュータは、その記録媒体からコンピュータプログラムを読み取って内部記憶装置または外部記憶装置に転送する。あるいは、通信経路を介してプログラム供給装置からホストコンピュータにコンピュータプログラムを供給するようにしてもよい。コンピュータプログラムの機能を実現する時には、内部記憶装置に格納されたコンピュータプログラムがホストコンピュータのマイクロプロセッサによって実行される。また、記録媒体に記録されたコンピュータプログラムをホストコンピュータが直接実行するようにしてもよい。   A computer program for realizing such a function is provided in a form recorded on a computer-readable recording medium such as a floppy disk or a CD-ROM. The host computer reads the computer program from the recording medium and transfers it to the internal storage device or the external storage device. Alternatively, the computer program may be supplied from the program supply device to the host computer via a communication path. When realizing the function of the computer program, the computer program stored in the internal storage device is executed by the microprocessor of the host computer. Further, the host computer may directly execute the computer program recorded on the recording medium.
この明細書において、コンピュータとは、ハードウェア装置とオペレーションシステムとを含む概念であり、オペレーションシステムの制御の下で動作するハードウェア装置を意味している。コンピュータプログラムは、このようなコンピュータに、上述の各部の機能を実現させる。なお、上述の機能の一部は、アプリケーションプログラムでなく、オペレーションシステムによって実現されていても良い。   In this specification, the computer is a concept including a hardware device and an operation system, and means a hardware device that operates under the control of the operation system. The computer program causes such a computer to realize the functions of the above-described units. Note that some of the functions described above may be realized by an operation system instead of an application program.
なお、この発明において、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピュータ内の内部記憶装置や、ハードディスク等のコンピュータに固定されている外部記憶装置も含んでいる。   In the present invention, the “computer-readable recording medium” is not limited to a portable recording medium such as a flexible disk or a CD-ROM, but an internal storage device in a computer such as various RAMs and ROMs, An external storage device fixed to a computer such as a hard disk is also included.
第1実施例の印刷システムのソフトウェアの構成を示すブロック図。FIG. 2 is a block diagram illustrating a software configuration of the printing system according to the first embodiment. 初期画像データPID中の顔領域Afを示す図。The figure which shows the face area Af in the initial image data PID. 通常色変換テーブル104sを表す図。The figure showing the normal color conversion table 104s. 顔用色変換テーブル104fを表す図。The figure showing the face color conversion table 104f. 顔用色変換テーブル104fを生成する手順を示すフローチャート。The flowchart which shows the procedure which produces | generates the face color conversion table 104f. 顔領域Afのデータ中の各画素におけるレッドの階調値Vr(0〜255)の頻度N(vr)を表すヒストグラム。The histogram showing the frequency N (vr) of the red gradation value Vr (0-255) in each pixel in the data of the face area Af. 顔領域Afのデータ中の各画素におけるグリーンの階調値Vg(0〜255)の頻度N(vg)を表すヒストグラム。The histogram showing the frequency N (vg) of the green gradation value Vg (0-255) in each pixel in the data of the face area Af. 顔領域Afのデータ中の各画素におけるレッドの階調値Vb(0〜255)の頻度N(vb)を表すヒストグラム。The histogram showing the frequency N (vb) of the red gradation value Vb (0-255) in each pixel in the data of the face area Af. 顔領域Afのデータ中のレッド、グリーン、ブルーの合計の頻度SN(v)を表すヒストグラム。A histogram representing the total frequency SN (v) of red, green, and blue in the data of the face area Af. 各階調値の頻度SN(v)と(SNmax+1)との差D(v)を表すヒストグラム。A histogram representing a difference D (v) between the frequencies SN (v) and (SNmax + 1) of each gradation value. 31個のサンプル階調値Vs(1)〜Vs(31)とSD(i)の関係を示す図。The figure which shows the relationship between 31 sample gradation values Vs (1) -Vs (31), and SD (i). 通常色変換テーブル104sが格納している出力階調値に基づいて、顔用色変換テーブル104fのサンプル階調値の組み合わせに対する出力階調値を計算する方法を示す図。The figure which shows the method of calculating the output gradation value with respect to the combination of the sample gradation value of the face color conversion table 104f based on the output gradation value which the normal color conversion table 104s has stored. 色変換モジュール98が出力階調値を決定する際の方法を示す説明図。Explanatory drawing which shows the method at the time of the color conversion module 98 determining an output gradation value. 色変換処理の手順を示すフローチャート。6 is a flowchart illustrating a procedure of color conversion processing. 第2実施例の顔用色変換テーブル104f2を表す図。The figure showing the face color conversion table 104f2 of 2nd Example.
符号の説明Explanation of symbols
21…CRTディスプレイ
22…プリンタ
28…印刷ヘッド
31…キャリッジ
32…操作パネル
41…CPU
42…ROM
90…コンピュータ
91…ビデオドライバ
95…アプリケーションプログラム
96…プリンタドライバ
97…解像度変換モジュール
98…色変換モジュール
99…ハーフトーンモジュール
100…モジュール
101…顔認識モジュール
103…LUT生成モジュール
104f…顔用色変換テーブル
104s…通常色変換テーブル
105f…顔用ドット分配テーブル
105s…通常ドット分配テーブル
106…分配テーブル生成モジュール
120…キーボード
130…マウス
Ad…すでに色変換処理およびハーフトーン処理が行われた領域
Af…顔領域
Af0…原顔領域
As…通常領域
Ay…まだ色変換処理およびハーフトーン処理が行われていない領域
D(v)…各階調値の頻度SN(v)と(SNmax+1)との差
DM…ディザマトリクス
Ddl,Ddr1,Ddr2,Dh1,Dh2,Dv1…誤差拡散マトリクス中の要素
EDM…誤差拡散マトリクス
FNL…印刷画像データ
G1〜G8…RGBの入力階調値によって構成される3次元空間中のグリッド
Gt…RGBの入力階調値によって構成される3次元空間中の対象グリッド
LLs(i)…色変換処理とハーフトーン処理が行われる対象ラスタライン
MID1…印刷用の解像度に変換された画像データ
MID2…インク色の階調値で画像が表された画像データ
MID3…ドットの有無で画像が表された画像データ
MS…主走査方向
N(vr)、N(vg)、N(vb)…レッド、グリーン、ブルーの頻度
ORG…原カラー画像データ
P…印刷用紙
PID…初期画像データ
SN(v)…RGBの各階調値の頻度の合計値
SS…印刷用紙の搬送方向
pc…特徴点
21 ... CRT display 22 ... Printer 28 ... Print head 31 ... Carriage 32 ... Operation panel 41 ... CPU
42 ... ROM
DESCRIPTION OF SYMBOLS 90 ... Computer 91 ... Video driver 95 ... Application program 96 ... Printer driver 97 ... Resolution conversion module 98 ... Color conversion module 99 ... Halftone module 100 ... Module 101 ... Face recognition module 103 ... LUT generation module 104f ... Color conversion table for face 104s ... Normal color conversion table 105f ... Face dot distribution table 105s ... Normal dot distribution table 106 ... Distribution table generation module 120 ... Keyboard 130 ... Mouse Ad ... Area that has already undergone color conversion processing and halftone processing Af ... Face area Af0 ... Original face area As ... Normal area Ay ... Area where color conversion processing and halftone processing have not yet been performed D (v) ... Difference between the frequency SN (v) of each gradation value and (SNmax + 1) DM Dither matrix Ddl, Ddr1, Ddr2, Dh1, Dh2, Dv1 ... Elements in error diffusion matrix EDM ... Error diffusion matrix FNL ... Print image data G1 to G8 ... Grid in three-dimensional space composed of RGB input gradation values Gt: target grid in a three-dimensional space composed of RGB input gradation values LLs (i): target raster line on which color conversion processing and halftone processing are performed MID1: image data converted to printing resolution MID2 ... Image data in which an image is represented by ink color gradation values MID3 ... Image data in which an image is represented by the presence or absence of dots MS ... Main scanning directions N (vr), N (vg), N (vb) ... red, Green, Blue frequency ORG ... Original color image data P ... Printing paper PID ... Initial image data SN (v) ... RGB Total value of the frequency of each gradation value SS ... Printing paper conveyance direction pc ... Feature point

Claims (12)

  1. 第1の表色系の第1の画像データを、前記第1の表色系とは異なる第2の表色系の第2の画像データに変換する画像処理装置であって、
    前記第1の画像データの画像中において顔が存在する顔領域の範囲を決定する顔領域決定部と、
    前記第1の画像データを前記第2の画像データに変換する色変換部と、を備え、
    前記色変換部は、
    前記顔領域以外の通常領域の前記第1の画像データの前記変換を行う際には、通常領域用プロファイルを使用して前記変換を行い、
    前記顔領域の前記第1の画像データの前記変換を行う際には、前記通常領域用プロファイルとは異なる顔領域用プロファイルを使用して前記変換を行う、画像処理装置。
    An image processing apparatus for converting first image data of a first color system to second image data of a second color system different from the first color system,
    A face area determination unit that determines a range of a face area where a face exists in the image of the first image data;
    A color conversion unit that converts the first image data into the second image data,
    The color converter is
    When performing the conversion of the first image data in the normal area other than the face area, the conversion is performed using a normal area profile,
    An image processing apparatus that performs the conversion using a face area profile different from the normal area profile when the conversion of the first image data of the face area is performed.
  2. 請求項1記載の装置であって、
    前記顔領域決定部は、前記第1の画像データの画像中の特徴点を抽出し、前記特徴点に基づいて前記顔領域の範囲を決定する、画像処理装置。
    The apparatus of claim 1, comprising:
    The face processing unit is an image processing device that extracts feature points in an image of the first image data and determines a range of the face region based on the feature points.
  3. 請求項1記載の画像処理装置であって、
    前記顔領域用プロファイルは、前記顔領域用プロファイルが有する複数の入力値のうちで、前記顔領域内で最も頻度が高い色の近傍における入力値の間隔が、前記通常領域用プロファイルよりも狭く設定されている、画像処理装置。
    The image processing apparatus according to claim 1,
    In the face area profile, among the plurality of input values of the face area profile, the input value interval in the vicinity of the most frequently used color in the face area is set narrower than the normal area profile. An image processing apparatus.
  4. 請求項3記載の画像処理装置であって、
    前記通常領域用プロファイルと前記顔領域用プロファイルとがそれぞれ有する前記入力値の数は、同じである、画像処理装置。
    The image processing apparatus according to claim 3,
    The number of the input values which the said normal area profile and the said face area profile each have are the same, The image processing apparatus.
  5. 請求項3記載の画像処理装置であって、
    前記顔領域用プロファイルは、前記通常領域用プロファイルよりも多くの前記入力値を有している、画像処理装置。
    The image processing apparatus according to claim 3,
    The image processing apparatus, wherein the face area profile has more input values than the normal area profile.
  6. 請求項5に記載の画像処理装置であって、
    前記顔領域用プロファイルは、前記顔領域用プロファイルが有する前記複数の入力値のうちで、前記顔領域内で最も頻度が高い色の近傍における入力値の間隔が、他の色の近傍における入力値の間隔よりも狭く設定されている、画像処理装置。
    The image processing apparatus according to claim 5,
    The face area profile is the input value interval in the vicinity of the color most frequently in the face area among the plurality of input values of the face area profile. The image processing apparatus is set to be narrower than the interval.
  7. 請求項3記載の画像処理装置であって、さらに、
    前記顔領域の色に基づいて、前記通常領域用プロファイルから前記顔領域用プロファイルを適応的に生成する顔領域用プロファイル生成部を備える、画像処理装置。
    The image processing apparatus according to claim 3, further comprising:
    An image processing apparatus comprising: a face area profile generation unit that adaptively generates the face area profile from the normal area profile based on a color of the face area.
  8. 請求項7記載の画像処理装置であって、
    前記色変換部は、
    前記変換において、入力された入力値に対応する出力値を決定する際には、前記通常領域用プロファイルまたは前記顔領域用プロファイルを参照して、第1の方法で前記出力値を決定し、
    前記顔領域用プロファイル生成部は、
    前記顔領域用プロファイルが有すべき入力値に対応する出力値を決定する際には、前記通常領域用プロファイルを参照して、前記第1の方法よりも精度が高い第2の方法で前記出力値を決定する、画像処理装置。
    The image processing apparatus according to claim 7,
    The color converter is
    In the conversion, when determining an output value corresponding to the input value input, the output value is determined by the first method with reference to the normal region profile or the face region profile,
    The face area profile generation unit
    When determining an output value corresponding to an input value that the face area profile should have, the output is performed by a second method with higher accuracy than the first method with reference to the normal area profile. An image processing device for determining a value.
  9. 請求項7記載の画像処理装置であって、
    前記第1の画像データは、前記第1の表色系の複数の基準色の階調値で画像を表すデータであり、
    前記顔領域用プロファイル生成部は、
    前記複数の基準色の複数の階調値について、前記顔領域の前記第1の画像データ中の頻度を計算し、
    前記複数の基準色の前記頻度の合計値が高い階調値ほど近傍において前記顔領域用プロファイルが格納している前記入力値の間隔が狭くなるように、前記顔領域用プロファイルを生成する、画像処理装置。
    The image processing apparatus according to claim 7,
    The first image data is data representing an image with gradation values of a plurality of reference colors of the first color system,
    The face area profile generation unit
    Calculating a frequency in the first image data of the face area for a plurality of gradation values of the plurality of reference colors;
    The face region profile is generated so that the interval between the input values stored in the face region profile is closer in the vicinity of a gradation value having a higher total value of the frequencies of the plurality of reference colors. Processing equipment.
  10. 請求項7記載の装置であって、
    前記顔領域決定部は、前記画像中において複数の前記顔領域を決定することができ、
    前記顔領域用プロファイル生成部は、前記複数の顔領域にそれぞれ対応する複数の前記顔領域用プロファイルを生成することができ、
    前記色変換部は、前記複数の顔領域をそれぞれ表す複数の前記第1のデータの前記変換を行う際には、前記複数の顔領域用プロファイルをそれぞれ使用する、画像処理装置。
    The apparatus of claim 7, wherein
    The face area determination unit can determine a plurality of the face areas in the image,
    The face area profile generation unit can generate a plurality of face area profiles respectively corresponding to the plurality of face areas,
    The color conversion unit uses the plurality of face area profiles respectively when performing the conversion of the plurality of first data representing the plurality of face areas.
  11. 請求項7記載の装置であって、
    前記顔領域決定部は、前記画像中において複数の前記顔領域を決定することができ、
    前記第1の画像データは、前記第1の表色系の複数の基準色の階調値で画像を表すデータであり、
    前記顔領域用プロファイル生成部は、
    前記複数の基準色の複数の階調値について、前記複数の顔領域をそれぞれ表す複数の前記第1の画像データ中の頻度を計算し、
    前記複数の顔領域についての前記複数の基準色の前記頻度の合計値が高い階調値ほど近傍における前記入力値の間隔が狭くなるように、前記顔領域用プロファイルを生成する、画像処理装置。
    The apparatus of claim 7, wherein
    The face area determination unit can determine a plurality of the face areas in the image,
    The first image data is data representing an image with gradation values of a plurality of reference colors of the first color system,
    The face area profile generation unit
    Calculating a frequency in the plurality of first image data respectively representing the plurality of face regions for the plurality of gradation values of the plurality of reference colors;
    The image processing apparatus that generates the face area profile such that the interval between the input values in the vicinity becomes narrower as the tone value having a higher total frequency value of the plurality of reference colors for the plurality of face areas.
  12. 第1の表色系の第1の画像データを、前記第1の表色系とは異なる第2の表色系の第2の画像データに変換する方法であって、
    (a)前記第1の画像データの画像中において顔が存在する顔領域の範囲を決定する工程と、
    (b)前記第1の画像データを前記第2の画像データに変換する工程と、を備え、
    前記工程(b)は、
    (b1)通常領域用プロファイルを使用して、前記顔領域以外の通常領域の前記第1の画像データの前記変換を行う工程と、
    (b2)前記通常領域用プロファイルとは異なる顔領域用プロファイルを使用して、前記顔領域の前記第1の画像データの前記変換を行う工程と、を備える、方法。
    A method of converting first image data of a first color system to second image data of a second color system different from the first color system,
    (A) determining a range of a face area where a face exists in the image of the first image data;
    (B) converting the first image data into the second image data,
    The step (b)
    (B1) performing the conversion of the first image data in the normal area other than the face area using the normal area profile;
    (B2) performing the conversion of the first image data of the face area using a face area profile different from the normal area profile.
JP2005083042A 2005-03-23 2005-03-23 Image processing to be implemented differently for face area and for normal area Pending JP2006268216A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005083042A JP2006268216A (en) 2005-03-23 2005-03-23 Image processing to be implemented differently for face area and for normal area

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005083042A JP2006268216A (en) 2005-03-23 2005-03-23 Image processing to be implemented differently for face area and for normal area

Publications (1)

Publication Number Publication Date
JP2006268216A true JP2006268216A (en) 2006-10-05

Family

ID=37204154

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005083042A Pending JP2006268216A (en) 2005-03-23 2005-03-23 Image processing to be implemented differently for face area and for normal area

Country Status (1)

Country Link
JP (1) JP2006268216A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426137A (en) * 2015-11-06 2016-03-23 金航数码科技有限责任公司 Facial recognition-based secure printing audition system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105426137A (en) * 2015-11-06 2016-03-23 金航数码科技有限责任公司 Facial recognition-based secure printing audition system

Similar Documents

Publication Publication Date Title
US7551315B2 (en) Color matching accuracy under multiple printing conditions
JP2004320624A (en) Lattice point determining method for preparing correspondence relation defining data, lattice point determining apparatus for preparing correspondence relation defining data, lattice point determining program for preparing correspondence relation defining data, print control apparatus, print control method, and print control program
US6945626B2 (en) Correction table generation method and method of controlling correction table generation apparatus
JP5014475B2 (en) Image processing apparatus and image processing method
US20100208304A1 (en) Image correction method and image correction system
JP4646567B2 (en) Color conversion table creation method and image processing apparatus
JP5146942B2 (en) CONVERSION METHOD, DEVICE, AND COMPUTER PROGRAM FOR CONVERTING DIGITAL IMAGE OBTAINED BY SCANNER
US20180234582A1 (en) Dynamic printing system compensation mechanism
US9147140B2 (en) Image processing apparatus, method, and product for converting image data into fewer gradations based on total value of pixels in a group except for a detected pixel having a specific value
JP2005210339A (en) Image processor, print controller, and image processing method and program
US9406004B2 (en) Image processing apparatus, image processing method, and storage medium
JP2008147937A (en) Image processor and image processing method
US9767397B2 (en) Color separation condition determining apparatus, method and non-transitory storage medium
JP2006268216A (en) Image processing to be implemented differently for face area and for normal area
JP5023036B2 (en) Profile generation apparatus, profile generation program, profile generation method, image processing apparatus, image processing program, and image processing method
JP2005295131A (en) Apparatus, method, and program for processing image
JPH1086417A (en) Method and apparatus for reducing frosting noise and program recording medium
JP2010147841A (en) Image processing apparatus, method and program
US8941880B2 (en) Image processing apparatus, image processing method, and program
US7259888B2 (en) Image file bit depth expansion and subsequent manipulation
JP2008072602A (en) Color adjustment on printing device
JP2018098736A (en) Image processing device, image processing method, and program
JP2021084298A (en) Image processing device, image forming system, image processing method, control method of image forming system and program
JP2021053828A (en) Image processing device
JP2011024054A (en) Image processing apparatus and method