JP2010246053A - Apparatus, method, and program for processing image, and printer - Google Patents

Apparatus, method, and program for processing image, and printer Download PDF

Info

Publication number
JP2010246053A
JP2010246053A JP2009095400A JP2009095400A JP2010246053A JP 2010246053 A JP2010246053 A JP 2010246053A JP 2009095400 A JP2009095400 A JP 2009095400A JP 2009095400 A JP2009095400 A JP 2009095400A JP 2010246053 A JP2010246053 A JP 2010246053A
Authority
JP
Japan
Prior art keywords
pixel
red
correction
eye
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009095400A
Other languages
Japanese (ja)
Inventor
Kazumi Yamada
和美 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009095400A priority Critical patent/JP2010246053A/en
Publication of JP2010246053A publication Critical patent/JP2010246053A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To make only a truly necessary corrections to be performed by correctly specifying a red eye pixel as a pixel to be corrected. <P>SOLUTION: An image processing apparatus includes: a region detection part for detecting a region to be corrected that includes a red eye region from within an image represented by image data obtained; a pixel identification part for calculating a prescribed character value for every pixel included in the region to be corrected that is detected and identifying a pixel to be an object of red eyes correction among pixels that are included in the region to be corrected in accordance with the characteristic value; and a red eye correction part for correcting red eye with the pixel identified as an object. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置に関する。   The present invention relates to an image processing apparatus, an image processing method, an image processing program, and a printing apparatus.

人物をフラッシュ撮影した画像において人物の目がいわゆる「赤目」になっている場合、赤目の状態を緩和するための補正を画像に施す。これまでは、画像内におけるいずれの画素が赤目に該当する画素(赤目画素)であるか否かを、画素毎の色情報と予め定めたしきい値との比較によって判定し、当該比較で赤目画素と判定した画素に対して上記補正を行なっていた。   When the person's eyes are so-called “red eyes” in an image obtained by flash photography of the person, correction is applied to the image to alleviate the state of red eyes. Until now, it is determined by comparing the color information for each pixel with a predetermined threshold value whether any pixel in the image is a pixel corresponding to the red eye (red-eye pixel). The above correction is performed on the pixel determined to be a pixel.

また、被写体の頭の一部を含み一以上の瞳の色調不良が存在する可能性のある領域を定め、この領域内の画素をサンプリングし、サンプル化画素の各々を瞳の色調不良を表す複数のしきい値と比較し、瞳の色調不良の可能性のある画素を認定する方法が知られている(特許文献1参照。)。   In addition, a region including a part of the subject's head that may have one or more pupil color defects may be determined, pixels in the region may be sampled, and each of the sampled pixels may represent a pupil color defect A method is known in which a pixel having a possibility of poor pupil color tone is identified in comparison with the threshold value (see Patent Document 1).

特許第3181472号Japanese Patent No. 3181472

赤目画素は、その色情報(あるいは色情報の一部)が赤目画素ではない他の画素(例えば、肌色画素)とかなり似ていることも多い。そのため、上述したような色情報としきい値との単純な比較判定では、実際には赤目画素ではない画素も、赤目画素と色が近いために赤目画素と判定してしまうことも多く、結果、上記赤目の状態を緩和するための補正が不要である画素に対しても当該補正を施してしまうことがあった。   In many cases, the red eye pixel is quite similar to other pixels (for example, skin color pixels) whose color information (or part of the color information) is not a red eye pixel. Therefore, in the simple comparison determination between the color information and the threshold as described above, pixels that are not actually red-eye pixels are often determined to be red-eye pixels because the colors are close to the red-eye pixels. In some cases, the correction is performed even for pixels that do not require correction for reducing the red-eye state.

本発明は上記課題に鑑みてなされたもので、赤目に該当する画素を補正対象として正確に特定することにより真に必要な補正だけが行なわれるようにし、優れた画質の画像を得ることが可能な画像処理装置、画像処理方法、画像処理プログラムおよび印刷装置を提供することを目的とする。   The present invention has been made in view of the above problems, and by accurately specifying a pixel corresponding to red eye as a correction target, only a truly necessary correction can be performed, and an image with excellent image quality can be obtained. An object of the present invention is to provide an image processing apparatus, an image processing method, an image processing program, and a printing apparatus.

上記目的を達成するため、本発明の画像処理装置は、取得した画像データが表す画像内から赤目領域を含む補正候補領域を検出する領域検出部と、上記検出された補正候補領域に含まれる画素毎に所定の特徴値を算出するとともに、当該特徴値に応じて上記補正候補領域に含まれる画素のうち赤目補正の対象とする画素を特定する画素特定部と、上記特定された画素を対象として上記赤目補正を実行する赤目補正部とを備える。
本発明によれば、補正候補領域に含まれる画素の中から上記特徴値に応じて赤目補正の対象画素を特定し、特定した画素に赤目補正を施すため、赤目補正を本来施すべき画素(赤目画素)にのみ赤目補正が結果的に施され、無駄な補正が無くなる。
In order to achieve the above object, an image processing apparatus according to the present invention includes an area detection unit that detects a correction candidate area including a red-eye area from an image represented by acquired image data, and pixels included in the detected correction candidate area. A predetermined feature value is calculated for each pixel, and a pixel specifying unit that specifies a pixel to be subjected to red-eye correction among pixels included in the correction candidate region according to the feature value, and the specified pixel as a target A red-eye correction unit that performs the red-eye correction.
According to the present invention, the target pixel for red-eye correction is specified from the pixels included in the correction candidate area according to the feature value, and the red-eye correction is performed on the specified pixel. As a result, red-eye correction is performed only on (pixels), and unnecessary correction is eliminated.

上記画素特定部は、画素を表すRGB値のうちのR値の反転値に基づいて特徴値を算出し、特徴値と所定値のしきい値との比較結果に応じて画素の特定を行うとしてもよい。当該構成によれば、赤目画素としての特徴が表れるR値の反転値に基づいて特徴値を算出するため、特徴値に応じて赤目画素を正確に特定することができる。
より具体的には、上記画素特定部は、上記反転値に画素のグレー値を加えた値を特徴値とする。あるいは上記画素特定部は、上記RGB値の各々に上記反転値を加えるとともに、反転値を加算後のRGBに基づいて算出した輝度値を特徴値とする。このような特徴値は、赤目画素と赤目画素以外の画素とで大きく異なるため、かかる特徴値としきい値とを比較することで、赤目画素を正確に特定することができる。
The pixel specifying unit calculates a feature value based on an inverted value of the R value of the RGB values representing the pixel, and specifies the pixel according to a comparison result between the feature value and a predetermined threshold value. Also good. According to this configuration, since the feature value is calculated based on the inverted value of the R value in which the feature as the red-eye pixel appears, the red-eye pixel can be accurately identified according to the feature value.
More specifically, the pixel specifying unit uses a value obtained by adding a gray value of a pixel to the inversion value as a feature value. Alternatively, the pixel specifying unit adds the inverted value to each of the RGB values, and uses a luminance value calculated based on RGB after adding the inverted value as a feature value. Since such feature values differ greatly between red-eye pixels and pixels other than red-eye pixels, the red-eye pixels can be accurately identified by comparing such feature values with threshold values.

上記画素特定部および赤目補正部は、ラスター単位で画像データを読み込むことにより、上記画素の特定および特定した画素への赤目補正の実行をラスター単位の画像データ毎に繰り返すとしてもよい。当該構成によれば、上記画素の特定および赤目補正の際に画像データ保持のために用いるメモリー領域が小さい環境(例えば、プリンターのファームウェア)においても上記画素の特定および赤目補正を的確に行なうことができる。   The pixel specifying unit and the red eye correcting unit may read the image data in a raster unit, and repeat the specification of the pixel and the red eye correction to the specified pixel for each image data in the raster unit. According to this configuration, the pixel specification and the red-eye correction can be accurately performed even in an environment (for example, printer firmware) in which the memory area used for holding the image data is small when the pixel is specified and the red-eye correction is performed. it can.

本発明の技術的思想は、画像処理装置以外によっても実現可能である。例えば、画像処理装置の各部が実行する処理工程を備える方法の発明や、画像処理装置の各部が実行する処理を装置(印刷装置や、コンピューターや、撮像装置等)に実行させる画像処理プログラムの発明をも把握可能である。さらに、取得した画像データが表す画像内から赤目領域を含む補正候補領域を検出する領域検出部と、上記検出された補正候補領域に含まれる画素毎に所定の特徴値を算出するとともに、当該特徴値に応じて上記補正候補領域に含まれる画素のうち赤目補正の対象とする画素を特定する画素特定部と、上記特定された画素を対象として上記赤目補正を実行する赤目補正部と、上記赤目補正がなされた後の画像データに基づいて印刷を実行する印刷部とを備える印刷装置を一つの発明として捉えることも可能である。   The technical idea of the present invention can be realized by means other than an image processing apparatus. For example, an invention of a method including processing steps executed by each unit of an image processing apparatus, or an invention of an image processing program that causes a device (printing device, computer, imaging device, etc.) to execute a process executed by each unit of the image processing device Can also be grasped. Further, an area detection unit that detects a correction candidate area including a red-eye area from the image represented by the acquired image data, calculates a predetermined feature value for each pixel included in the detected correction candidate area, and the feature A pixel identifying unit that identifies a pixel that is a target of red-eye correction among pixels included in the correction candidate region according to a value; a red-eye correcting unit that performs the red-eye correction on the identified pixel; and the red-eye A printing apparatus that includes a printing unit that performs printing based on the image data after the correction is performed can also be regarded as one invention.

プリンターの構成等を概略的に示したブロック図である。FIG. 2 is a block diagram schematically illustrating a configuration of a printer. プリンターが実行する画像補正処理を示したフローチャートである。6 is a flowchart illustrating image correction processing executed by a printer. 赤目領域を含む補正候補領域の検出結果の一例を示した図である。It is the figure which showed an example of the detection result of the correction | amendment candidate area | region containing a red-eye area | region. 前処理の詳細の一例を示したフローチャートである。It is the flowchart which showed an example of the detail of preprocessing. 前処理の詳細の他の例を示したフローチャートである。It is the flowchart which showed the other example of the detail of pre-processing. 赤目領域を通過する水平線上の画素のR値および肌領域を通過する水平線上の画素のR値を示した図である。It is the figure which showed R value of the pixel on the horizontal line which passes a red-eye area | region, and R value of the pixel on the horizontal line which passes a skin area | region. 赤目領域を通過する水平線上の画素の特徴値および肌領域を通過する水平線上の画素の特徴値を示した図である。It is the figure which showed the feature value of the pixel on the horizontal line which passes a red-eye area | region, and the feature value of the pixel on the horizontal line which passes a skin area | region. 赤目領域を通過する水平線上の画素の輝度値および肌領域を通過する水平線上の画素の輝度値を示した図である。It is the figure which showed the luminance value of the pixel on the horizontal line which passes a red-eye area | region, and the luminance value of the pixel on the horizontal line which passes a skin area | region. 赤目領域を通過する水平線上の画素の特徴値および肌領域を通過する水平線上の画素の特徴値を示した図である。It is the figure which showed the feature value of the pixel on the horizontal line which passes a red-eye area | region, and the feature value of the pixel on the horizontal line which passes a skin area | region. 赤目補正の詳細を示したフローチャートである。5 is a flowchart showing details of red-eye correction. RGB毎のヒストグラムの一例を示した図である。It is the figure which showed an example of the histogram for every RGB. 補正係数決定テーブルの一例を示した図である。It is the figure which showed an example of the correction coefficient determination table. 距離係数決定テーブルの一例を示した図である。It is the figure which showed an example of the distance coefficient determination table.

1.画像処理装置の概略構成
図1は、本発明の画像処理装置および印刷装置の一例に該当するプリンター10の構成等を概略的に示している。プリンター10は、CPU11と、ROMやRAMからなる内部メモリー12と、汎用インターフェース(GIF)13と、ボタンやタッチパネルにより構成された操作部14と、液晶ディスプレーにより構成された表示部15と、プリントエンジン16とを備える。これら各要素11〜16は、バス17によって通信を実現している。CPU11は、ROMに記憶された所定のプログラム(画像処理プログラム等)をRAMに展開してプログラムに従った演算処理を行なう。
1. FIG. 1 schematically shows the configuration of a printer 10 corresponding to an example of an image processing apparatus and a printing apparatus of the present invention. The printer 10 includes a CPU 11, an internal memory 12 including a ROM and a RAM, a general-purpose interface (GIF) 13, an operation unit 14 configured with buttons and a touch panel, a display unit 15 configured with a liquid crystal display, and a print engine. 16. Each of these elements 11 to 16 realizes communication by a bus 17. The CPU 11 expands a predetermined program (such as an image processing program) stored in the ROM to the RAM and performs arithmetic processing according to the program.

GIF13は、例えばUSB規格に準じたインターフェースを提供するものであり、デジタルスチルカメラ(DSC)20やコンピューター30と接続可能である。プリンター10は、GIF13を介して接続したDSC20やコンピューター30から、印刷対象となる画像を表した画像データを入力することができる。さらにGIF13は、図示しないカードスロットと接続したカードインターフェースの機能も備えており、カードスロットに挿入された所定の記憶メディア(メモリーカード)40から当該メモリーカード40に記憶されている画像データを入力することができる。   The GIF 13 provides an interface conforming to the USB standard, for example, and can be connected to a digital still camera (DSC) 20 or a computer 30. The printer 10 can input image data representing an image to be printed from the DSC 20 or the computer 30 connected via the GIF 13. The GIF 13 also has a function of a card interface connected to a card slot (not shown), and inputs image data stored in the memory card 40 from a predetermined storage medium (memory card) 40 inserted in the card slot. be able to.

プリントエンジン16は、印刷データに基づき印刷を行う印刷機構であり、例えば、インクジェット方式の印刷機構を採用する。むろん、プリンター10はインクジェット方式の機種に限られず、レーザープリンターやLEDプリンター等であってもよい。またプリンター10は、コンシューマ向けの印刷装置であってもよいし、DPE向けの業務用印刷装置(いわゆるミニラボ機)であってもよいし、或いは、印刷機能以外にもコピー機能やスキャナ機能など多種の機能を備えたいわゆる複合機であってもよい。   The print engine 16 is a printing mechanism that performs printing based on print data, and employs, for example, an inkjet printing mechanism. Of course, the printer 10 is not limited to the ink jet type, and may be a laser printer, an LED printer, or the like. The printer 10 may be a printing device for consumers, a business printing device for DPE (a so-called minilab machine), or various functions such as a copy function and a scanner function in addition to the print function. A so-called multifunction machine having the above functions may be used.

図1では、内部メモリー12内にプログラムによって実現される機能ブロックとしての、画像補正部121、表示処理部122、印刷処理部123等を示している。画像補正部121は、プログラムモジュールとして、領域検出部121aと、画素特定部121bと、赤目補正部121cとを有している。これら各部の機能については後述する。表示処理部122は、表示部15を制御して、表示部15の画面にユーザーインターフェース(UI)やメッセージやサムネイル画像など所定の表示を行なわせるディスプレードライバーである。印刷処理部123は、印刷対象の画像データ(例えば、画像補正部121による画像補正が行われた後の画像データ)に対して色変換処理やハーフトーン処理などの所定処理を適宜施すことにより印刷データを生成し、プリントエンジン16を駆動制御して印刷データに基づいて画像の印刷を実行させるためのプリンタードライバーである。   FIG. 1 shows an image correction unit 121, a display processing unit 122, a print processing unit 123, and the like as functional blocks realized by a program in the internal memory 12. The image correction unit 121 includes a region detection unit 121a, a pixel specifying unit 121b, and a red-eye correction unit 121c as program modules. The functions of these units will be described later. The display processing unit 122 is a display driver that controls the display unit 15 to display a user interface (UI), a message, a thumbnail image, or the like on the screen of the display unit 15. The print processing unit 123 performs printing by appropriately performing predetermined processing such as color conversion processing and halftone processing on image data to be printed (for example, image data after image correction performed by the image correction unit 121). This is a printer driver for generating data and driving the print engine 16 to print an image based on the print data.

2.画像補正処理
図2は、プリンター10が実行する画像補正処理をフローチャートにより示している。当該処理は、主に画像補正部121の機能によって実現される。
ステップS(以下、ステップの表記は省略。)100では、画像補正部121は、処理対象となる一枚の画像を表した画像データを、上記DSC20やコンピューター30やメモリーカード40等から取得し、内部メモリー12に読み込む。画像データは、複数の画素によって画像を表現しており、各画素は、例えばRGB(レッド、グリーン、ブルー)各チャネルの階調(例えば0〜255の256階調)の組み合わせで表現されている。画像データは、メモリーカード40等に記録されている段階で圧縮されていてもよいし、他の表色系で各画素の色が表現されていてもよい。これらの場合、画像補正部121は、画像データの展開や表色系の変換を実行して、所要の表色系による画像データを取得する。本実施形態では、S100で取得する画像データは、少なくとも人物の顔(特に目)を含む写真画像であり、かつフラッシュ撮影をしたことによって人物の目が「赤目」の状態となっている写真画像であるとする。
2. Image Correction Processing FIG. 2 is a flowchart showing image correction processing executed by the printer 10. This process is mainly realized by the function of the image correction unit 121.
In step S (hereinafter, step notation is omitted) 100, the image correction unit 121 acquires image data representing one image to be processed from the DSC 20, the computer 30, the memory card 40, and the like. Read into the internal memory 12. The image data expresses an image by a plurality of pixels, and each pixel is expressed by a combination of gradations (for example, 256 gradations of 0 to 255) of RGB (red, green, blue) channels. . The image data may be compressed when recorded in the memory card 40 or the like, or the color of each pixel may be expressed in another color system. In these cases, the image correction unit 121 executes image data expansion and color system conversion to acquire image data in a required color system. In the present embodiment, the image data acquired in S100 is a photographic image including at least a person's face (especially eyes), and the person's eyes are in a “red-eye” state due to flash photography. Suppose that

S110では、領域検出部121aは、S100で取得された画像データが表す画像内から赤目領域A1を含む補正候補領域A2を検出する。この場合、まず領域検出部121aは画像内から赤目領域A1の検出を行なう。赤目領域とは、赤目の特徴的な色のパターンと合致する概ね円形の画像領域である。領域検出部121aは、赤目領域の検出を公知の手法(例えば、特開2007‐156694号公報に記載された手法)により行なう。赤目領域A1の検出後、領域検出部121aは、赤目領域A1を含む補正候補領域A2を画像データ上において設定する。例えば、領域検出部121aは、1つの赤目領域A1の全体を含む矩形を画像データ上に設定し、当該矩形を補正候補領域A2とする。   In S110, the area detection unit 121a detects a correction candidate area A2 including the red-eye area A1 from the image represented by the image data acquired in S100. In this case, the area detection unit 121a first detects the red-eye area A1 from the image. The red eye region is a generally circular image region that matches the characteristic color pattern of the red eye. The region detection unit 121a detects a red-eye region by a known method (for example, a method described in Japanese Patent Application Laid-Open No. 2007-156694). After detecting the red-eye area A1, the area detection unit 121a sets a correction candidate area A2 including the red-eye area A1 on the image data. For example, the area detection unit 121a sets a rectangle including the entire red eye area A1 on the image data, and sets the rectangle as the correction candidate area A2.

図3は、S110における検出結果の一例を示す図である。図3の例では、画像データD内に人物P1が含まれており、人物P1の左右の目の一部がそれぞれ赤目領域A1,A1として検出されている。また、赤目領域A1,A1毎に補正候補領域A2,A2が設定されている。例えば、赤目領域A1に対する補正候補領域A2の大きさの比率は予め決められており、補正候補領域A2はその重心に赤目領域A1の重心が略一致するように設定される。領域検出部121aは、補正候補領域A2の検出結果として、画像データ上における補正候補領域A2毎の位置情報(例えば、矩形の左上の頂点の座標)およびサイズ情報(縦幅および横幅)を取得し保存する。なお、補正候補領域A2の形状は矩形に限られず、円形などであってもよい。   FIG. 3 is a diagram illustrating an example of the detection result in S110. In the example of FIG. 3, the person P1 is included in the image data D, and a part of the left and right eyes of the person P1 are detected as red-eye areas A1 and A1, respectively. Further, correction candidate areas A2 and A2 are set for each of the red-eye areas A1 and A1. For example, the ratio of the size of the correction candidate area A2 to the red eye area A1 is determined in advance, and the correction candidate area A2 is set so that the center of gravity of the red eye area A1 substantially coincides with the center of gravity. The area detection unit 121a acquires position information (for example, coordinates of the upper left vertex of the rectangle) and size information (vertical width and horizontal width) for each correction candidate area A2 on the image data as a detection result of the correction candidate area A2. save. The shape of the correction candidate area A2 is not limited to a rectangle, but may be a circle.

S120では、画像補正部121は、S100で取得した画像データを構成する各ラスターのうち一本のラスターを処理対象ラスターとして選択し、内部メモリー12における所定のバッファに記憶する。ラスターとは、画像データにおける水平方向(x方向)の画素行である。
S130では、画像補正部121は、直近のS120で選択した処理対象ラスターを構成する画素のうち一つの画素を注目画素として設定する。
In S <b> 120, the image correction unit 121 selects one raster among the rasters constituting the image data acquired in S <b> 100 as a processing target raster and stores it in a predetermined buffer in the internal memory 12. A raster is a pixel row in the horizontal direction (x direction) in image data.
In S <b> 130, the image correction unit 121 sets one pixel among the pixels constituting the processing target raster selected in the latest S <b> 120 as the target pixel.

S140では、画素特定部121bは、直近のS130で設定された注目画素がS110で検出された補正候補領域A2に属するか否かを判定し、注目画素がいずれかの補正候補領域A2に属すると判定した場合にはS150に進み、注目画素がいずれの補正候補領域A2にも属さないと判定した場合にはS180に進む。注目画素が補正候補領域A2に属するか否かは、画像データ上における注目画素の座標と、S110で補正候補領域A2毎に保存された位置情報およびサイズ情報とに基づいて判定する。   In S140, the pixel specifying unit 121b determines whether or not the target pixel set in the latest S130 belongs to the correction candidate area A2 detected in S110, and if the target pixel belongs to any correction candidate area A2. If it is determined, the process proceeds to S150, and if it is determined that the target pixel does not belong to any correction candidate area A2, the process proceeds to S180. Whether or not the pixel of interest belongs to the correction candidate region A2 is determined based on the coordinates of the pixel of interest on the image data and the position information and size information stored for each correction candidate region A2 in S110.

なお、S120では処理対象ラスターを一つ選択しているが、ラスターによってはそのラスターを構成する画素のいずれもが補正候補領域A2に属さないものもある。このようなラスターについては画素毎にS140の判定を繰り返し行なうのは無駄である。そのため、画素特定部121bは、S120で選択された処理対象ラスターにおける最初の注目画素についてS140の判定を行う場合には、画像データにおける垂直方向(y方向)での注目画素の座標と、y方向における補正候補領域A2の存在範囲とを比較し、注目画素がこのような存在範囲に属さない場合には、共通のラスターに属する他の画素も補正候補領域A2に属さないと判定してS190に進む(図2における鎖線)としてもよい。   In S120, one raster to be processed is selected. However, depending on the raster, none of the pixels constituting the raster may belong to the correction candidate area A2. For such a raster, it is useless to repeat the determination of S140 for each pixel. Therefore, when the pixel specifying unit 121b performs the determination in S140 for the first target pixel in the processing target raster selected in S120, the pixel specifying unit coordinates in the vertical direction (y direction) in the image data and the y direction Is compared with the existence range of the correction candidate area A2, and if the target pixel does not belong to such an existence range, it is determined that other pixels belonging to the common raster do not belong to the correction candidate area A2, and the process proceeds to S190. It is good also as advancing (dashed line in FIG. 2).

S150では、画素特定部121bは、直近のS130で設定された注目画素について所定の前処理を行なう。前処理とは、注目画素が赤目に該当する画素(赤目画素)であるか否かの判定(S160)を行うに先立って、その判定結果の正確性をより高めるために行なう処理である。画素特定部121bは、前処理として、注目画素を表すRGB値のうちのR値の反転値に基づいて特徴値を算出する。   In S150, the pixel specifying unit 121b performs predetermined preprocessing on the target pixel set in the latest S130. Pre-processing is processing performed to further increase the accuracy of the determination result prior to determining whether the target pixel is a pixel corresponding to red eyes (red-eye pixel) (S160). As the preprocessing, the pixel specifying unit 121b calculates a feature value based on the inverted value of the R value of the RGB values representing the target pixel.

図4は、前処理の詳細の一例をフローチャートにより示している。
S151では、画素特定部121bは、注目画素のR値の反転値Rreを求める。反転値Rre=255−Rである。S152では、画素特定部121bは、反転値Rreに注目画素のグレー値Jを加算することにより演算値Rcを得る。グレー値とは、単純には、注目画素のRGBに基づいて算出した輝度値であってもよいし、注目画素について所定のフォトレタッチ用のアプリケーションによって算出したグレー値であってもよい。輝度値は、RGB各成分の公知の重み付け加算により算出可能である。S153では、画素特定部121bは、このように得た演算値Rc(=Rre+J)を注目画素の特徴値として保存する。
FIG. 4 is a flowchart showing an example of details of the preprocessing.
In S151, the pixel specifying unit 121b obtains an inverted value Rre of the R value of the target pixel. The inversion value Rre = 255−R. In S152, the pixel specifying unit 121b obtains the calculated value Rc by adding the gray value J of the target pixel to the inverted value Rre. The gray value may simply be a luminance value calculated based on RGB of the target pixel, or may be a gray value calculated by a predetermined photo retouching application for the target pixel. The luminance value can be calculated by known weighted addition of RGB components. In S153, the pixel specifying unit 121b stores the calculated value Rc (= Rre + J) thus obtained as the feature value of the target pixel.

図5は、図4とは異なる前処理の詳細の一例をフローチャートにより示している。
S155では、画素特定部121bは、注目画素のR値の反転値Rreを求める。S156では、画素特定部121bは、注目画素のRGBそれぞれに反転値Rreを加算する。つまり、演算値(R+Rre,G+Rre,B+Rre)を得る。S157では、画素特定部121bは、これら演算値としての3成分(R+Rre,G+Rre,B+Rre)をRGBの各成分とみなして上記重み付け加算により輝度値としてのYcを算出し、この輝度値Ycを注目画素の特徴値として保存する。
FIG. 5 is a flowchart showing an example of details of pre-processing different from FIG.
In S155, the pixel specifying unit 121b obtains an inverted value Rre of the R value of the target pixel. In S156, the pixel specifying unit 121b adds the inverted value Rre to each of RGB of the target pixel. That is, the operation values (R + Rre, G + Rre, B + Rre) are obtained. In S157, the pixel specifying unit 121b regards the three components (R + Rre, G + Rre, B + Rre) as the calculated values as RGB components, calculates Yc as the luminance value by the above weighted addition, and pays attention to the luminance value Yc. Save as pixel feature values.

S160では、画素特定部121bは、直近のS150で算出した特徴値に応じて注目画素が赤目画素であるか否かを判定する。すなわち、画素特定部121bは、後述の赤目補正(S170)の対象となる画素を特定する。具体的には、画素特定部121bは、S150で特徴値として演算値Rcを算出した場合には、演算値Rcと、演算値Rcとの比較のために予め内部メモリー12等に保存してあるしきい値TH1とを比較し、演算値Rcがしきい値TH1以下である場合に、注目画素が赤目画素であると判定し(Yes)、S170に進む。また、画素特定部121bは、S150で特徴値として輝度値Ycを算出した場合には、輝度値Ycと、輝度値Ycとの比較のために予め内部メモリー12等に保存してあるしきい値TH2とを比較し、輝度値Ycがしきい値TH2以下である場合に、注目画素が赤目画素であると判定し(Yes)、S170に進む。一方、画素特定部121bは、特徴値が比較対象のしきい値を上回る場合には“No”の判定をし、S170をスキップしてS180の判定に進む。   In S160, the pixel specifying unit 121b determines whether the target pixel is a red-eye pixel according to the feature value calculated in the latest S150. That is, the pixel specifying unit 121b specifies a pixel that is a target of red-eye correction (S170) described later. Specifically, when the calculated value Rc is calculated as the feature value in S150, the pixel specifying unit 121b is stored in advance in the internal memory 12 or the like for comparison between the calculated value Rc and the calculated value Rc. The threshold value TH1 is compared, and when the calculated value Rc is equal to or less than the threshold value TH1, it is determined that the target pixel is a red-eye pixel (Yes), and the process proceeds to S170. In addition, when the pixel specifying unit 121b calculates the luminance value Yc as the feature value in S150, the threshold value stored in the internal memory 12 or the like in advance for comparison between the luminance value Yc and the luminance value Yc. When the luminance value Yc is equal to or less than the threshold value TH2, it is determined that the pixel of interest is a red-eye pixel (Yes), and the process proceeds to S170. On the other hand, when the feature value exceeds the threshold value to be compared, the pixel specifying unit 121b determines “No”, skips S170, and proceeds to determination of S180.

図6,7は、ある画像データにおける補正候補領域A2内の各画素についてのR値と特徴値(演算値Rc)とを例示している。図6では、補正候補領域A2内の赤目領域A1を通過する水平線H1上の各画素についてのR値(実線)および、補正候補領域A2内の目よりも下の肌領域を通過する水平線H2上の各画素についてのR値(一点鎖線)をグラフに示している。一方、図7では、同じ水平線H1上の各画素についての演算値Rc(実線)および水平線H2上の各画素についての演算値Rc(一点鎖線)をグラフに示している。図6,7の各グラフでは、横軸が補正候補領域A2における水平方向の画素位置を示し、縦軸が階調値を示している。また、図6,7では、眼球の瞳孔における赤目(ハイライト部分を除いた範囲)に対応する範囲を鎖線の矩形で囲って示している。   6 and 7 exemplify the R value and the feature value (calculated value Rc) for each pixel in the correction candidate area A2 in certain image data. In FIG. 6, the R value (solid line) for each pixel on the horizontal line H1 passing through the red-eye area A1 in the correction candidate area A2 and the horizontal line H2 passing through the skin area below the eyes in the correction candidate area A2 The R value (dashed line) for each pixel is shown in the graph. On the other hand, in FIG. 7, the calculated value Rc (solid line) for each pixel on the same horizontal line H1 and the calculated value Rc (one-dot chain line) for each pixel on the horizontal line H2 are shown in a graph. 6 and 7, the horizontal axis indicates the pixel position in the horizontal direction in the correction candidate area A2, and the vertical axis indicates the gradation value. 6 and 7, the range corresponding to the red eye (the range excluding the highlight portion) in the pupil of the eyeball is surrounded by a chain line rectangle.

図6から判るように、水平線H1における画素のうち赤目に対応する画素のR値はある程度高めであるが、水平線H2における肌に対応する画素等のR値も同じ様に高めである。従って、補正候補領域A2の各画素についてそれらのR値を単純なしきい値で分離しても、赤目画素と赤目画素以外の画素とを正確に分けられない。一方、図7から判るように、赤目に対応する画素の演算値Rcは、他の黒目や白目や肌領域に対応する画素の演算値Rcと比較しても、かなり下側に突出している。従って、図7において二点鎖線で示したような階調レベルに上記しきい値TH1を設定しておけば、上記S160において、注目画素が赤目画素であるか否かを正確に判定することができる。   As can be seen from FIG. 6, the R value of the pixel corresponding to the red eye among the pixels on the horizontal line H1 is somewhat high, but the R value of the pixel corresponding to the skin on the horizontal line H2 is also high. Therefore, even if the R value of each pixel in the correction candidate area A2 is separated with a simple threshold, the red-eye pixel and the pixel other than the red-eye pixel cannot be accurately separated. On the other hand, as can be seen from FIG. 7, the calculated value Rc of the pixel corresponding to the red eye protrudes considerably lower than the calculated value Rc of the pixel corresponding to other black eyes, white eyes, and skin areas. Therefore, if the threshold value TH1 is set to the gradation level as indicated by the two-dot chain line in FIG. 7, it is possible to accurately determine whether or not the target pixel is a red-eye pixel in S160. it can.

図8,9は、ある画像データにおける補正候補領域A2内の各画素についての輝度値Yと特徴値(輝度値Yc)とを例示している。図8では、補正候補領域A2内の赤目領域A1を通過する水平線H1上の各画素についての輝度値Y(実線)および、補正候補領域A2内の目よりも下の肌領域を通過する水平線H2上の各画素についての輝度値Y(一点鎖線)をグラフに示している。一方、図9では、同じ水平線H1上の各画素についての輝度値Yc(実線)および水平線H2上の各画素についての輝度値Yc(一点鎖線)をグラフに示している。図8,9の各グラフも図6,7と同様に、横軸が補正候補領域A2における水平方向の画素位置を示し、縦軸が階調値を示し、眼球の瞳孔における赤目(ハイライト部分を除いた範囲)に対応する範囲を鎖線の矩形で囲って示している。   8 and 9 illustrate the luminance value Y and the characteristic value (luminance value Yc) for each pixel in the correction candidate area A2 in certain image data. In FIG. 8, the luminance value Y (solid line) for each pixel on the horizontal line H1 that passes through the red-eye area A1 in the correction candidate area A2 and the horizontal line H2 that passes through the skin area below the eyes in the correction candidate area A2 The luminance value Y (one-dot chain line) for each of the upper pixels is shown in the graph. On the other hand, in FIG. 9, the luminance value Yc (solid line) for each pixel on the same horizontal line H1 and the luminance value Yc (one-dot chain line) for each pixel on the horizontal line H2 are shown in a graph. 8 and 9, as in FIGS. 6 and 7, the horizontal axis indicates the horizontal pixel position in the correction candidate area A2, the vertical axis indicates the gradation value, and the red eye (highlighted portion) in the pupil of the eyeball. The range corresponding to (excluding the range) is surrounded by a chain-line rectangle.

図8から判るように、水平線H1における画素のうち赤目の範囲に限らず黒目の範囲に対応する画素等でも輝度値Yは低い値を取る。そのため、補正候補領域A2の各画素についてそれらの輝度値Yを単純なしきい値(例えば、図8に示したしきい値TH3)で分離しても、赤目画素と赤目画素以外の画素とを正確に分けられない。一方、図9から判るように、赤目に対応する画素の輝度値Ycは、他の黒目や白目や肌領域に対応する画素の輝度値Ycと比較しても、かなり下側に突出している。従って、図9において二点鎖線で示したような階調レベルに上記しきい値TH2を設定しておけば、上記S160において、注目画素が赤目画素であるか否かを正確に判定することができる。   As can be seen from FIG. 8, the luminance value Y takes a low value not only in the red-eye range but also in the pixel corresponding to the black-eye range among the pixels on the horizontal line H1. Therefore, even if the luminance value Y of each pixel in the correction candidate area A2 is separated by a simple threshold value (for example, the threshold value TH3 shown in FIG. 8), the red-eye pixel and the pixels other than the red-eye pixel are accurately distinguished. Cannot be divided into. On the other hand, as can be seen from FIG. 9, the luminance value Yc of the pixel corresponding to the red eye protrudes considerably downward as compared with the luminance value Yc of the pixel corresponding to the other black eyes, white eyes, and skin regions. Therefore, if the threshold value TH2 is set to the gradation level as indicated by the two-dot chain line in FIG. 9, it is possible to accurately determine whether or not the target pixel is a red-eye pixel in S160. it can.

画素特定部121bは、補正候補領域A2の全ての画素について、S150,S160を繰り返すことにより演算値Rcを算出してしきい値TH1と比較するか、或いは、当該全ての画素について、S150,S160を繰り返すことにより輝度値Ycを算出してしきい値TH2と比較する。ただし画像特定部121bは、当該全ての画素についてそれぞれ、演算値Rcおよび輝度値Ycを算出し、演算値Rcがしきい値TH1以下かつ輝度値Ycがしきい値TH2以下となった画素を、赤目補正(S170)の対象として特定してもよい。   The pixel specifying unit 121b calculates the calculated value Rc by repeating S150 and S160 for all the pixels in the correction candidate area A2 and compares the calculated value Rc with the threshold value TH1, or for all the pixels, S150 and S160. Is repeated to calculate the luminance value Yc and compare it with the threshold value TH2. However, the image specifying unit 121b calculates the calculated value Rc and the luminance value Yc for all the pixels, and determines the pixels whose calculated value Rc is equal to or lower than the threshold value TH1 and whose luminance value Yc is equal to or lower than the threshold value TH2. You may specify as an object of red eye correction (S170).

S170では、赤目補正部121cは、直近のS160で赤目画素と特定(判定)された注目画素について赤目補正を実行する。赤目補正とは、概略的には、注目画素の彩度を算出し、算出した彩度に応じて注目画素の補正度合を決定し、決定した補正度合に基づいて色情報(特にR値)が低下するように注目画素の補正を行なう処理を言う。   In S170, the red-eye correction unit 121c performs red-eye correction on the target pixel identified (determined) as a red-eye pixel in the latest S160. In general, the red-eye correction calculates the saturation of the target pixel, determines the correction degree of the target pixel according to the calculated saturation, and the color information (particularly, the R value) is determined based on the determined correction degree. This refers to a process of correcting the target pixel so as to decrease.

図10は、赤目補正の詳細の一例をフローチャートにより示している。
S171では、赤目補正部121cは、注目画素を含む画像領域におけるカラーバランスを調整することにより注目画素のRGB値を修正する。カラーバランス調整とは、当該画像領域におけるRGBの分布のずれを小さくする処理を言い、カラーバランス調整を行なうことで、例えば画像が赤かぶりであった場合に、当該赤かぶりを低減させることができる。カラーバランス調整の手法は特に限られないが、例えば、赤目補正部121cは、注目画素が属するラスター(直近のS120で選択された処理対象ラスター)を構成する全画素を用いて、RGB毎のヒストグラム(度数分布)を生成する。
FIG. 10 is a flowchart showing an example of details of red-eye correction.
In S171, the red-eye correction unit 121c corrects the RGB value of the target pixel by adjusting the color balance in the image area including the target pixel. The color balance adjustment is a process for reducing the deviation of the RGB distribution in the image area. By performing the color balance adjustment, for example, when the image has a red fog, the red fog can be reduced. . The method of color balance adjustment is not particularly limited. For example, the red-eye correction unit 121c uses a histogram for each RGB by using all the pixels constituting the raster to which the pixel of interest belongs (the processing target raster selected in the latest S120). (Frequency distribution) is generated.

図11は、S171のカラーバランス調整の過程で生成されるRGB毎のヒストグラムを例示している。赤目補正部121cは、RGBの各ヒストグラムの最大値Rmax,Gmax,Bmaxから、ヒストグラム生成に用いられた画素の所定パーセント(例えば10パーセント)に対応する画素数分だけ低階調側にある値を、調整基準値Rs,Gs,Bsとして認定する。そして、調整基準値RsGsBsの成分間の相対的な階調差(例えば、ΔGR=Gs−Rs、ΔGB=Gs−Bs)に基づいてRGBそれぞれに対するカラーバランスの調整量を求め、調整量に基づいて上記ヒストグラムの生成に用いられた各画素のRGB値を修正する。この結果、注目画素はもちろん、当該注目画素が属するラスターを構成する各画素のRGB値が修正され、当該ラスターにおけるカラーバランスが整えられる。赤目補正部121cは、各画素についてのカラーバランス調整後(修正後)のRGB値(修正後R´G´B´)を保存する。   FIG. 11 illustrates a histogram for each RGB generated in the process of color balance adjustment in S171. The red-eye correction unit 121c calculates a value on the lower gradation side by the number of pixels corresponding to a predetermined percentage (for example, 10%) of the pixels used for generating the histogram from the maximum values Rmax, Gmax, and Bmax of the RGB histograms. These are recognized as adjustment reference values Rs, Gs, and Bs. Then, the color balance adjustment amount for each of RGB is obtained based on the relative gradation difference (for example, ΔGR = Gs−Rs, ΔGB = Gs−Bs) between the components of the adjustment reference value RsGsBs, and based on the adjustment amount. The RGB value of each pixel used for generating the histogram is corrected. As a result, the RGB value of each pixel constituting the raster to which the pixel of interest belongs as well as the pixel of interest is corrected, and the color balance in the raster is adjusted. The red-eye correction unit 121c stores the RGB values (corrected R′G′B ′) after color balance adjustment (corrected) for each pixel.

本実施形態では、少なくとも補正候補領域A2に属さない画素には赤目補正は実行されない。そのため、当該S171では、注目画素が属するラスターを構成する画素のうち補正候補領域A2に属する画素に対してのみ、上記調整量に基づく修正を行なうとしてもよい。また、図10の赤目補正のフローチャートは、基本的に注目画素単位で繰り返し実行されるが、S171のカラーバランス調整はラスターを共通としている各画素についてまとめて行なわれる。そのため、一つの注目画素が上記S160で赤目画素と判定された後のS170(S171)で、その注目画素が属する処理対象ラスターに関してカラーバランス調整を行なった後は、同じ処理対象ラスターに属する他の画素が注目画素となって上記S160で赤目画素と判定された場合であってもS171のカラーバランス調整は行わず、既に行なわれたカラーバランス調整の結果(そのときの注目画素に関して既に保存されている修正後R´G´B´)を用いてS172以下の処理を行なう。   In the present embodiment, red-eye correction is not performed on pixels that do not belong to at least the correction candidate area A2. Therefore, in S171, the correction based on the adjustment amount may be performed only for the pixels belonging to the correction candidate area A2 among the pixels constituting the raster to which the target pixel belongs. The red-eye correction flowchart of FIG. 10 is basically repeatedly executed for each pixel of interest, but the color balance adjustment in S171 is performed collectively for each pixel having a common raster. For this reason, after performing color balance adjustment for the processing target raster to which the target pixel belongs in S170 (S171) after the one target pixel is determined to be a red-eye pixel in S160, other target pixels belonging to the same processing target raster are included. Even if the pixel is the pixel of interest and is determined to be a red-eye pixel in S160, the color balance adjustment in S171 is not performed, and the result of the color balance adjustment that has already been performed (the pixel of interest at that time has already been saved. The process after S172 is performed using the corrected R′G′B ′).

S172では、赤目補正部121cは、注目画素の修正後R´G´B´に基づいて上記重み付け加算により輝度値Y´を算出するとともに、当該修正後R´G´B´に基づいて彩度Sを算出する。彩度Sは、修正後R´G´B´の各成分のうち最大値をImax、最小値をIminとした場合、彩度S=(Imax−Imin)・255/Imaxによって求めることができる。
S173では、赤目補正部121cは、彩度Sに応じて補正度合を求める。
In S172, the red-eye correction unit 121c calculates the luminance value Y ′ by the weighted addition based on the corrected R′G′B ′ of the target pixel, and the saturation based on the corrected R′G′B ′. S is calculated. Saturation S can be obtained from saturation S = (Imax−Imin) · 255 / Imax, where Imax is the maximum value and Imin is the minimum value of each component of R′G′B ′ after correction.
In S173, the red-eye correction unit 121c calculates the correction degree according to the saturation S.

図12は、S173で用いる補正係数決定テーブルT1を例示している。補正係数決定テーブルT1は、横軸を彩度S、縦軸を補正係数(0.0〜1.0)Csとした関数である。補正係数Cs=1.0は、補正度合が最小である(補正しない)ことを意味し、補正係数Csが小さくなるほどに補正度合は大きくなる。本実施形態では、補正係数決定テーブルT1が予め内部メモリー12に保存されており(図1参照)、赤目補正部121cは、補正係数決定テーブルT1を参照することで、彩度Sに応じた補正係数Cs(補正度合)を決定する。補正係数決定テーブルT1は、入力値(彩度S)が高くなるほど補正係数Csを小さくする特性を有しており、具体的には、所定の彩度Sr以上になると、それまで高かった補正係数Csが急激に低下する特性を有している。彩度Srは、例えば、予め実験等で求められた赤目画素の彩度の最低値などに該当する。   FIG. 12 illustrates the correction coefficient determination table T1 used in S173. The correction coefficient determination table T1 is a function in which the horizontal axis represents saturation S and the vertical axis represents correction coefficient (0.0 to 1.0) Cs. The correction coefficient Cs = 1.0 means that the correction degree is minimum (not corrected), and the correction degree increases as the correction coefficient Cs decreases. In this embodiment, the correction coefficient determination table T1 is stored in advance in the internal memory 12 (see FIG. 1), and the red-eye correction unit 121c refers to the correction coefficient determination table T1 to correct according to the saturation S. The coefficient Cs (correction degree) is determined. The correction coefficient determination table T1 has a characteristic that the correction coefficient Cs decreases as the input value (saturation S) increases. Specifically, when the input value (saturation S) exceeds a predetermined saturation Sr, the correction coefficient that has been high until then is obtained. It has the characteristic that Cs decreases rapidly. The saturation Sr corresponds to, for example, the minimum saturation value of red-eye pixels obtained in advance through experiments or the like.

S174では、赤目補正部121cは、修正後R´G´B´の各成分のうち、修正後R´を、上記決定した補正度合に応じて補正する。つまり、修正後R´に上記決定した補正係数Csを乗算する(R´×Cs)ことにより、補正後R''を算出する。
S175では、赤目補正部121cは、補正前後で注目画素の成分間の比が維持されるように、GおよびBの値を補正する。具体的には、修正後R´G´B´の成分間の比と補正後R''に基づいて、補正後G''および補正後B''を算出する。
つまり、R´:G´=R'':G''およびR´:B´=R'':B''が成立する補正後G''および補正後B''を算出する。
In S174, the red-eye correction unit 121c corrects the corrected R ′ among the components of the corrected R′G′B ′ according to the determined correction degree. That is, the corrected R ″ is calculated by multiplying the corrected R ′ by the determined correction coefficient Cs (R ′ × Cs).
In S175, the red-eye correction unit 121c corrects the values of G and B so that the ratio between the components of the target pixel is maintained before and after the correction. Specifically, the corrected G ″ and the corrected B ″ are calculated based on the ratio between the corrected R′G′B ′ components and the corrected R ″.
That is, the corrected G ″ and the corrected B ″ that satisfy R ′: G ′ = R ″: G ″ and R ′: B ′ = R ″: B ″ are calculated.

S176では、赤目補正部121cは、補正後R''G''B''に基づいて上記重み付け加算により輝度値Y''(補正後輝度値Y'')を算出するとともに、補正前後における注目画素の輝度差ΔY=Y´−Y''を算出する。
S177では、赤目補正部121cは、補正前後における注目画素の輝度差が補正候補領域A2の重心からの距離が遠い画素ほど略小さくなるように注目画素の補正を行う。ここでは補正候補領域A2の重心と、その中に含まれる赤目領域A1の重心とが一致することを前提としているが、両重心が一致しない場合には、赤目補正部121cは、上記輝度差が赤目領域A1の重心からの距離が遠い画素ほど略小さくなるように注目画素の補正を行うとしてもよい。
In S176, the red-eye correction unit 121c calculates the luminance value Y ″ (corrected luminance value Y ″) by the above weighted addition based on the corrected R ″ G ″ B ″ and the attention before and after the correction. Pixel luminance difference ΔY = Y′−Y ″ is calculated.
In S177, the red-eye correction unit 121c corrects the target pixel so that the luminance difference between the target pixel before and after the correction is substantially smaller as the distance from the center of gravity of the correction candidate area A2 is longer. Here, it is assumed that the center of gravity of the correction candidate area A2 and the center of gravity of the red-eye area A1 included therein match, but if the centers of gravity do not match, the red-eye correction unit 121c determines that the luminance difference is The pixel of interest may be corrected so that the pixel farther from the center of gravity of the red-eye region A1 becomes substantially smaller.

図13は、S177で用いる距離係数決定テーブルT2を例示している。距離係数決定テーブルT2は、横軸を補正候補領域A2の重心からの注目画素の距離d、縦軸を距離係数Cd(ただしCd≧0)とした関数である。本実施形態では、距離係数決定テーブルT2が予め内部メモリー12に保存されており(図1参照)、赤目補正部121cは、距離係数決定テーブルT2を参照することで、距離dに応じた距離係数Cdを決定する。距離係数決定テーブルT2は、入力値(距離d)が大きいほど距離係数Cdを大きくする特性を有している。   FIG. 13 illustrates the distance coefficient determination table T2 used in S177. The distance coefficient determination table T2 is a function in which the horizontal axis is the distance d of the pixel of interest from the center of gravity of the correction candidate area A2, and the vertical axis is the distance coefficient Cd (where Cd ≧ 0). In the present embodiment, the distance coefficient determination table T2 is stored in the internal memory 12 in advance (see FIG. 1), and the red-eye correction unit 121c refers to the distance coefficient determination table T2 to thereby determine the distance coefficient corresponding to the distance d. Cd is determined. The distance coefficient determination table T2 has a characteristic that the distance coefficient Cd increases as the input value (distance d) increases.

赤目補正部121cは、上記決定した距離係数Cdを上記輝度差ΔYに乗算する(ΔY×Cd)ことにより、補正輝度差ΔY´を算出する。そして、補正輝度差ΔY´を、注目画素の補正後R''G''B''それぞれに加算する。つまり、赤目補正部121cは、演算結果として、Rf=R''+ΔY´、Gf=G''+ΔY´、Bf=B''+ΔY´を得、これらRfGfBfを注目画素についての赤目補正の最終的な結果として保存する。このように補正後R''G''B''のそれぞれに加算される補正輝度差ΔY´を決定する距離係数Cdは、上記距離dが遠い注目画素ほど大きくなる。そのため、RfGfBfによって表される注目画素は、基本的には、上記距離dが遠い画素ほど赤目補正前後での輝度の変動が小さいものとなる。   The red-eye correction unit 121c calculates a corrected luminance difference ΔY ′ by multiplying the luminance difference ΔY by the determined distance coefficient Cd (ΔY × Cd). Then, the corrected luminance difference ΔY ′ is added to each corrected R ″ G ″ B ″ of the target pixel. That is, the red-eye correction unit 121c obtains Rf = R ″ + ΔY ′, Gf = G ″ + ΔY ′, and Bf = B ″ + ΔY ′ as calculation results, and uses these RfGfBf as the final red-eye correction for the target pixel. Save as a good result. As described above, the distance coefficient Cd that determines the corrected luminance difference ΔY ′ added to each of the corrected R ″ G ″ B ″ becomes larger as the pixel of interest with a longer distance d. Therefore, the pixel of interest represented by RfGfBf basically has a smaller variation in luminance before and after red-eye correction as the distance d is longer.

図2に戻って説明を続ける。
S180では、画像補正部121は、直近のS120で選択した処理対象ラスターを構成する全ての画素について注目画素として設定し終えているか否か判定し、処理対象ラスターの全画素を一通り注目画素として設定し終えていると判定した場合にはS190に進む。一方、処理対象ラスターの画素の中に注目画素として未設定である画素が存在している場合には、S130に戻り、未設定の画素のうち一つを注目画素に設定してS140以下の処理を繰り返す。
Returning to FIG. 2, the description will be continued.
In S180, the image correction unit 121 determines whether or not all the pixels constituting the processing target raster selected in the latest S120 have been set as the target pixel, and sets all the pixels of the processing target raster as the target pixel. If it is determined that the setting has been completed, the process proceeds to S190. On the other hand, if there is a pixel that has not been set as the target pixel among the pixels of the processing target raster, the process returns to S130, and one of the unset pixels is set as the target pixel, and the processes from S140 onward are performed. repeat.

S190では、画像補正部121は、S100で取得した画像データを構成する全てのラスターについて処理対象ラスターとして選択し終えているか否か判定し、全ラスターを一通り処理対象ラスターとして選択し終えていると判定した場合には図2のフローチャートを終える。一方、全ラスターの中に処理対象ラスターとして未選択であるラスターが存在している場合には、S120に戻り、未選択のラスターのうち一つを処理対象ラスターに選択し、S130以下の処理を繰り返す。この結果、画像データを構成する画素のうち補正候補領域A2に属しかつ上記特徴値としきい値との比較によって赤目画素に該当すると判定された画素のみに対し、赤目補正が実行されたことになる。   In S190, the image correction unit 121 determines whether or not all the rasters constituting the image data acquired in S100 have been selected as the processing target rasters, and has completely selected all the rasters as the processing target rasters. 2 is finished, the flowchart of FIG. On the other hand, if there is a raster that is not selected as the processing target raster among all the rasters, the process returns to S120, and one of the unselected rasters is selected as the processing target raster, and the processing from S130 onward is performed. repeat. As a result, the red-eye correction is executed only for the pixels constituting the image data that belong to the correction candidate area A2 and are determined to correspond to the red-eye pixel by comparing the feature value with the threshold value. .

3.まとめ
このように本実施形態によれば、画像データから赤目を含む領域として検出した補正候補領域A2に属する各画素について、赤目らしさの高い画素のみを他の黒目部分や白目部分や肌部分に該当する画素とは大きく異なる値に変化させる前処理を行なうことにより特徴値を算出し、この特徴値と所定のしきい値との比較に基づいて、補正候補領域A2に属する各画素が赤目画素に該当するか否か判定し、赤目画素に該当すると判定した画素についてのみ、赤目補正を実行するとした。つまり、従来のような画像データの画素値としきい値との単純な比較では正確性が低かった赤目画素か否かの判定を、極めて正確なものとした。この結果、撮影された画像上で実際に赤目に該当する画素のみを赤目補正の対象とし、本来赤目補正が不要である画素にまで赤目補正を施してしまうことを防止できる。また、このように赤目画素について赤目補正が実行された後の画像データに基づいてプリンター10が印刷を行なうことにより、赤目が適切に補正された人物画像を印刷結果として得ることができる。
3. Summary As described above, according to the present embodiment, for each pixel belonging to the correction candidate area A2 detected as the area including the red eye from the image data, only the pixel having a high red-eye property corresponds to the other black eye part, the white eye part, and the skin part. The feature value is calculated by performing preprocessing to change the value to a pixel that is significantly different from the pixel to be corrected, and based on the comparison between the feature value and a predetermined threshold value, each pixel belonging to the correction candidate area A2 becomes a red-eye pixel. It is determined whether or not it corresponds, and the red-eye correction is executed only for the pixel that is determined to be a red-eye pixel. In other words, the determination as to whether or not the red-eye pixel is less accurate in the conventional simple comparison between the pixel value of the image data and the threshold value is made extremely accurate. As a result, it is possible to prevent only the pixels that actually correspond to the red eye on the photographed image from being subjected to the red eye correction and to apply the red eye correction to pixels that originally do not require the red eye correction. In addition, when the printer 10 performs printing based on the image data after the red-eye correction is performed on the red-eye pixel in this way, it is possible to obtain a human image with the red-eye appropriately corrected as a print result.

また、赤目補正においては、赤目画素は彩度が高いことに着目し、彩度が高いほど補正度合を大きくすることにより、彩度が高い画素ほどR値を大きく低減するようにした。そのため、赤目画素だけが適切にその赤味を低減させ、赤目が解消された画像が得られる。特に、補正度合は画素の彩度が上記彩度Sr以上になると急激に大きくなる(補正係数Csが急激に小さくなる)ため、真に赤目に該当する画素の赤味を適切に低減させることができる。また、画素の彩度に応じて補正度合を決定する前に、カラーバランスを調整して画像の赤かぶり等を修正するため、上記算出される彩度も極端に高い値ではなくなる。その結果、画素のR値を低減させる補正において過補正が防止される。   In red-eye correction, attention is paid to the fact that red-eye pixels have high saturation. By increasing the degree of correction as the saturation increases, the R value is greatly reduced for pixels with higher saturation. Therefore, only the red-eye pixel appropriately reduces its redness, and an image in which red-eye is eliminated can be obtained. In particular, the degree of correction increases rapidly when the saturation of the pixel becomes equal to or higher than the saturation Sr (the correction coefficient Cs decreases rapidly), so that the redness of the pixel that truly corresponds to the red eye can be appropriately reduced. it can. Further, since the red balance of the image is corrected by adjusting the color balance before determining the correction degree according to the saturation of the pixel, the calculated saturation is not an extremely high value. As a result, overcorrection is prevented in the correction for reducing the R value of the pixel.

さらに、赤目補正の前後で補正対象の画素のRGB成分の比が略維持されるように補正を行うため、補正対象の画素の色味が補正前後において大きく変ることが防止される。さらに、赤目補正では、補正候補領域A2の重心から遠い画素ほど、補正前後の輝度差が小さくなるように補正するため、補正された領域と補正されなかった領域との境目において急激に輝度が変化して違和感のある画像となることを防止する。さらに画像補正部121は、ラスター単位の画像データに基づいて前処理、赤目画素か否かの判定および赤目補正を行うため、これら各処理を少ないリスースで行なうことができ、特に印刷前の画像に対する補正処理等に充てられるリソースに限度があるプリンター10においては好適な構成である。   Furthermore, since the correction is performed so that the ratio of the RGB components of the correction target pixel is substantially maintained before and after the red-eye correction, the color of the correction target pixel is prevented from greatly changing before and after the correction. Furthermore, in red-eye correction, the pixel farther from the center of gravity of the correction candidate area A2 is corrected so that the luminance difference before and after correction becomes smaller. Therefore, the luminance changes abruptly at the boundary between the corrected area and the uncorrected area. Thus, it is possible to prevent the image from being uncomfortable. Furthermore, since the image correction unit 121 performs preprocessing, determination of whether or not it is a red-eye pixel, and red-eye correction based on the raster unit image data, each of these processes can be performed with less risk, and particularly for an image before printing. This is a preferable configuration in the printer 10 in which there is a limit to resources that can be used for correction processing and the like.

なお上記では、プリンター10を本実施形態の実行主体として説明したが、プリンター10以外のハードウェア、例えば、DSC20やコンピューター30に上記画像補正部121の機能を備えさせ、これらDSC20やコンピューター30によって図2のフローチャートを実行する構成としてもよい。   In the above description, the printer 10 has been described as an execution subject of the present embodiment. However, hardware other than the printer 10, for example, the DSC 20 or the computer 30 is provided with the function of the image correction unit 121. It is good also as a structure which performs the flowchart of 2. FIG.

10…プリンター、11…CPU、12…内部メモリー、16…プリントエンジン、20…DSC、30…コンピューター、40…メモリーカード、121…画像補正部、121a…領域検出部、121b…画素特定部、121c…赤目補正部、122…表示処理部、123…印刷処理部 DESCRIPTION OF SYMBOLS 10 ... Printer, 11 ... CPU, 12 ... Internal memory, 16 ... Print engine, 20 ... DSC, 30 ... Computer, 40 ... Memory card, 121 ... Image correction part, 121a ... Area | region detection part, 121b ... Pixel specific part, 121c ... Red-eye correction unit, 122 ... Display processing unit, 123 ... Print processing unit

Claims (8)

取得した画像データが表す画像内から赤目領域を含む補正候補領域を検出する領域検出部と、
上記検出された補正候補領域に含まれる画素毎に所定の特徴値を算出するとともに、当該特徴値に応じて上記補正候補領域に含まれる画素のうち赤目補正の対象とする画素を特定する画素特定部と、
上記特定された画素を対象として上記赤目補正を実行する赤目補正部とを備えることを特徴とする画像処理装置。
An area detection unit that detects a correction candidate area including a red-eye area from the image represented by the acquired image data;
A pixel specification for calculating a predetermined feature value for each pixel included in the detected correction candidate area and specifying a pixel to be subjected to red-eye correction among the pixels included in the correction candidate area according to the feature value And
An image processing apparatus comprising: a red-eye correction unit that performs the red-eye correction on the identified pixel.
上記画素特定部は、画素を表すRGB値のうちのR値の反転値に基づいて特徴値を算出し、特徴値と所定値のしきい値との比較結果に応じて画素の特定を行うことを特徴とする請求項1に記載の画像処理装置。   The pixel specifying unit calculates a feature value based on an inverted value of an R value of RGB values representing the pixel, and specifies the pixel according to a comparison result between the feature value and a predetermined threshold value. The image processing apparatus according to claim 1. 上記画素特定部は、上記反転値に画素のグレー値を加えた値を特徴値とすることを特徴とする請求項2に記載の画像処理装置。   The image processing apparatus according to claim 2, wherein the pixel specifying unit uses a value obtained by adding a gray value of a pixel to the inversion value as a feature value. 上記画素特定部は、上記RGB値の各々に上記反転値を加えるとともに、反転値を加算後のRGBに基づいて算出した輝度値を特徴値とすることを特徴とする請求項2に記載の画像処理装置。   3. The image according to claim 2, wherein the pixel specifying unit adds the inverted value to each of the RGB values and uses a luminance value calculated based on RGB after adding the inverted value as a feature value. 4. Processing equipment. 上記画素特定部および赤目補正部は、ラスター単位で画像データを読み込むことにより、上記画素の特定および特定した画素への赤目補正の実行をラスター単位の画像データ毎に繰り返すことを特徴とする請求項1〜請求4のいずれかに記載の画像処理装置。   The pixel specifying unit and the red-eye correcting unit read image data in raster units, and repeat the specification of the pixels and execution of red-eye correction on the specified pixels for each image data in raster units. The image processing apparatus according to claim 1. 取得した画像データが表す画像内から赤目領域を含む補正候補領域を検出する領域検出工程と、
上記検出された補正候補領域に含まれる画素毎に所定の特徴値を算出するとともに、当該特徴値に応じて上記補正候補領域に含まれる画素のうち赤目補正の対象とする画素を特定する画素特定工程と、
上記特定された画素を対象として上記赤目補正を実行する赤目補正工程とを備えることを特徴とする画像処理方法。
An area detection step of detecting a correction candidate area including a red-eye area from the image represented by the acquired image data;
A pixel specification for calculating a predetermined feature value for each pixel included in the detected correction candidate area and specifying a pixel to be subjected to red-eye correction among the pixels included in the correction candidate area according to the feature value Process,
And a red-eye correction step of performing the red-eye correction on the identified pixel.
取得した画像データが表す画像内から赤目領域を含む補正候補領域を検出する領域検出機能と、
上記検出された補正候補領域に含まれる画素毎に所定の特徴値を算出するとともに、当該特徴値に応じて上記補正候補領域に含まれる画素のうち赤目補正の対象とする画素を特定する画素特定機能と、
上記特定された画素を対象として上記赤目補正を実行する赤目補正機能とをコンピューターに実行させることを特徴とする画像処理プログラム。
An area detection function for detecting a correction candidate area including a red-eye area from the image represented by the acquired image data;
A pixel specification for calculating a predetermined feature value for each pixel included in the detected correction candidate area and specifying a pixel to be subjected to red-eye correction among the pixels included in the correction candidate area according to the feature value Function and
An image processing program for causing a computer to execute a red-eye correction function for performing the red-eye correction on the identified pixel.
取得した画像データが表す画像内から赤目領域を含む補正候補領域を検出する領域検出部と、
上記検出された補正候補領域に含まれる画素毎に所定の特徴値を算出するとともに、当該特徴値に応じて上記補正候補領域に含まれる画素のうち赤目補正の対象とする画素を特定する画素特定部と、
上記特定された画素を対象として上記赤目補正を実行する赤目補正部と、
上記赤目補正がなされた後の画像データに基づいて印刷を実行する印刷部とを備えることを特徴とする印刷装置。
An area detection unit that detects a correction candidate area including a red-eye area from the image represented by the acquired image data;
A pixel specification for calculating a predetermined feature value for each pixel included in the detected correction candidate area and specifying a pixel to be subjected to red-eye correction among the pixels included in the correction candidate area according to the feature value And
A red-eye correction unit that performs the red-eye correction on the identified pixel;
And a printing unit that executes printing based on the image data after the red-eye correction is performed.
JP2009095400A 2009-04-10 2009-04-10 Apparatus, method, and program for processing image, and printer Pending JP2010246053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009095400A JP2010246053A (en) 2009-04-10 2009-04-10 Apparatus, method, and program for processing image, and printer

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009095400A JP2010246053A (en) 2009-04-10 2009-04-10 Apparatus, method, and program for processing image, and printer

Publications (1)

Publication Number Publication Date
JP2010246053A true JP2010246053A (en) 2010-10-28

Family

ID=43098542

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009095400A Pending JP2010246053A (en) 2009-04-10 2009-04-10 Apparatus, method, and program for processing image, and printer

Country Status (1)

Country Link
JP (1) JP2010246053A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167940A (en) * 2016-03-17 2017-09-21 Kddi株式会社 Specification device for specifying pupillary area of person in image, specification method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017167940A (en) * 2016-03-17 2017-09-21 Kddi株式会社 Specification device for specifying pupillary area of person in image, specification method, and program

Similar Documents

Publication Publication Date Title
US7536036B2 (en) Method and apparatus for red-eye detection in an acquired digital image
WO2018176925A1 (en) Hdr image generation method and apparatus
KR101248858B1 (en) Image processing apparatus and image processing method
JP2005310068A (en) Method for correcting white of eye, and device for executing the method
JP2005293555A (en) Identification of skin area in image
US9888154B2 (en) Information processing apparatus, method for processing information, and computer program
KR102311367B1 (en) Image processing apparatus, image processing method, and storage medium
JP6747224B2 (en) Image processing device and computer program
US10846863B2 (en) Pixel binarization apparatus, method, and storage medium
JP2019106173A (en) Image processing method, image processing apparatus and program
US9998631B2 (en) Information processing apparatus, method for processing information, and computer program
JP5975945B2 (en) Image processing device
JP2010246053A (en) Apparatus, method, and program for processing image, and printer
US10521707B2 (en) Printing apparatus for adjusting width of object and printing method
JP2001222683A (en) Method and device for processing picture, device and method for recognizing character and storage medium
JP2013045205A (en) Image processor, image processing method and image processing program
JP4247621B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP2010246052A (en) Apparatus, method, and program for processing image, and printer
JP4560845B2 (en) Image processing apparatus, image processing method, and medium on which image processing control program is recorded
JP2016178467A (en) Image processing apparatus and image processing method
JP6781398B2 (en) Image processing equipment and computer programs
JP2011198116A (en) Apparatus and program for processing image
JP6331772B2 (en) Image processing apparatus and computer program
JP2015106881A (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium
JP2017017494A (en) Image processing system, image processing method and program