JPH10341352A - Image processor - Google Patents

Image processor

Info

Publication number
JPH10341352A
JPH10341352A JP9151348A JP15134897A JPH10341352A JP H10341352 A JPH10341352 A JP H10341352A JP 9151348 A JP9151348 A JP 9151348A JP 15134897 A JP15134897 A JP 15134897A JP H10341352 A JPH10341352 A JP H10341352A
Authority
JP
Japan
Prior art keywords
color
pupil
correction
image processing
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9151348A
Other languages
Japanese (ja)
Other versions
JP3709656B2 (en
Inventor
Hiromichi Enomoto
洋道 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Inc
Original Assignee
Konica Minolta Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Inc filed Critical Konica Minolta Inc
Priority to JP15134897A priority Critical patent/JP3709656B2/en
Publication of JPH10341352A publication Critical patent/JPH10341352A/en
Application granted granted Critical
Publication of JP3709656B2 publication Critical patent/JP3709656B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve operability in the correction of red-eye image. SOLUTION: The value of u* in the equal color space of CIEL*u*v* is selected (S31), the value of v* is calculated (S32) from the operation expression (such as v*=0.71u*-0.24, for example) for the characteristics of a pupil color, and luminosity L* for the color of a pupil is calculated (S33) from G and B as the colors of the pupil or from the average value of them. The calculated L*, u* and v* are converted (S34) into R, G and B values, and the color tone defective pixel (red-eye part) of pupil is corrected (S35) by these R, G and B values.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、カラー写真撮影時
のフラッシュ発光による被写体画像内の瞳の色調不良を
補正する画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for correcting poor color tone of a pupil in a subject image due to flash emission during color photographing.

【0002】[0002]

【従来の技術】従来、前記瞳の色調不良いわゆる赤目を
補正する技術が、いくつか提案されている (米国特許5
130789号、特開平7−72537号等参照) 。米
国特許5130789号に開示される技術は、矩形マス
クで対象となる目の周囲を囲み、赤目の領域の数点をポ
インタで指定して、色彩情報に基づいて赤目の領域を設
定し、対象画素がこの領域内であれば赤目と判定して補
正する。この際、補正量を領域の境界からの距離によっ
て変えるというものである。
2. Description of the Related Art Conventionally, there have been proposed several techniques for correcting the poor color tone of the pupil, so-called red-eye (US Pat.
130789, JP-A-7-72537, etc.). The technique disclosed in US Pat. No. 5,130,789 encloses a target eye with a rectangular mask, designates several points of a red-eye region with a pointer, sets a red-eye region based on color information, and sets a target pixel. Is within this region, it is determined to be red-eye and corrected. At this time, the correction amount is changed according to the distance from the boundary of the area.

【0003】また、特開平7−72537号に開示され
る技術は、対象となる目の領域を指定し、色彩情報によ
り候補画素を選定し、ラベリング後、それぞれのラベル
についての情報も加味して、赤目であるかどうか評価し
ていくものである。また、補正方法に関しては赤目の本
体と周辺部に分けて、補正量を変えている。
The technique disclosed in Japanese Patent Application Laid-Open No. 7-72537 specifies a target eye area, selects candidate pixels based on color information, and after labeling, also considers information about each label. , And whether or not they have red eyes. As for the correction method, the correction amount is changed for the red-eye main body and the peripheral portion.

【0004】[0004]

【発明が解決しようとする課題】しかし、いずれの方法
も赤目を補正する瞳の色の選択方法に関して記載されて
いない。例えば、市販のレタッチングソフト(PhotoDel
uxe,PictureIt)では、赤目を補正する瞳の色の選択方法
は、複数のカラーパレットが表示されその中からオペレ
ータがクリックして選択するものであった。
However, neither method describes a method of selecting a pupil color for correcting red eyes. For example, commercially available retouching software (PhotoDel
In uxe, PictureIt), a method of selecting a pupil color for correcting red eyes is such that a plurality of color palettes are displayed and the operator clicks and selects from among them.

【0005】上記の選択方法では、赤目を補正する瞳の
色を選択する際にオペレータが選択しづらい。即ち、表
示されるカラーパレットのそれぞれの色が連続して変化
していヌ ないため、また、欧米人の瞳の色に関係の無い
色も含まれているため選択肢が無用に多いためである。
また、表示されるカラーパレットのそれぞれの色が連続
して変化していないため、補正する色の微調整ができな
い。
In the above selection method, it is difficult for an operator to select a pupil color for correcting red eyes. That is, the colors of the displayed color palette do not change continuously, and the colors that are not related to the color of the eyes of Westerners are also included.
Further, since the colors of the displayed color palette do not change continuously, fine adjustment of the color to be corrected cannot be performed.

【0006】本発明は、このような従来の課題に着目し
てなされたもので、カラーのフラッシュ撮影において発
生する赤目現象を半自動的に補正する際にオペレータが
容易かつ正確に補正できるようにした画像処理装置を提
供することを目的とする。
The present invention has been made in view of such a conventional problem, and enables an operator to easily and accurately correct a red-eye effect occurring in a color flash photographing semi-automatically. It is an object to provide an image processing device.

【0007】[0007]

【課題を解決するための手段】このため、請求項1に係
る発明は、図1に示すように、1以上の瞳の色調不良が
存在する撮影画像に対し、該色調不良の画素を検出する
色調不良画素検出手段と、瞳の色の特性に基づいて、補
正する瞳の色の候補を決定する補正瞳色候補決定手段
と、色彩情報パラメータの値を入力して、前記瞳の色の
候補の中から補正する瞳の色を選択する補正瞳色選択手
段と、前記選択した瞳の色を表示する選択瞳色表示手段
と、色調不良画素を前記選択された瞳の色に補正する瞳
色補正手段と、を含んで構成したことを特徴とする。
Therefore, according to the first aspect of the present invention, as shown in FIG. 1, in a photographed image in which one or more pupil poor color tone exists, the defective color tone pixel is detected. Poor color tone pixel detection means, correction pupil color candidate determination means for determining a pupil color candidate to be corrected based on the characteristics of the pupil color, and inputting a value of a color information parameter to obtain a pupil color candidate Correction pupil color selection means for selecting a pupil color to be corrected from among the pupil colors; selected pupil color display means for displaying the selected pupil color; and a pupil color for correcting poorly tone pixels to the selected pupil color. And a correcting means.

【0008】補正瞳色候補決定手段は、瞳の色の特性を
有した色のみに制限して補正する瞳の色の候補を決定す
る。オペレータは、色彩情報パラメータの値を入力し、
選択瞳色表示手段によって表示された瞳の色を見ながら
補正する瞳の色を選択する。瞳色補正手段は、色調不良
画素検出手段によって検出された色調不良画素を、選択
した瞳の色に補正する。
The correction pupil color candidate determining means determines pupil color candidates to be corrected by limiting only to colors having pupil color characteristics. The operator inputs the value of the color information parameter,
The pupil color to be corrected is selected while looking at the pupil color displayed by the selected pupil color display means. The pupil color correction means corrects the poorly-colored pixel detected by the poorly-colored pixel detection means to a selected pupil color.

【0009】このように、オペレータの簡単な操作で制
限された瞳の色の候補の中から容易に補正すべき瞳の色
を選択して、補正することができる。また、請求項2に
係る発明は、前記補正瞳色候補決定手段は、1つの色彩
情報のみを変数として補正する瞳の色の候補を決定し、
前記補正瞳色選択手段は、前記変数の値を入力して補正
する瞳の色を選択することを特徴とする。
As described above, it is possible to easily select and correct the pupil color to be corrected from the limited pupil color candidates by a simple operation of the operator. Also, in the invention according to claim 2, the correction pupil color candidate determination means determines a pupil color candidate to be corrected using only one color information as a variable,
The correction pupil color selection means inputs a value of the variable and selects a pupil color to be corrected.

【0010】色(色彩) は色彩情報の2つの変数の値に
よって決定されるが、瞳の色の特性として、一方の変数
を他方の変数の関数として近似できるので、1つの色彩
情報のみを変数として補正する瞳の色の候補を決定する
ことができ、該変数の値を入力することにより、補正す
る瞳の色を選択することができる。また、請求項3に係
る発明は、前記1つ色彩情報のみの変数は、CIEL*
u*v*の均等色空間におけるu*又はv*であること
を特徴とする。
Although the color (color) is determined by the values of two variables of color information, one of the variables can be approximated as a function of the other variable as a characteristic of the pupil color. The candidate of the pupil color to be corrected can be determined, and by inputting the value of the variable, the pupil color to be corrected can be selected. Further, in the invention according to claim 3, the variable having only one piece of color information is CIEL *.
It is u * or v * in a uniform color space of u * v *.

【0011】CIEL*u*v*の均等色空間における
u*又はv*は、上記の色彩情報の2つの変数であるた
め、その中のいずれか1つを補正する瞳の色の候補を決
定する色彩情報の変数とすることができる。また、請求
項4に係る発明は、前記1つ色彩情報のみの変数は、C
IEL*a*b*の均等色空間におけるa*又はb*で
あることを特徴とする。
Since u * or v * in the uniform color space of CIEL * u * v * is the two variables of the above color information, a candidate for the pupil color for correcting any one of them is determined. To be used as a color information variable. Further, in the invention according to claim 4, the variable of only one piece of color information is C
It is characterized by being a * or b * in a uniform color space of IEL * a * b *.

【0012】CIEL*a*b*の均等色空間における
a*又はb*も、上記の色彩情報の2つの変数であるた
め、その中のいずれか1つを補正する瞳の色の候補を決
定する色彩情報の変数とすることができる。また、請求
項5に係る発明は、前記補正瞳色選択手段は、オペレー
タが画面上に表示されるスライドバーの位置をセットす
ることにより色彩情報パラメータの値をセットする手段
を含むことを特徴とする。
Since a * or b * in the uniform color space of CIEL * a * b * is also two variables of the above-mentioned color information, a candidate for a pupil color for correcting one of them is determined. To be used as a color information variable. The invention according to claim 5 is characterized in that the correction pupil color selecting means includes means for setting the value of a color information parameter by setting the position of a slide bar displayed on a screen by an operator. I do.

【0013】このようにすれば、簡単な操作で色彩情報
パラメータを入力して補正する瞳の色を選択することが
できる。また、請求項6に係る発明は、前記補正瞳色選
択手段は、オペレータが色彩情報パラメータの数値を直
接入力する手段を含むことを特徴とする。
With this configuration, the color information parameters can be input and the pupil color to be corrected can be selected by a simple operation. The invention according to claim 6 is characterized in that the correction pupil color selecting means includes means for directly inputting a numerical value of a color information parameter by an operator.

【0014】このように、色彩情報パラメータの数値を
直接入力して瞳の色を選択することもできる。また、請
求項7に係る発明は、補正する瞳の色の明度(L*)
を、色調不良画素のR以外の色成分に基づいて決定する
手段を含むことを特徴とする。
As described above, the pupil color can be selected by directly inputting the numerical values of the color information parameters. In the invention according to claim 7, the lightness (L *) of the color of the pupil to be corrected is provided.
Is determined on the basis of a color component other than R of the poorly-colored pixel.

【0015】具体的な瞳の色の色調不良はフラッシュ撮
影による赤目現象であり、Rの成分が異常に大きい値と
なっているが、それ以外のG,B等の成分は元々の瞳の
色の明度に応じた大きさで存在すると考えられるので、
これらの値を用いて瞳の色の明度を良好に推定すること
ができる。
The specific poor color tone of the pupil color is a red-eye phenomenon caused by flash photography, and the R component has an abnormally large value, but the other components such as G and B have the original pupil color. It is thought that it exists in the size according to the brightness of
The luminosity of the color of the pupil can be satisfactorily estimated using these values.

【0016】[0016]

【発明の実施の形態】以下に、本発明の実施形態を図に
基づいて説明する。図2は、一実施形態のシステム構成
を示す。スチルビデオカメラにより撮影されたカラー画
像のデジタル画像データ、あるいは、銀塩フィルムカメ
ラにより撮影されフィルムに現像されたカラー画像を、
スキャナで読み取ったデジタル画像データが、光ディス
ク等の記憶装置1に記憶されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to the drawings. FIG. 2 shows a system configuration of an embodiment. Digital image data of a color image taken by a still video camera, or a color image taken by a silver halide film camera and developed on film,
Digital image data read by a scanner is stored in a storage device 1 such as an optical disk.

【0017】前記記憶装置1に記憶された画像データ
が、制御装置2によって読み出され、モニタ3に画像表
示される。オペレータは、前記モニタ3に表示された画
像をみながら、フラッシュ撮影により赤目を生じている
被写体画像に対し、以下のように画像領域を設定するこ
とにより、前記制御装置2が該設定された領域の中から
赤目の画素を抽出して補正を行い、補正された画像をモ
ニター3に表示する。
The image data stored in the storage device 1 is read by the control device 2 and displayed on the monitor 3. The operator sets an image area as follows for the subject image in which red-eye is generated by flash photography while viewing the image displayed on the monitor 3, and the control device 2 sets the set area. Are corrected by extracting a red-eye pixel from among them, and the corrected image is displayed on the monitor 3.

【0018】以下に、本発明にかかる赤目補正のルーチ
ンを、図3以下のフローチャートに従って説明する。図
3は、赤目補正のメインルーチンを示す。ステップ (図
ではSと記す。以下同様) 1では、モニタ3に表示され
た瞳を含む被写体画像に対して、1対の目の周辺を囲む
矩形領域を設定すると共に、一対の目の中間付近の1点
を後述する色彩情報及び位置情報の基準点として指定す
る (図6参照) 。
The red-eye correction routine according to the present invention will be described below with reference to the flowchart of FIG. FIG. 3 shows a main routine of red-eye correction. In step (denoted by S in the figure; the same applies hereinafter), in a subject image including a pupil displayed on the monitor 3, a rectangular region surrounding the periphery of a pair of eyes is set, and an area near the middle of the pair of eyes is set. Is designated as a reference point for color information and position information to be described later (see FIG. 6).

【0019】前記対象領域及び中間点の設定方法として
対象領域、中間点共にオペレータが指定してもよいし、
対象領域のみを指定し、中間点は計算によって求めても
よいし (例えば指定した矩形領域の中心を中間点として
計算) 、中間点のみを指定し、そこを中心として予め設
定されている面積を対象領域としてもよい。赤目補正の
精度としては、1番目の方法が対象領域の指定と中間点
の指定を共にマニュアルで行うため最も高い。
As a method for setting the target area and the intermediate point, the operator may specify both the target area and the intermediate point,
Only the target area may be specified, and the midpoint may be obtained by calculation (for example, the center of the specified rectangular area is calculated as the midpoint), or only the midpoint is specified, and the area set in advance with that center as the center is specified. It may be a target area. The accuracy of red-eye correction is the highest because the first method manually specifies the target area and the intermediate point.

【0020】このような領域指定の特徴は、例えば1対
の瞳の中で、色調不良の瞳が1つの場合でも1対の瞳を
囲む領域を指定することである。また、1対の瞳の両方
が赤目の場合、1回の領域指定で同時に2つの赤目を補
正することができる。例えば、前記米国特許51307
89号に開示される技術では、瞳1つずつについて領域
指定するため、オペレータの介入度が大きくなる。
A feature of such region designation is that, for example, a region surrounding a pair of pupils is identified even if there is only one pupil having poor color tone among a pair of pupils. Further, when both the pair of pupils have red eyes, two red eyes can be corrected simultaneously by one area designation. For example, US Pat.
In the technique disclosed in Japanese Patent No. 89, since an area is specified for each pupil, the degree of operator intervention increases.

【0021】ステップ2では、前記ステップ1で指定し
た点の色彩情報、例えばR (赤) ,G (緑) ,B (青)
の各明度値の合計値 (R+G+B) を特徴量として演算
する。ステップ3では、前記指定点の特徴量との特徴量
の差が指定した閾値以内の画素を肌色画素として、該肌
色画素の領域を抽出する。即ち、前記指定点は、1対の
目の中間付近の点は、鼻の付け根部分に位置するから、
その点における色彩は肌色と推定されるので、該点に近
い色をしている領域を肌色の画素と推定できる。この
他、一般的な色彩情報である色相,彩度を特徴量として
もかまわない。このようにして、前記閾値以内の画素を
ラベリングし、指定点が含まれるラベリング領域を肌色
領域として抽出する。
In step 2, the color information of the point designated in step 1 such as R (red), G (green), B (blue)
The total value (R + G + B) of the respective brightness values is calculated as a feature value. In step 3, pixels having a difference between the feature value of the designated point and the feature value within a specified threshold value are extracted as skin color pixels, and a region of the skin color pixel is extracted. That is, since the designated point is located at the base of the nose near the middle of the pair of eyes,
Since the color at that point is estimated to be a skin color, an area having a color close to the point can be estimated to be a skin color pixel. In addition, hue and saturation, which are general color information, may be used as feature amounts. In this way, the pixels within the threshold value are labeled, and the labeling area including the designated point is extracted as the skin color area.

【0022】ステップ4では、前記肌色領域内の赤の色
度[=R/ (R+G+B) ]の平均値Rskinを求め
る。ステップ5では、以下の演算量、及び該演算に必要
なデータ量を減らすために、前記ステップ3で抽出され
た肌色領域に外接する矩形領域 (両目同時に外接するよ
うに目と目の間の部分も含んで横長の1つの領域) を、
新たな対象領域として設定する。該矩形領域の設定は、
自動で行われる。手動で行ってもよいが、自動で行うこ
とにより、オペレータが顔以外の領域が含まれるような
広い領域指定を行ってしまった場合にも対応できる。
In step 4, an average value Rskin of red chromaticity [= R / (R + G + B)] in the flesh color area is determined. In step 5, in order to reduce the following calculation amount and the amount of data required for the calculation, a rectangular area circumscribing the skin color area extracted in step 3 (a part between eyes so as to circumscribe both eyes simultaneously) (Including one horizontally long area),
Set as a new target area. The setting of the rectangular area is
It is done automatically. Although it may be performed manually, it is possible to cope with a case where the operator specifies a wide area including an area other than the face by performing the operation automatically.

【0023】ステップ6では、前記対象領域を、小領域
に分割する。この小領域分割のサブルーチンを、図4の
フローチャートに従って説明する。ステップ11では、前
記設定された領域内でエッジ画素を求める。該エッジ画
素の求め方は、例えば明度 (R+G+B) を特徴量とし
て、対象画素の周囲4画素との明度の差の絶対値の和を
求め、これが設定した閾値以上であれば対象画素をエッ
ジ画素と判定する。この他、Sobelオペレータ、P
rewittオペレータ等のエッジ検出フィルタを用い
てもかまわない。
In step 6, the target area is divided into small areas. This small area division subroutine will be described with reference to the flowchart of FIG. In step 11, an edge pixel is obtained in the set area. The edge pixel is determined by, for example, using the brightness (R + G + B) as a feature value and calculating the sum of the absolute values of the differences in brightness from the four surrounding pixels of the target pixel. Is determined. In addition, Sobel operator, P
An edge detection filter such as a rewitt operator may be used.

【0024】ステップ12では、前記ステップ11で検出さ
れたエッジ画素をラベリングする。ステップ13では、同
じラベルのエッジ画素で少なくとも3方を囲まれた画素
を、前記エッジ画素と同一ラベルに変更する。つまりエ
ッジで囲まれた領域が同一のラベルとなる。このように
して、設定領域が同一のラベルを有した小領域に分割さ
れる。
In step 12, the edge pixels detected in step 11 are labeled. In step 13, pixels surrounded at least three sides by edge pixels of the same label are changed to the same label as the edge pixels. That is, the area surrounded by the edge has the same label. In this way, the setting area is divided into small areas having the same label.

【0025】図3のメインルーチンに戻って、ステップ
7では、前記分割された小領域の中から、色調不良が存
在する瞳が含まれる可能性の高い領域を、瞳候補領域と
して選択する。前記ステップ7の瞳候補領域選択のサブ
ルーチンを、図5のフローチャートに従って説明する。
Returning to the main routine of FIG. 3, in step 7, an area having a high possibility of including a pupil having a poor color tone is selected as a pupil candidate area from the divided small areas. The pupil candidate area selection subroutine in step 7 will be described with reference to the flowchart of FIG.

【0026】本実施形態では、前記分割された複数の小
領域の2つを1組として、全ての組み合わせについて以
下の特徴量を演算することにより瞳らしさを求める。ス
テップ21では、各小領域の赤の色度[=R/ (R+G+
B) ]を求め、領域内で赤の色度の最高値 (Ri) 、及
び前記ステップ1で指定した目と目の中間付近の点を原
点としたとき、前記最高値 (Ri) の画素のX軸、Y軸
上での位置 (Xi、Yi) を特徴量とする。ここで、i
は、小領域を識別する値を表す。
In the present embodiment, the pupil-likeness is obtained by calculating the following characteristic amounts for all combinations of two of the plurality of divided small areas as one set. In step 21, the red chromaticity [= R / (R + G +
B)], and when the origin is the maximum value (Ri) of the red chromaticity in the area and the point near the middle between the eyes specified in the step 1, the pixel of the maximum value (Ri) is determined. The position (Xi, Yi) on the X-axis and the Y-axis is defined as a feature value. Where i
Represents a value for identifying a small area.

【0027】例えば、小領域1と小領域2を組み合わせ
るとき、以下のようにして瞳候補領域を選択する。ステ
ップ22では、色彩情報の特徴量C12と、位置情報の特徴
量P12とを、次式により求める。 色彩情報の特徴量C12=R1+R2 位置情報の特徴量P12=X1+X2+Y1+Y2 ここで、色彩情報の特徴量は大きいほど、位置情報の特
徴量は小さいほど、瞳らしさは高いので、ステップ23で
は、瞳らしさを示す特徴量E12を、例えばE12=C12−
P12と設定し、この値が最も高い小領域の組み合わせ
を、少なくとも一方が色調不良 (赤目) となっている瞳
を含んでいる可能性が高い瞳候補領域として抽出する。
For example, when combining small area 1 and small area 2, a pupil candidate area is selected as follows. In step 22, the characteristic amount C12 of the color information and the characteristic amount P12 of the position information are obtained by the following equation. Color information feature amount C12 = R1 + R2 Position information feature amount P12 = X1 + X2 + Y1 + Y2 Here, the larger the color information feature amount and the smaller the position information feature amount, the higher the pupil likeness. The characteristic amount E12 to be represented is, for example, E12 = C12−
P12 is set, and a combination of small areas having the highest value is extracted as a pupil candidate area having a high possibility of including a pupil in which at least one of them has poor color tone (red eye).

【0028】ここで、位置情報の特徴量が小さくなるほ
ど、瞳らしさが高いのは、両方の瞳に赤目がある場合、
目と目の間の点に対して、左右一方のX1を+、他方の
X2を−として合計すると小さくなることによる。ま
た、一方の瞳のみ赤目である場合でもよいのは、両方の
瞳の組み合わせを選択したときには、一方の瞳に赤目が
なくとも位置情報P12の値が小さくなり、また、赤目が
1つあるだけでも、赤目が1つもない組み合わせに比べ
れば色彩情報の特徴量も大きくなるためである。
Here, the smaller the feature amount of the position information, the higher the pupil likelihood is when both eyes have red eyes.
This is because, for a point between the eyes, when one of the left and right X1 is set to + and the other X2 is set to-, the total becomes smaller. Also, the case where only one pupil has red eye may be that when a combination of both pupils is selected, the value of the position information P12 becomes small even if there is no red eye in one pupil, and only one red eye exists. However, this is because the feature amount of the color information is larger than a combination having no red eyes.

【0029】図3のメインルーチンに戻って、ステップ
8では、ステップ7で抽出された瞳候補領域の中から、
色調不良 (赤目) 画素を抽出する。該抽出方法は以下の
とおりである。対象画素の赤の色度[=R/ (R+G+
B) ]が、ステップ2で求めた肌色領域の平均値Rsk
inより大きく、なおかつ、対象領域の色彩情報の特徴
量 (Ri) から設定した閾値THを引いた値より大きい
場合は、赤目画素とする。つまり、次式を満たす画素を
赤目画素とする。
Returning to the main routine of FIG. 3, in step 8, from among the pupil candidate areas extracted in step 7,
Extract poor color (red eye) pixels. The extraction method is as follows. Red chromaticity of the target pixel [= R / (R + G +
B)] is the average value Rsk of the flesh color region obtained in step 2.
If the value is larger than “in” and larger than a value obtained by subtracting the set threshold value TH from the feature value (Ri) of the color information of the target area, the pixel is regarded as a red-eye pixel. That is, a pixel satisfying the following equation is set as a red-eye pixel.

【0030】R/ (R+G+B) >Rskin∩R/
(R+G+B) >Ri−TH ステップ9では、ステップ8で抽出された赤目画素を適
正な色調に補正する。補正する手順を図7に示す。瞳の
色をCIEL*u*v*の均等色空間で表す場合を例に
とる。また、オペレータが瞳を補正する画面例を図8に
示す。以下に、図7のフローチャートを参照しつつ瞳の
色調整方法を説明する。
R / (R + G + B)> Rskin @ R /
(R + G + B)> Ri-TH In step 9, the red-eye pixel extracted in step 8 is corrected to an appropriate color tone. FIG. 7 shows the procedure for correction. The case where the pupil color is represented by a uniform color space of CIEL * u * v * is taken as an example. FIG. 8 shows a screen example in which the operator corrects the pupil. Hereinafter, the pupil color adjustment method will be described with reference to the flowchart of FIG.

【0031】ステップ31では、オペレータがプレビュー
画像を見ながらu*(又はv*,以下u*で代表) の値
を選択する。図8ではu*は[瞳の色]というスライド
バーで選択できるようになっている。但し、スライドバ
ーで選択する以外に、直接数値で入力する方式としても
構わない。ステップ32では、以下の式に従ってv*の値
を決定する。
In step 31, the operator selects a value of u * (or v *, hereinafter represented by u *) while watching the preview image. In FIG. 8, u * can be selected with a slide bar of [pupil color]. However, a method of directly inputting a numerical value may be used instead of the selection using the slide bar. In step 32, the value of v * is determined according to the following equation.

【0032】 v*=0.71×u*−0.24 ・・・(1) これは、欧米人の瞳の色をCIEL*u*v*の均等色
空間で表すと(1) 式で表される関係式で近似できるため
である。ここで、前記欧米人の瞳の色は人類全体の瞳の
色を含み、日本人等東洋人の黒乃至茶褐色の瞳の色を含
んでいる。欧米人の瞳のサンプルのu*v*平面での分
布を図9に示す。この図より明らかなように、u*とv
*との関係式は(1) 式に限らず、これらの分布をある程
度近似するものであればかまわない。したがって、例え
ば、前記(1) 式のu*の係数0.71を0.71±Δαと変更し
たり、定数0.24を0.24±Δβに変更することが可能な構
成としてもよく、あるいはこれら傾きとオフセット量の
組み合わせ(0.71,0.24),(0.71+Δα,0.24 −Δβ) ,
(0.71−Δα,0.24 +Δβ) を変更可能に構成しても
よく、簡単な操作性を保ちつつきめ細かな補正が可能と
なる。
V * = 0.71 × u * −0.24 (1) This is the relation expressed by the expression (1) when the color of the pupil of the Western people is represented by the uniform color space of CIEL * u * v *. This is because the expression can be approximated. Here, the color of the pupil of the Western people includes the color of the pupil of the entire human race, and includes the color of the black or brown-brown pupil of the Japanese oriental such as Japanese. FIG. 9 shows the distribution of the pupil samples of Westerners in the u * v * plane. As is clear from this figure, u * and v
The relational expression with * is not limited to the expression (1) and may be any expression that approximates these distributions to some extent. Therefore, for example, a configuration may be employed in which the coefficient of u * of Equation (1) 0.71 can be changed to 0.71 ± Δα, the constant 0.24 can be changed to 0.24 ± Δβ, or a combination of these inclinations and offset amounts (0.71,0.24), (0.71 + Δα, 0.24−Δβ),
(0.71−Δα, 0.24 + Δβ) may be configured to be changeable, and fine correction can be performed while maintaining simple operability.

【0033】ステップ33では、補正する赤目画素のデジ
タル値をR,G,Bとしたとき、次式に従ってL*(輝
度) の値を決定する。 L*=100 *G/255 ・・・(2) ここで、(2) 式のGの代わりに、B, あるいはGとBの
平均値を代入しても同様な効果が得られる。このように
G,B,GとBの平均値を明度の決定に用いるのは、赤
目現象の発生によりRの成分が異常に大きい値となって
いるが、それ以外のG,B等の成分は元々の瞳の色の明
度に応じた大きさで存在すると考えられるので、これら
の値を用いて瞳の色の明度を良好に推定することができ
るためである。
In step 33, when the digital values of the red-eye pixel to be corrected are R, G, and B, the value of L * (luminance) is determined according to the following equation. L * = 100 * G / 255 (2) Here, a similar effect can be obtained by substituting B or an average value of G and B in place of G in equation (2). The reason why the average value of G, B, and G and B is used for determining the lightness is that the R component has an abnormally large value due to the occurrence of the red-eye effect, but the other components of G, B, etc. Is considered to exist in a size corresponding to the brightness of the original pupil color, and thus the brightness of the pupil color can be satisfactorily estimated using these values.

【0034】ステップ34では、予め用意されたL*u*
v*をモニター上のR,G,Bに変換するテーブルを使
ってR,G,Bに変換する。ステップ35では上記変換さ
れたR,G,Bを用いて瞳の色を補正する。補正後の画
像はプレビュー画像として表示される。プレビュー画像
は、図8のように、対象となる赤目画像を対象にしても
よいし、図10のように瞳の色だけを対象にしてもかまわ
ない。
In step 34, L * u * prepared in advance
v * is converted to R, G, B using a table on the monitor for converting to R, G, B. In step 35, the pupil color is corrected using the converted R, G, B. The corrected image is displayed as a preview image. The preview image may target the target red-eye image as shown in FIG. 8 or may target only the pupil color as shown in FIG.

【0035】次に、赤目を補正する範囲の調整方法につ
いて説明する。オペレータがプレビュー画像を見ながら
赤目を補正する範囲を選択する。図8では[瞳の範囲]
というスライドバーで示したしきい値の値を選択し、赤
目を補正する範囲を調整することができる。オペレータ
がプレビュー画像を見て、赤目の一部しか補正されてい
ないと判断した場合は、スライドバーにより示したしき
い値を下げていき、逆に赤目でない部分まで補正されて
いる場合は、しきい値を上げていけばよい。
Next, a method of adjusting the range for correcting red-eye will be described. The operator selects a red-eye correction range while viewing the preview image. In FIG. 8, [pupil range]
By selecting the threshold value indicated by the slide bar, the range in which red-eye is corrected can be adjusted. When the operator views the preview image and determines that only part of the red eye has been corrected, the threshold indicated by the slide bar is lowered. You just need to raise the threshold.

【0036】このようにすれば、選択する瞳の色が従来
のように複数の不連続なカラーパッチで表示されるので
はなく、1つのパラメータにより連続して変化する形で
表示されるため、オペレータは選択しやすく、操作も簡
単になる。
In this way, the pupil color to be selected is displayed in a form that is continuously changed by one parameter, instead of being displayed by a plurality of discontinuous color patches as in the related art. The operator can easily select and operate.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成・機能を示すブロック図。FIG. 1 is a block diagram showing the configuration and functions of the present invention.

【図2】一実施形態のシステム構成を示す図。FIG. 2 is a diagram showing a system configuration according to an embodiment.

【図3】同上実施形態における赤目補正のメインルーチ
ンを示すフローチャート。
FIG. 3 is a flowchart showing a main routine of red-eye correction in the embodiment.

【図4】同上ルーチンの小領域分割のサブルーチンを示
すフローチャート。
FIG. 4 is a flowchart showing a small area division subroutine of the routine.

【図5】同上ルーチンの瞳候補領域選択のサブルーチン
を示すフローチャート。
FIG. 5 is a flowchart showing a subroutine for selecting a pupil candidate area in the same routine.

【図6】同上実施形態における対象領域の指定方法を示
す図。
FIG. 6 is an exemplary view showing a method of specifying a target area in the embodiment.

【図7】同上実施形態における赤目補正の詳細な処理な
サブルーチンを示すフローチャート。
FIG. 7 is a flowchart showing a detailed subroutine of red eye correction in the embodiment.

【図8】は同上実施形態におけるオペレータが瞳の色を
補正する画面の1例を示す図。
FIG. 8 is a view showing an example of a screen on which the operator corrects the pupil color in the embodiment.

【図9】欧米人の瞳のサンプルのu*v*平面での分布
を示す図。
FIG. 9 is a diagram showing a distribution of a sample of pupils of Europeans and Americans on a u * v * plane.

【図10】同上実施形態におけるオペレータが瞳の色を補
正する画面の別の例を示す図。
FIG. 10 is a diagram showing another example of the screen for correcting the pupil color by the operator in the embodiment.

【符号の説明】[Explanation of symbols]

1 記憶装置 2 制御装置 3 モニタ Reference Signs List 1 storage device 2 control device 3 monitor

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】1以上の瞳の色調不良が存在する撮影画像
に対し、該色調不良の画素を検出する色調不良画素検出
手段と、 瞳の色の特性に応じて、補正する瞳の色の候補を決定す
る補正瞳色候補決定手段と、 色彩情報パラメータの値を入力して、前記瞳の色の候補
の中から補正する瞳の色を選択する補正瞳色選択手段
と、 前記選択した瞳の色を表示する選択瞳色表示手段と、 色調不良画素を前記選択された瞳の色に補正する瞳色補
正手段と、 を含んで構成したことを特徴とする画像処理装置。
1. A poorly-colored pixel detecting means for detecting a poorly-colored pixel in a captured image in which one or more poorly-colored pupils are present, the pupil color to be corrected according to the characteristics of the pupil color. Correction pupil color candidate determining means for determining a candidate, correction pupil color selecting means for inputting a value of a color information parameter and selecting a pupil color to be corrected from among the pupil color candidates, and the selected pupil An image processing apparatus comprising: a selected pupil color display unit that displays the color of the pupil; and a pupil color correction unit that corrects the poorly-colored pixel to the color of the selected pupil.
【請求項2】前記補正瞳色候補決定手段は、1つの色彩
情報のみを変数として補正する瞳の色の候補を決定し、 前記補正瞳色選択手段は、前記変数の値を入力して補正
する瞳の色を選択することを特徴とする請求項1に記載
の画像処理装置。
2. The correction pupil color candidate determination means determines a pupil color candidate to be corrected using only one color information as a variable, and the correction pupil color selection means inputs a value of the variable to perform correction. The image processing apparatus according to claim 1, wherein a pupil color to be selected is selected.
【請求項3】前記1つ色彩情報のみの変数は、CIEL
*u*v*の均等色空間におけるu*又はv*であるこ
とを特徴とする請求項2に記載の画像処理装置。
3. The variable of only one color information is CIEL
3. The image processing apparatus according to claim 2, wherein the image is u * or v * in a uniform color space of * u * v *.
【請求項4】前記1つ色彩情報のみの変数は、CIEL
*a*b*の均等色空間におけるa*又はb*であるこ
とを特徴とする請求項2に記載の画像処理装置。
4. The variable of only one color information is CIEL
The image processing apparatus according to claim 2, wherein the image processing apparatus is a * or b * in a uniform color space of * a * b *.
【請求項5】前記補正瞳色選択手段は、オペレータが画
面上に表示されるスライドバーの位置をセットすること
により前記色彩情報パラメータの値をセットする手段を
含むことを特徴とする請求項1〜請求項4のいずれか1
つに記載の画像処理装置。
5. The apparatus according to claim 1, wherein said correction pupil color selecting means includes means for setting a value of said color information parameter by setting a position of a slide bar displayed on a screen by an operator. To any one of claims 4 to
The image processing device according to any one of the above.
【請求項6】前記補正瞳色選択手段は、オペレータが色
彩情報パラメータの数値を直接入力する手段を含むこと
を特徴とする請求項1〜請求項4のいずれか1つに記載
の画像処理装置。
6. The image processing apparatus according to claim 1, wherein said correction pupil color selecting means includes means for directly inputting a numerical value of a color information parameter by an operator. .
【請求項7】補正する瞳の色の明度(L*) を、色調不
良画素のR以外の色成分に基づいて決定する手段を含む
ことを特徴とする請求項1〜請求項7のいずれか1つに
記載の画像処理装置。
7. The apparatus according to claim 1, further comprising means for determining the lightness (L *) of the color of the pupil to be corrected based on a color component other than R of the poor-tone pixel. The image processing device according to one of the above.
JP15134897A 1997-06-09 1997-06-09 Image processing device Expired - Fee Related JP3709656B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP15134897A JP3709656B2 (en) 1997-06-09 1997-06-09 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP15134897A JP3709656B2 (en) 1997-06-09 1997-06-09 Image processing device

Publications (2)

Publication Number Publication Date
JPH10341352A true JPH10341352A (en) 1998-12-22
JP3709656B2 JP3709656B2 (en) 2005-10-26

Family

ID=15516606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP15134897A Expired - Fee Related JP3709656B2 (en) 1997-06-09 1997-06-09 Image processing device

Country Status (1)

Country Link
JP (1) JP3709656B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186325A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Method and device for processing picture, recording medium and transmitting medium
WO2001071421A1 (en) * 2000-03-23 2001-09-27 Kent Ridge Digital Labs Red-eye correction by image processing
JP2005316973A (en) * 2004-03-30 2005-11-10 Fuji Photo Film Co Ltd Red-eye detection apparatus, method and program
JP2007287166A (en) * 2007-06-01 2007-11-01 Seiko Epson Corp Red-eye correcting device, red-eye correcting method and red-eye correcting program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001186325A (en) * 1999-12-24 2001-07-06 Fuji Photo Film Co Ltd Method and device for processing picture, recording medium and transmitting medium
WO2001071421A1 (en) * 2000-03-23 2001-09-27 Kent Ridge Digital Labs Red-eye correction by image processing
JP2005316973A (en) * 2004-03-30 2005-11-10 Fuji Photo Film Co Ltd Red-eye detection apparatus, method and program
JP4505362B2 (en) * 2004-03-30 2010-07-21 富士フイルム株式会社 Red-eye detection apparatus and method, and program
JP2007287166A (en) * 2007-06-01 2007-11-01 Seiko Epson Corp Red-eye correcting device, red-eye correcting method and red-eye correcting program
JP4492643B2 (en) * 2007-06-01 2010-06-30 セイコーエプソン株式会社 Red-eye correction device, red-eye correction method, and red-eye correction program

Also Published As

Publication number Publication date
JP3709656B2 (en) 2005-10-26

Similar Documents

Publication Publication Date Title
US7830418B2 (en) Perceptually-derived red-eye correction
US6016354A (en) Apparatus and a method for reducing red-eye in a digital image
US9852499B2 (en) Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification
JP3264273B2 (en) Automatic color correction device, automatic color correction method, and recording medium storing control program for the same
US6249601B1 (en) Method for determining color of illuminant and apparatus therefor
EP2525562B1 (en) Image processing apparatus, image processing method, program and imaging apparatus
JPWO2006059573A1 (en) Color adjustment apparatus and method
JP2002158893A (en) Device and method for correcting picture and recording medium
US7251054B2 (en) Method, apparatus and recording medium for image processing
JP2006033656A (en) User interface provider
JPH09322192A (en) Detection and correction device for pink-eye effect
JP2000134486A (en) Image processing unit, image processing method and storage medium
GB2432659A (en) Face detection in digital images
JP2001148780A (en) Method for setting red-eye correction area and red-eye correction method
JP3510040B2 (en) Image processing method
JP2007087123A (en) Image correction method, device and program
JP3709656B2 (en) Image processing device
JPH11341501A (en) Electrophotographic image pickup device, electrophotographic image pickup method and medium recorded with electrophotographic image pickup control program
CN113099191B (en) Image processing method and device
US20150228098A1 (en) Simplified lighting compositing
JP2008071014A (en) Image processing program, image processor and electronic camera
JP3502828B2 (en) Computer image processing system
JP2605011B2 (en) Color image processing method
WO2001078368A2 (en) Film and video bi-directional color matching system and method
JP2001061071A (en) Image correction device and image correction method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050426

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050620

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050719

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050801

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090819

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100819

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110819

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120819

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees