JP3036285B2 - Red eye position detector - Google Patents

Red eye position detector

Info

Publication number
JP3036285B2
JP3036285B2 JP5045400A JP4540093A JP3036285B2 JP 3036285 B2 JP3036285 B2 JP 3036285B2 JP 5045400 A JP5045400 A JP 5045400A JP 4540093 A JP4540093 A JP 4540093A JP 3036285 B2 JP3036285 B2 JP 3036285B2
Authority
JP
Japan
Prior art keywords
red
eye
signal
image
eye position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP5045400A
Other languages
Japanese (ja)
Other versions
JPH06258732A (en
Inventor
広明 久保
俊幸 田中
由香里 前田
Original Assignee
ミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ミノルタ株式会社 filed Critical ミノルタ株式会社
Priority to JP5045400A priority Critical patent/JP3036285B2/en
Publication of JPH06258732A publication Critical patent/JPH06258732A/en
Application granted granted Critical
Publication of JP3036285B2 publication Critical patent/JP3036285B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Control Of Exposure In Printing And Copying (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、フラッシュ撮影時に生
じることのある被写体人物画像の赤目を補正するための
赤目位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a red-eye position detecting device for correcting a red-eye of a person image of a subject which may occur during flash photography.

【0002】[0002]

【従来の技術】人物を被写体としてフラッシュ撮影した
場合、フラッシュ光の一部が眼球内の血管等で反射し、
カメラ側に帰来して黒目の中央が赤くなる、いわゆる赤
目現象を生じることがある。特に近年のカメラの小型化
に伴い撮影レンズの光軸とフラッシュの光軸とが接近す
ることに起因して、かかる赤目現象が、一層発生し易く
なっている。そこで、かかる赤目発生を防止するため
に、フラッシュを本発光させる直前にプリ発光させて瞳
孔を窄ませた状態で撮影を行うようにした赤目発生防止
機能付きカメラが市販されている。また、印画紙にプリ
ントする際に、赤目を修正することも行われている。
2. Description of the Related Art When flash photography is performed using a person as a subject, a part of the flash light is reflected by blood vessels in an eyeball, and the like.
A so-called red-eye phenomenon may occur, which is returned to the camera and the center of the iris becomes red. In particular, the red-eye effect is more likely to occur due to the approach of the optical axis of the photographing lens and the optical axis of the flash with the recent miniaturization of cameras. Therefore, in order to prevent the occurrence of such red-eye, a camera with a red-eye prevention function that performs pre-emission immediately before the main emission of the flash and shoots in a state where the pupil is narrowed is commercially available. Further, when printing on photographic paper, red-eye is also corrected.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記赤
目発生防止機能付きカメラにおいても、被写体人物の個
人差その他の撮影条件下で常に赤目の発生が防止できる
までには至っていない。また、印画紙へのプリント時の
赤目修正においても、その修正作業に頻雑さや熟練さが
要求される等を考慮すると一般的ではない。
However, even with the above-mentioned camera with a red-eye prevention function, the occurrence of red-eye has not always been able to be prevented under the individual difference of the subject person and other photographing conditions. In addition, red-eye correction at the time of printing on photographic paper is not general in view of the need for frequent and skillful work in the correction work.

【0004】一方、撮像手段により撮像された画像に対
し、パターン認識技術等を利用して瞳孔位置を抽出し、
あるいは画像内の赤色部分を抽出して、この部分を色変
換することも考えられるが、赤目位置を正確に検出しよ
うとすれば、画像処理技術が極めて複雑となり、装置自
体も高価なものとなる。一方、通常の画像処理技術で
は、赤目位置以外の赤色部分も一律に、あるいは誤って
色変換してしまうという虞れがあり、却って不自然な写
真を提供してしまうこととなり兼ねない。
On the other hand, a pupil position is extracted from an image picked up by an image pickup means using a pattern recognition technique or the like.
Alternatively, it is conceivable to extract a red portion in the image and perform color conversion on this portion. However, if the red eye position is to be accurately detected, the image processing technique becomes extremely complicated and the device itself becomes expensive. . On the other hand, in the ordinary image processing technique, there is a risk that the red portion other than the red-eye position may be uniformly or erroneously converted into a color, which may rather provide an unnatural photograph.

【0005】本発明は、上記に鑑みてなされたもので、
撮像手段により撮像し、この画像から顔面特有の複数の
色成分画像を抽出して被写体人物の赤目位置を検出する
赤目位置検出装置を提供することを目的とする。
[0005] The present invention has been made in view of the above,
It is an object of the present invention to provide a red-eye position detecting device that picks up an image by an image pickup unit, extracts a plurality of color component images specific to the face from the image, and detects the red-eye position of the subject person.

【0006】[0006]

【課題を解決するための手段】本発明に係る赤目位置検
出装置は、撮像手段と、該撮像手段により得られた画像
データから低彩度領域及び低照度領域の少なくとも一方
を抽出する第1の抽出手段と、上記画像データから肌色
領域を抽出する第2の抽出手段と、上記画像データから
赤色領域を抽出する第3の抽出手段と、上記第1、第2
及び第3の抽出手段からの信号を用いて画像内の赤目位
置を検出する検出手段とを備えたものである。
According to the present invention, there is provided a red-eye position detecting apparatus, comprising: an image pickup means for extracting at least one of a low saturation area and a low illuminance area from image data obtained by the image pickup means; Extracting means; second extracting means for extracting a flesh color area from the image data; third extracting means for extracting a red area from the image data;
And detection means for detecting a red-eye position in the image using a signal from the third extraction means.

【0007】[0007]

【作用】本発明によれば、撮像手段により得られた画像
データから低彩度領域及び低照度領域の少なくとも一方
の領域と肌色領域とが抽出され、これらの抽出信号を用
いて、例えば論理積をとることで、人物の眼を含む領域
が抽出される。更に、抽出された赤色部信号を用いて、
目を含む領域から、赤目が発生しているときは、当該赤
目位置が検出される。
According to the present invention, at least one of the low saturation area and the low illuminance area and the skin color area are extracted from the image data obtained by the imaging means, and for example, the logical product is obtained by using the extracted signals. , An area including the eyes of the person is extracted. Further, using the extracted red part signal,
When a red eye is generated from the area including the eye, the position of the red eye is detected.

【0008】そして、このようにして得られた赤目位置
データは、撮像された画像データがモニター等へ読み出
される際に、赤目位置の赤色が別の色に、例えば人物の
通常の黒目に補正されるように用いられる。
The red-eye position data thus obtained is corrected such that the red at the red-eye position becomes a different color, for example, a normal black eye of a person, when the captured image data is read out to a monitor or the like. Used as

【0009】[0009]

【実施例】図1は、本発明が適用される赤目補正装置の
第1実施例を示す全体ブロック図である。図において、
1は現像済みカラーフィルムを撮像部20でカラー撮像
して得られるR,G,B色の各画像信号を、例えば1画
素毎に8ビットのデジタル信号に変換するA/Dコンバ
ータである。画像メモリ2は上記A/Dコンバータ1か
ら、それぞれ同期して入力されるR,G,B画像信号を
各色毎に記憶するメモリ部201,202,203を備
え、これらは各色に対してそれぞれフィルム1コマ分に
対応する記憶容量を有している。
FIG. 1 is an overall block diagram showing a first embodiment of a red-eye correction apparatus to which the present invention is applied. In the figure,
Reference numeral 1 denotes an A / D converter that converts R, G, and B color image signals obtained by color imaging of a developed color film by the imaging unit 20 into, for example, 8-bit digital signals for each pixel. The image memory 2 includes memory units 201, 202, and 203 for storing, for each color, R, G, and B image signals input in synchronization with the A / D converter 1, respectively. It has a storage capacity corresponding to one frame.

【0010】撮像部20は、図2に示すように、フィル
ムカートリッジ21から現像済みカラーフィルムFを引
き出して巻き取る巻き取り手段22と、上記フィルムカ
ートリッジ21と巻き取り手段22間に配設され、引き
出されるフィルムFを挾むようにして対向配設された光
源23とミラー24を備えるとともにミラー24から像
変倍部25を介してその結像位置に配設されたR,G,
B色の各フィルターを備えたCCD等の撮像手段26と
で構成され、マニュアル指示によりフィルムFの1コマ
ずつ、あるいは上記巻き取り手段22によって自動的に
1コマずつ繰り出せるようになっている。巻き取り手段
22による1コマずつの繰り出しは、フィルムのパーフ
ォレーションを検出する光学的な手段(不図示)を介し
て行うことができる。また、上記フィルムカートリッジ
21の適所に、あるいはフィルムFの各コマに対応する
フィルム下端位置には磁気テープ等の記録媒体等が配設
され、かかる記録媒体に各コマに対する撮影倍率β、連
写情報その他所要の撮影情報が記録可能にされているも
のにあっては、必要に応じてこの撮影倍率β等が読み取
れるように磁気ヘッド27が付設されている。
As shown in FIG. 2, the image pickup section 20 is provided with a winding means 22 for pulling out the developed color film F from the film cartridge 21 and winding the same, and between the film cartridge 21 and the winding means 22. A light source 23 and a mirror 24 are provided so as to be opposed to each other so as to sandwich the film F to be drawn out.
It is constituted by an image pickup means 26 such as a CCD provided with each filter of B color, and can be fed out one frame at a time by the manual instruction or one frame at a time by the winding means 22 automatically. The unwinding by the winding means 22 one frame at a time can be performed via optical means (not shown) for detecting the perforation of the film. A recording medium such as a magnetic tape or the like is provided at an appropriate position of the film cartridge 21 or at a lower end position of the film corresponding to each frame of the film F. In the case where other required photographing information can be recorded, a magnetic head 27 is attached so that the photographing magnification β and the like can be read as needed.

【0011】図1に戻り、L,u,v色度マトリクス回
路3は画像メモリ2から同期して読み出されるR,G,
B信号をL,u,v表色系(国際照明委員会CIE準
拠:JIS8730)に変換するものである。LUT4
〜LTU6はそれぞれ複数のテーブルを内蔵し、選択さ
れたテーブルを用いて入力信号に対し、後述する変換処
理等を施して出力するものである。表1にLUT4〜L
TU6が内蔵するテーブルを示す。
Returning to FIG. 1, the L, u, v chromaticity matrix circuit 3 reads out R, G,
The B signal is converted into an L, u, v color system (based on the International Commission on Illumination CIE: JIS8730). LUT4
LTU6 incorporates a plurality of tables, respectively, and performs conversion processing and the like, which will be described later, on the input signal using the selected table and outputs the result. Table 1 shows LUT4 to LUT
4 shows a table built in TU6.

【0012】[0012]

【表1】 [Table 1]

【0013】マイコン7は上記画像メモリ2及び後述の
2値データメモリ13へのR/Wコントロールとアドレ
スコントロール信号、LUT4〜6の各テーブルの選択
信号、及び後述するスイッチSW1〜SW4の切り換え
信号を必要に応じて出力するものである。このマイコン
7は上記画像メモリ2からの画像信号を所定の周期で繰
り返し読み出すように所要回路部をコントロールしてお
り、これによりモニター等に静止画を提供している。更
に、マイコン7は撮像されたフィルムの各コマに対する
撮影倍率βを前記磁気ヘッド27から読み取って入力可
能にしており、この撮影倍率βを用いて後述のローパス
フィルターLPF8〜10のフィルター特性を変更する
ものである。撮像部20が撮影倍率βを自動読み込みで
きないタイプであるときは、マニュアル入力可能にされ
ているものでもよい。
The microcomputer 7 sends R / W control and address control signals to the image memory 2 and a binary data memory 13 to be described later, selection signals for each table of the LUTs 4 to 6, and switching signals for switches SW1 to SW4 to be described later. It is output as needed. The microcomputer 7 controls a required circuit section so as to repeatedly read out the image signal from the image memory 2 at a predetermined cycle, thereby providing a still image to a monitor or the like. Further, the microcomputer 7 can read and input a photographing magnification β for each frame of the filmed film from the magnetic head 27, and uses the photographing magnification β to change the filter characteristics of the low-pass filters LPF8 to LPF8 to be described later. Things. When the imaging unit 20 is of a type that cannot automatically read the photographing magnification β, it may be one that allows manual input.

【0014】LPF8〜10は、入力される信号を鈍ら
せる、いわゆるフィルター効果を与えるもので、例えば
LUT4から低照度検出テーブルを介して入力される信
号をフィルタリングすることにより、画像内の低照度検
出範囲を広げるようにする。INV11は入力レベルを
反転して出力するものである。2値データメモリ13は
AND回路12からの論理積出力を記憶するものであ
る。この2値データメモリ13は画像メモリ2の各色の
メモリ部に対応するアドレスを有する。また、2値デー
タメモリ13の出力はマイコン7からのコントロール信
号に基づいてスイッチSW4、LPF10を介してAN
D回路12の一入力端に再入力可能になっている。
The LPFs 8 to 10 provide a so-called filter effect for dulling an input signal. For example, the LPFs 8 to 10 filter a signal input from the LUT 4 via a low illuminance detection table to detect low illuminance in an image. Try to increase the range. INV11 inverts the input level and outputs the result. The binary data memory 13 stores the logical product output from the AND circuit 12. The binary data memory 13 has an address corresponding to the memory section of each color of the image memory 2. Further, the output of the binary data memory 13 is transmitted through the switches SW 4 and LPF 10 based on a control signal from
The input can be re-input to one input terminal of the D circuit 12.

【0015】スイッチSW1〜SW4は信号経路を切り
換えるスイッチで、マイコン7からの切り換え信号によ
り切り換え制御される。スイッチSW1とスイッチSW
2は直列に接続されており、LUT6の出力をLPF8
へ導く場合とLUT6の出力をINV11を経て直接A
ND回路12へ導く場合(図示の状態)とを切り換え
る。スイッチSW3は、LUT5の出力をLPF9へ導
く場合とLUT5の出力を直接AND回路12へ導く場
合(図示の状態)とを切り換える。スイッチSW4はL
UT4の出力をLPF10へ導く場合(図示の状態)と
2値データメモリ13からの出力をLPF10へ導く場
合とを切り換える。なお、このとき、スイッチSW4の
出力側にスイッチを付加して、2値データメモリ13か
らの出力をLPF10を介さずにAND回路12の一入
力端に直接導くようにしてもよい。
The switches SW1 to SW4 are switches for switching signal paths, and are controlled by a switching signal from the microcomputer 7. Switch SW1 and switch SW
2 are connected in series, and the output of LUT 6 is connected to LPF 8
And the output of LUT6 is directly connected to A via INV11.
It switches between the case where it is guided to the ND circuit 12 (the state shown). The switch SW3 switches between a case where the output of the LUT 5 is guided to the LPF 9 and a case where the output of the LUT 5 is directly guided to the AND circuit 12 (the state illustrated). Switch SW4 is L
Switching between the case where the output of the UT 4 is guided to the LPF 10 (the state shown) and the case where the output from the binary data memory 13 is guided to the LPF 10 is performed. At this time, a switch may be added to the output side of the switch SW4, and the output from the binary data memory 13 may be directly led to one input terminal of the AND circuit 12 without passing through the LPF 10.

【0016】マトリクス回路14はLUT4〜6から入
力される信号をY,R−Y,B−Yの各信号に変換する
ものである。エンコーダ15はマトリクス回路14から
の上記各信号をY信号とC信号に、あるいはNTSC信
号にコード化するものである。D/Aコンバータ16は
エンコーダ15の出力信号をアナログ信号に変換して不
図示のモニターへ出力するものである。
The matrix circuit 14 converts signals input from the LUTs 4 to 6 into Y, RY, and BY signals. The encoder 15 encodes each signal from the matrix circuit 14 into a Y signal and a C signal or into an NTSC signal. The D / A converter 16 converts an output signal of the encoder 15 into an analog signal and outputs the analog signal to a monitor (not shown).

【0017】次に図3〜図8を用いて、赤目位置検出及
びその色補正について説明する。図3は赤目位置を説明
するための図、図4(a)〜(j)は赤目位置の各検出手順に
対する画像処理内容を説明するための図、図5〜図8は
赤目位置検出及び色補正処理のアルゴリズムを示す図で
ある。
Next, the detection of the red-eye position and the color correction thereof will be described with reference to FIGS. FIG. 3 is a diagram for explaining a red-eye position, FIGS. 4A to 4J are diagrams for explaining image processing contents for each detection procedure of the red-eye position, and FIGS. FIG. 9 is a diagram illustrating an algorithm of a correction process.

【0018】今、フィルム画像が図4(a)に示すカラー
人物像であるとすると、この画像が撮像部20で撮像さ
れてR,G,B色の各画像信号として取り込まれ、A/
Dコンバータ1で、それぞれ8ビットのデジタル信号に
変換されて画像メモリ2に記憶される(#2〜#6)。
続いて、マイコン7からのアドレスコントロール信号に
基づいて、上記R,G,B信号が同期して読み出され、
色度マトリクス回路3でL,u,v信号に変換される
(#8)。そして、この変換信号に対して、先ず処理A
(#10)が実行される。
Now, assuming that the film image is a color human image shown in FIG. 4A, this image is picked up by the image pick-up section 20 and taken in as R, G, and B image signals, and A / A
The digital signal is converted into an 8-bit digital signal by the D converter 1 and stored in the image memory 2 (# 2 to # 6).
Subsequently, based on the address control signal from the microcomputer 7, the R, G, and B signals are read out synchronously,
The chromaticity matrix circuit 3 converts the signals into L, u, v signals (# 8). Then, processing A
(# 10) is executed.

【0019】図6は、この処理Aのアルゴリズムを詳細
に示す図で、#30〜#34、#36〜#40、#42
〜#46が第1ルーチン(読出1周期目)として同期し
て処理される。すなわち、#30,#32では、LUT
4の内部テーブルとして低照度検出テーブルが選択さ
れ、これにより、L信号のうち低照度部分が“1”に、
それ以外の部分が“0”として2値化される(図4
(b))。また、#36,#38では、LUT5の内部テ
ーブルとして低彩度検出テーブルが選択され、これによ
り、u,v信号を用いて低彩度部分が“1”に、それ以
外の部分が“0”として2値化される(図4(c))。更
に、#42,#44では、LUT6の内部テーブルとし
て肌色検出テーブルが選択され、これにより、u,v信
号を用いて肌色部分が“1”に、それ以外の部分が
“0”として2値化される(図4(d))。
FIG. 6 is a diagram showing the algorithm of the process A in detail, and includes # 30 to # 34, # 36 to # 40, and # 42.
To # 46 are synchronously processed as a first routine (first reading cycle). That is, in # 30 and # 32, the LUT
The low illuminance detection table is selected as the internal table of No. 4, whereby the low illuminance portion of the L signal becomes “1”,
The other parts are binarized as “0” (FIG. 4
(b)). In # 36 and # 38, the low chroma detection table is selected as the internal table of the LUT 5, whereby the low chroma portion is set to "1" using the u and v signals, and the other portions are set to "0". "(See FIG. 4 (c)). Further, in # 42 and # 44, the flesh color detection table is selected as the internal table of the LUT 6, whereby the flesh color portion is set to "1" using the u and v signals, and the other portions are set to "0" to be binary. (FIG. 4D).

【0020】そして、これらの2値化された信号は、そ
れぞれマトリクス回路14に導かれるとともに、LPF
8,9,10に導かれ(#34,#40,#46)、低
照度領域(図4(e))、低彩度領域(図4(f))及び肌色
領域(図4(g))に広げられる。ここで、低照度領域の
広げ度合は各コマに対応する前記撮影倍率βに基づいて
決定される。例えば、撮像倍率βが大きい程、信号の鈍
らせ度合が大きくなるようにされる。また、#34,#
40の処理は、図3に示すように、赤目の周囲に低照度
かつ低彩度の黒目部分が残ることに着目したものであっ
て、この黒目部の周囲を包含するように抽出範囲を広げ
ることで、赤目発生位置を確実に検出範囲内に収めるよ
うにするためである。#40の処理は、赤目が肌色に囲
まれた部分に発生することを利用して、顔面等の全体を
検出範囲内に含めるようにしたものである。
These binarized signals are respectively guided to a matrix circuit 14 and LPF
8, 9, 10 (# 34, # 40, # 46), low illuminance area (FIG. 4 (e)), low chroma area (FIG. 4 (f)) and skin color area (FIG. 4 (g)) ). Here, the degree of expansion of the low illuminance area is determined based on the photographing magnification β corresponding to each frame. For example, the greater the imaging magnification β, the greater the degree of signal blunting. Also, # 34, #
The process 40 focuses on the fact that a low-illuminance and low-saturation black-eye portion remains around the red eye as shown in FIG. 3, and the extraction range is expanded to encompass this black-eye portion. This is to ensure that the red-eye occurrence position is within the detection range. The process of # 40 utilizes the fact that red eyes occur in a portion surrounded by flesh color, so that the entire face or the like is included in the detection range.

【0021】LPF8〜10から同期して出力される2
値信号はAND回路12で論理積がとられ(図4
(h))、2値データメモリ13に記憶される(#48〜
#50)。
2 output synchronously from LPFs 8 to 10
The value signal is ANDed by the AND circuit 12 (FIG. 4).
(h)) Stored in the binary data memory 13 (# 48 to # 48)
# 50).

【0022】続いて、#52,#54、#56〜#60
及び#62,#64の第2ルーチン(読出2周期目)が
実行される。すなわち、#52で、LUT5の内部テー
ブルとして赤色検出テーブルが選択され、これにより、
u,v信号を用いて赤色部分が“1”に、それ以外の部
分が“0”として2値化される(#54,(図4
(i)))。なお、このときスイッチSW3は切り換えら
れており、LUT5からの2値信号はLPF9を介する
ことなく直接AND回路12へ導かれる。更に、#56
で、LUT6の内部テーブルとして肌色検出テーブルが
選択され、これにより、u,v信号を用いて肌色部分が
“1”に、それ以外の部分が“0”として2値化される
(#58)。この2値信号はスイッチSW1の切り換え
によりINV11で反転され(#60)、更にLPF8
を介することなく、直接AND回路12へ導かれる。こ
の#52,#54及び#56〜#60の各処理は、個人
差や撮影光源などの諸条件によって赤色領域と肌色領域
とが重複することがあった場合に、肌色として検出され
た領域に対して、すなわち赤目位置以外についての色補
正を禁止するための準備処理である。
Subsequently, # 52, # 54, # 56 to # 60
And a second routine (second reading cycle) of # 62 and # 64 is executed. That is, in # 52, the red detection table is selected as the internal table of the LUT 5, whereby
Using the u and v signals, the red portion is binarized as "1" and the other portions are binned as "0"(# 54, (FIG. 4
(i))). At this time, the switch SW3 is switched, and the binary signal from the LUT 5 is directly guided to the AND circuit 12 without passing through the LPF 9. Furthermore, # 56
Then, a flesh color detection table is selected as an internal table of the LUT 6, whereby the flesh color portion is binarized to "1" and the other portions to "0" using the u and v signals (# 58). . This binary signal is inverted at INV11 by switching the switch SW1 (# 60), and furthermore, LPF8
, And directly to the AND circuit 12. The processes of # 52, # 54, and # 56 to # 60 are performed in the region detected as the skin color when the red region and the skin color region sometimes overlap due to various conditions such as individual differences and shooting light sources. On the other hand, this is a preparation process for prohibiting color correction except for the red-eye position.

【0023】そして、上記LUT5、INV11からの
信号は、前記スイッチSW4の切り換えにより2値デー
タメモリ13から同期して読み出される2値データ(図
4(h))とともにAND回路12で論理積がとられて、
再び2値データメモリ13に記憶される(#62,#6
4)。この結果、2値データメモリ13には、図4(j)
に示すように赤目位置のみが、データ“1”として取り
込まれることになる。次いで(読出3周期目)、図5に
戻り、処理B(#12)が実行される。なお、このと
き、前述したようにスイッチSW4を通過した2値信号
をLPF10を介さずにAND回路12に導いてもよ
い。
The signals from the LUT 5 and INV 11 are ANDed by the AND circuit 12 together with the binary data (FIG. 4 (h)) synchronously read from the binary data memory 13 by switching the switch SW4. Being
It is stored again in the binary data memory 13 (# 62, # 6
4). As a result, in the binary data memory 13, FIG.
As shown in (1), only the red-eye position is captured as data "1". Next (the third reading cycle), the process returns to FIG. 5, and the process B (# 12) is executed. At this time, the binary signal passed through the switch SW4 may be led to the AND circuit 12 without passing through the LPF 10 as described above.

【0024】図7は、上記処理Bのアルゴリズムを詳細
に示す図である。処理Bでは、マイコン7により、画像
メモリ2の各色メモリ部からの画像信号の読み出しと同
期して2値データメモリ13から2値データが順次読み
出される(#70)。そして、この2値データメモリ1
3からの出力値が“1”か“0”か、すなわち赤目位置
であるかそうでないかが判別される(#72)。マイコ
ン7はこの2値データの“1”,“0”に応じてLUT
4〜6に内蔵されるテーブルの変更を行う。すなわち、
2値データが“0”であれば、LUT4〜6のいずれも
スルーテーブルに切り換えられて、8ビットの入力信号
が変換されることなくそのまま出力される(#74)。
一方、2値データが“1”であれば、処理Cが実行され
る(#76)。
FIG. 7 is a diagram showing the algorithm of the process B in detail. In the process B, the microcomputer 7 sequentially reads out the binary data from the binary data memory 13 in synchronization with the reading of the image signal from each color memory section of the image memory 2 (# 70). Then, the binary data memory 1
It is determined whether the output value from # 3 is "1" or "0", that is, whether it is the red-eye position or not (# 72). The microcomputer 7 sets the LUT according to the binary data "1" and "0".
The tables built in 4 to 6 are changed. That is,
If the binary data is "0", all of the LUTs 4 to 6 are switched to the through table, and the 8-bit input signal is output as it is without conversion (# 74).
On the other hand, if the binary data is “1”, the process C is executed (# 76).

【0025】図8は、この処理Cのアルゴリズムの詳細
を示すもので、LUT4はLowレベルを落すテーブル
に(#80,#82)、LUT5及び6は赤色抑圧テー
ブルに切り換えられて、赤目位置の赤色が抑圧処理さ
れ、例えば黒目に修正される(#84,#86、#8
8,#90)。
FIG. 8 shows the details of the algorithm of the processing C. The LUT 4 is switched to a table for lowering the low level (# 80, # 82), and the LUTs 5 and 6 are switched to the red suppression table, and the red eye position is reduced. The red color is subjected to the suppression processing, and is corrected, for example, to black eyes (# 84, # 86, # 8)
8, # 90).

【0026】このようにしてLUT4〜6から出力され
た(#82、#86、#90)各信号は、マトリクス回
路15で、Y,R−Y,B−Yの各信号に変換され、次
いでエンコーダ16でY信号とC信号に、あるいはNT
SC信号にコード化され、更にD/Aコンバータでアナ
ログ信号に変換されてY,C信号として、あるいはNT
SC信号として出力される(#14〜#20)。この
Y,C信号、あるいはNTSC信号は不図示のモニター
等に導かれて静止画として再生される。再生開始後に、
一旦赤目位置が検出されると、かかる検出処理を読み出
し周期毎に継続して行う必要はないので、例えばLUT
4〜6からAND回路12側への信号ラインを、あるい
はAND回路12と2値データメモリ13間を遮断する
等の制御をすればよい。これらの点は、後述の実施例に
おいても同様である。
The respective signals (# 82, # 86, # 90) output from the LUTs 4 to 6 are converted by the matrix circuit 15 into respective signals of Y, RY, and BY. The encoder 16 converts the signal into a Y signal and a C signal, or NT
It is coded into an SC signal, converted into an analog signal by a D / A converter, and converted into a Y or C signal or NT.
It is output as an SC signal (# 14 to # 20). The Y, C signal or NTSC signal is guided to a monitor or the like (not shown) and reproduced as a still image. After starting playback,
Once the red-eye position is detected, it is not necessary to continuously perform such detection processing for each readout cycle.
The signal lines from 4 to 6 to the AND circuit 12 side or the control between the AND circuit 12 and the binary data memory 13 may be controlled. These points are the same in the embodiments described later.

【0027】なお、この実施例では、画像メモリ2から
の最初の2周期の期間内では赤目補正されない画像がモ
ニターに導かれ、3周期目以降に赤目補正された画像が
モニターに導かれることになるが、その間の時間は僅か
であり、観察者に何等違和感を与えることはない。ある
いは、2値データメモリ13に補正データが得られるま
で、マトリクス回路14〜D/Aコンバータ16へのい
ずれかで画像信号出力を遮断するようにしてもよい。
In this embodiment, an image which is not red-eye corrected during the first two cycles from the image memory 2 is guided to the monitor, and an image which is red-eye corrected after the third cycle is guided to the monitor. However, the time during this period is short, and does not give any discomfort to the observer. Alternatively, the output of the image signal may be cut off by any of the matrix circuits 14 to the D / A converter 16 until the correction data is obtained in the binary data memory 13.

【0028】図9は、赤目補正装置の第2実施例を示す
全体ブロック図である。なお、図中、図1と同一番号が
付されたものは同一機能を果たすものである。また、撮
像部は図から省略している。
FIG. 9 is an overall block diagram showing a second embodiment of the red-eye correction device. In the figure, components denoted by the same reference numerals as those in FIG. 1 perform the same functions. The imaging unit is omitted from the figure.

【0029】この第2実施例の構成は、画像メモリ2と
マトリクス回路3間にスイッチSW10,11及び乗算
部17,18が介設されてなるものである。スイッチS
W10はR色メモリ部201と乗算部17とを切り換え
て色度マトリクス回路3に接続するもので、スイッチS
W11はG色メモリ部202と乗算部18とを切り換え
て色度マトリクス回路3に接続するものである。
In the configuration of the second embodiment, switches SW10 and SW11 and multipliers 17 and 18 are provided between the image memory 2 and the matrix circuit 3. Switch S
W10 switches between the R color memory unit 201 and the multiplying unit 17 to be connected to the chromaticity matrix circuit 3;
W11 switches between the G color memory unit 202 and the multiplying unit 18 to connect to the chromaticity matrix circuit 3.

【0030】乗算部17は画像メモリ2のB色メモリ部
203とスイッチSW10間に介在され、該B色メモリ
部203からの出力に係数k1を乗算するものである。
乗算部18は画像メモリ2のB色メモリ部203とスイ
ッチSW11間に介在され、該B色メモリ部203から
の出力に係数k2を乗算するものである。従って、スイ
ッチSW10,11がかかる乗算部17,18側に切り
換えられた時は、色度マトリクス回路3には(R',
G',B')=(k1・B,k2・B,B)なる信号が入
力される。マイコン7は、これらのスイッチSW10,
SW11を、後述するように適宜切り換える。表2にL
UT41,51,61が内蔵するテーブルを示す。
The multiplication unit 17 is interposed between the B color memory unit 203 of the image memory 2 and the switch SW10, and multiplies the output from the B color memory unit 203 by a coefficient k1.
The multiplication unit 18 is interposed between the B color memory unit 203 of the image memory 2 and the switch SW11, and multiplies the output from the B color memory unit 203 by a coefficient k2. Therefore, when the switches SW10 and SW11 are switched to the multiplication units 17 and 18, the chromaticity matrix circuit 3 stores (R ',
G ′, B ′) = (k1 · B, k2 · B, B). The microcomputer 7 controls these switches SW10,
SW11 is appropriately switched as described later. Table 2 shows L
4 shows a table built in the UTs 41, 51, and 61.

【0031】[0031]

【表2】 [Table 2]

【0032】この第2実施例における赤目補正処理は、
第1実施例の図5において、処理B(#12)の内容が
異なる。図10は、この処理のアルゴリズムを詳細に示
す図である。すなわち、マイコン7は2値データメモリ
13から順次2値データの読み出しを行わせ、これと同
期して画像メモリ2から各色の画像信号の読み出しを行
わす(#100)。そして、2値データメモリ13から
読み出された2値データに対して、“1”か“0”かの
判別が行われる。2値データが“0”であれば、マイコ
ン7からのコントロール信号によりLUT41,51,
61の内蔵テーブルがいずれもスルーテーブルに切り換
えられて、色度マトリクス回路3からの各8ビットの画
像信号が変換されることなくそのままマトリクス回路1
5に導かれる(#104)。
The red-eye correction processing in the second embodiment is as follows.
In FIG. 5 of the first embodiment, the content of the process B (# 12) is different. FIG. 10 is a diagram showing the algorithm of this processing in detail. That is, the microcomputer 7 sequentially reads binary data from the binary data memory 13 and, in synchronization with this, reads image signals of each color from the image memory 2 (# 100). Then, it is determined whether the binary data read from the binary data memory 13 is “1” or “0”. If the binary data is "0", the LUTs 41, 51,
Each of the built-in tables 61 is switched to a through table, and the 8-bit image signal from the chromaticity matrix circuit 3 is not converted and the matrix circuit 1 is not converted.
5 (# 104).

【0033】一方、2値データが“0”のときは、LU
T41,51,61の内蔵テーブルはそのままのスルー
テーブルであるが、スイッチSW10,SW11が乗算
部17,18側に切り換えられて、下記の信号処理が施
される。すなわち、色度マトリクス回路3には(R',
G',B')=(k1・B,k2・B,B)のように変換
された8ビットの信号が入力される。
On the other hand, when the binary data is "0", the LU
The built-in tables of T41, 51, and 61 are the through tables as they are, but the switches SW10 and SW11 are switched to the multipliers 17 and 18 to perform the following signal processing. That is, (R ′,
G ′, B ′) = (k1 · B, k2 · B, B) and an 8-bit signal converted is input.

【0034】このようにすることで、第1実施例に比し
て、LUT41内のテーブルとしてレベル変換テーブル
が、LUT51,61内のテーブルとして赤色極圧テー
ブルが不要となり、その分、テーブル容量の低減が図れ
る。
In this way, compared to the first embodiment, the level conversion table as the table in the LUT 41 and the red extreme pressure table as the tables in the LUTs 51 and 61 become unnecessary. Reduction can be achieved.

【0035】次に、図11は、赤目補正装置の第3実施
例を示す全体ブロック図で、図12は、赤目位置検出処
理のアルゴリズムを示す図である。なお、図中、図9と
同一番号が付されたものは同一機能を果たすものであ
る。また、撮像部は図から省略している。
Next, FIG. 11 is an overall block diagram showing a third embodiment of the red-eye correction device, and FIG. 12 is a diagram showing an algorithm of the red-eye position detection processing. In the figure, components denoted by the same reference numerals as those in FIG. 9 perform the same functions. The imaging unit is omitted from the figure.

【0036】LUT52はスルーテーブルと赤色検出テ
ーブルを、LUT62はスルーテーブルと肌色検出テー
ブルをそれぞれ内蔵している。なお、色度マトリクス回
路3からのL信号は、赤色位置の検出時には利用され
ず、しかも赤目補正時には直接マトリクス回路14に入
力されるだけなので、図9に示すLUT41は不要とな
っている。
The LUT 52 has a through table and a red detection table, and the LUT 62 has a through table and a skin color detection table. Note that the L signal from the chromaticity matrix circuit 3 is not used when detecting the red position, and is only input directly to the matrix circuit 14 during red-eye correction, so that the LUT 41 shown in FIG. 9 is unnecessary.

【0037】輪郭抽出部31は2値データメモリ13の
各アドレスから順次出力される2値データから赤色部が
塊として存在する領域を抽出するとともに、その領域の
輪郭を抽出するものである。形状識別部32は、パター
ン認識技術を利用して、抽出された赤色部の輪郭が円形
かどうかを判別し、円形のものを赤目位置として識別す
るものである。LPF81はフィルター特性がマイコン
71からの撮影倍率βに応じて変更可能にされており、
撮影倍率βが大きいほど人物の顔部分が大きく撮影され
ているものとみなしてフィルター効果を上げるようにし
ている。なお、スイッチSW5,6の一方入力端にはレ
ベル“1”に相当する電圧が印加されている。
The contour extracting section 31 extracts a region where a red portion exists as a block from binary data sequentially output from each address of the binary data memory 13 and extracts a contour of the region. The shape identification unit 32 uses a pattern recognition technique to determine whether or not the outline of the extracted red portion is circular, and identifies the circular shape as a red-eye position. The LPF 81 has a filter characteristic that can be changed according to the photographing magnification β from the microcomputer 71.
It is assumed that the larger the imaging magnification β, the larger the face portion of the person is, and the higher the filtering effect. A voltage corresponding to level "1" is applied to one input terminal of the switches SW5 and SW6.

【0038】続いて、赤目位置検出処理について、図1
2のアルゴリズムを用いて説明する。今、フィルム画像
が図4(a)に示すカラー人物像であるとして、この画像
がR,G,B色の各画像信号として取り込まれ、画像メ
モリ2に記憶されたものとする。そして、マイコン7か
らのアドレスコントロール信号に基づいて、上記R,
G,B信号が同期して読み出され、色度マトリクス回路
3でL,u,v信号に変換されて、#110、#112
〜#116が同期して処理される。すなわち、LUT5
2の内部テーブルとして赤色検出テーブルが選択され、
これにより、u,v信号を用いて赤色部が“1”に、そ
れ以外の部分が“0”として2値化される(#110,
図4(i))。一方、LUT62の内部テーブルとして肌
色検出テーブルが選択され、これにより、u,v信号を
用いて肌色部が“1”に、それ以外の部分が“0”とし
て2値化される(#112,図4(d))。
Next, the red-eye position detection processing will be described with reference to FIG.
A description will be given using the algorithm of FIG. Now, it is assumed that the film image is the color human image shown in FIG. 4A, and that this image is captured as image signals of R, G, and B colors and stored in the image memory 2. Then, based on the address control signal from the microcomputer 7, the above R,
The G and B signals are read out in synchronism, converted into L, u, and v signals by the chromaticity matrix circuit 3, and are converted to # 110 and # 112.
To # 116 are processed synchronously. That is, LUT5
2, the red detection table is selected as the internal table,
As a result, using the u and v signals, the red portion is binarized as "1" and the other portions are set as "0"(# 110, # 110).
FIG. 4 (i)). On the other hand, a flesh color detection table is selected as an internal table of the LUT 62, whereby the flesh color portion is binarized to “1” and the other portions to “0” using the u and v signals (# 112, FIG. 4 (d)).

【0039】そして、LUT52からの信号はスイッチ
SW5を介してAND回路12へ、LUT62からの信
号はスイッチSW1,SW2及びLPF81を介して肌
色部の領域拡大が行われて(#114,図4(g))、A
ND回路12へ導かれる。ここで、肌色部の領域拡大度
合は各コマに対応する前記撮影倍率βに基づいて決定さ
れる。例えば、撮像倍率βが大きい程、信号の鈍らせ度
合が大きくなるようにされる。なお、このとき、スイッ
チSW6はレベル“1”側に切り換えられている。従っ
て、AND回路12で、赤色部と拡大された肌色領域と
の論理積が取られて2値データメモリ13に取り込まれ
る。
Then, the signal from the LUT 52 is supplied to the AND circuit 12 via the switch SW5, and the signal from the LUT 62 is subjected to the area expansion of the flesh color portion via the switches SW1, SW2 and the LPF 81 (# 114, FIG. g)), A
It is led to the ND circuit 12. Here, the degree of area enlargement of the skin color portion is determined based on the photographing magnification β corresponding to each frame. For example, the greater the imaging magnification β, the greater the degree of signal blunting. At this time, the switch SW6 has been switched to the level "1". Therefore, the logical product of the red portion and the enlarged flesh color area is obtained by the AND circuit 12 and is taken into the binary data memory 13.

【0040】次いで、次周期で、マイコン7からの切り
換え信号に基づいてスイッチSW1,2,5,6が切り
換えられるとともに、アドレスコントロール信号に基づ
いて、LUT52,62から同様に2値化信号が読み出
され、LUT62からの信号はINV11で反転された
後、スイッチSW1,SW2を介してLPF81を通過
することなく、直接AND回路12に導かれる。一方、
スイッチSW5はレベル“1”側に切り換えられてお
り、またスイッチSW6は2値データメモリ13側に接
続されており、このため、AND回路12で#116と
#118の処理が実行される。このようにして、肌色領
域の近傍に存在する赤色部が抽出される。
Next, in the next cycle, the switches SW1, SW2, SW5, and SW6 are switched based on the switching signal from the microcomputer 7, and the binary signals are similarly read from the LUTs 52 and 62 based on the address control signal. The signal output from the LUT 62 is inverted by the INV 11, and is directly guided to the AND circuit 12 via the switches SW 1 and SW 2 without passing through the LPF 81. on the other hand,
The switch SW5 is switched to the level "1", and the switch SW6 is connected to the binary data memory 13, so that the AND circuit 12 executes the processing of # 116 and # 118. In this way, the red part existing near the flesh color area is extracted.

【0041】続いて、2値データメモリ13から赤色部
の信号が順次読み出され、輪郭抽出部31でそれぞれの
赤色信号の輪郭が画像処理により抽出される(#12
0)。そして、得られた各輪郭信号は次段の形状識別部
32に導かれ、ここで輪郭が丸、すなわち円形であれば
赤目位置と判別し、そうでなければ他の赤色物(例えば
図4(i)のリボン等)と判断する(#122)。赤目位
置と判断された輪郭データはマイコン71に取り込まれ
る。
Subsequently, the red signal is sequentially read out from the binary data memory 13, and the outline of each red signal is extracted by image processing in the outline extraction unit 31 (# 12).
0). Then, each of the obtained contour signals is guided to the shape discriminating section 32 at the next stage. If the contour is circular, that is, circular, it is determined to be a red-eye position. Otherwise, another red object (for example, FIG. i), etc.) (# 122). The contour data determined as the red-eye position is taken into the microcomputer 71.

【0042】そして、次周期で、画像メモリ2から信号
を読み出す際に該赤目位置の存在するアドレスを指定す
る毎に、スイッチSW10,11を切り換えて、色度マ
トリクス回路3に(R',G',B')=(k1・B,k
2・B,B)なる信号を送出する。なお、このときは、
第2実施例と同様、LUT52,62はいずれもスルー
テーブルが選択されている。
In the next cycle, when reading out the signal from the image memory 2, every time the address where the red-eye position exists is specified, the switches SW10 and SW11 are switched, and the (R ', G ', B') = (k1 · B, k
2 · B, B). In this case,
As in the second embodiment, a through table is selected for each of the LUTs 52 and 62.

【0043】また、形状識別部32における赤目識別を
より精度良く行うために、該形状識別部32で得られた
円形信号の近く、すなわち画面上で両眼間距離に換算さ
れた距離に、同等の円形信号があるかどうかで、該円形
信号が赤目部かどうかを判別するようにすることもでき
る(#124)。あるいは、形状識別部32は輪郭抽出
部31で抽出された赤色部の面積、例えば赤色のアドレ
ス数を合計して求まる値に換算された値が、撮影倍率β
から予想される大きさであるかどうかにより赤目部を識
別するようにすることもできる(#126)。また、第
1実施例、第2実施例で2値データメモリ13に得られ
た赤目検出データとの論理積を取って、より精度向上を
図るようにしてもよい。
Further, in order to perform the red-eye discrimination in the shape discriminating section 32 more accurately, the distance near the circular signal obtained by the shape discriminating section 32, that is, the distance converted to the interocular distance on the screen, is equivalent to the distance. It is also possible to determine whether or not the circular signal is a red-eye part based on whether or not the circular signal is present (# 124). Alternatively, the shape identification unit 32 calculates the area of the red portion extracted by the contour extraction unit 31, for example, a value converted to a value obtained by adding the number of red addresses, to the photographing magnification β.
The red-eye portion can be identified based on whether or not the size is expected from # (# 126). In addition, the accuracy may be further improved by taking a logical product of the red-eye detection data obtained in the binary data memory 13 in the first and second embodiments.

【0044】次に、図13は、赤目補正装置の第4実施
例を示す全体ブロック図で、図14は、赤目位置検出処
理のアルゴリズムを示す図である。なお、図中、図9及
び図11と同一番号が付されたものは同一機能を果たす
ものである。
Next, FIG. 13 is an overall block diagram showing a fourth embodiment of the red-eye correction device, and FIG. 14 is a diagram showing an algorithm of the red-eye position detection processing. Note that, in the drawings, those denoted by the same reference numerals as those in FIGS. 9 and 11 perform the same functions.

【0045】図において、ラベリング部33は、赤色信
号が1つの塊として存在する各赤色領域を抽出し、これ
らの赤色部のそれぞれに対し、例えば連番を付すなどす
るとともに、撮影倍率βから予想される両眼距離に一対
で存在するものを抽出するものである。
In the figure, a labeling section 33 extracts each red area where a red signal exists as one lump, assigns a serial number to each of these red sections, and estimates the red area from the photographing magnification β. This is to extract a pair existing at the determined binocular distance.

【0046】続いて、図14により赤目位置検出処理を
説明すると、先ず、マイコン72からのアドレスコント
ロール信3号に基づいて、上記R,G,B信号が同期し
て読み出され、色度マトリクス回路でL,u,v信号に
変換されて、#130〜#136の処理が実行される。
すなわち、LUT52の内部テーブルとして赤色検出テ
ーブルが選択され、これにより、u,v信号を用いて赤
色部が“1”に、それ以外の部分が“0”として2値化
される(#130)。
Next, the red-eye position detection processing will be described with reference to FIG. 14. First, based on the address control signal 3 from the microcomputer 72, the R, G, and B signals are read out in synchronization with each other, and the chromaticity matrix is read. The signals are converted into L, u, v signals by the circuit, and the processing of # 130 to # 136 is executed.
That is, the red detection table is selected as the internal table of the LUT 52, whereby the red portion is set to “1” and the other portions are set to “0” using the u and v signals, thereby being binarized (# 130). .

【0047】この2値信号は、ラベリング部33で画像
処理され、得られた各赤色領域に対して、連番が付され
(#132)、各ラべリングされた赤色領域の座標値、
すなわち画像メモリ2上のアドレスデータがマイコン7
2に導かれる。マイコン72は、得られた赤色領域の中
心座標値、すなわち中心アドレスを求めて一旦記憶し、
一方、撮影倍率βから予想される両眼距離をアドレス上
での距離に変換する。そして、上記求めた中心アドレス
からそれぞれ2個を、全ての組合せについて、前記両眼
距離に相当するアドレス距離と比較し、一致したときの
2個の赤色領域を赤目部と判別する(#136)。そし
て、マイコン72は、赤目部と判別された領域のアドレ
スに対して補正用、例えば“1”を記憶する。なお、そ
の他の領域については補正不要として、結果的に“0”
とされる。なお、赤目補正時における処理は、第3実施
例と同様なので説明は省略する。
The binary signal is subjected to image processing in the labeling section 33, and a serial number is assigned to each of the obtained red areas (# 132), and the coordinate values of each of the labeled red areas,
That is, the address data on the image memory 2 is
It is led to 2. The microcomputer 72 obtains and temporarily stores the obtained center coordinate value of the red area, that is, the center address,
On the other hand, the binocular distance predicted from the photographing magnification β is converted into a distance on an address. Then, two of the obtained center addresses are compared with the address distance corresponding to the binocular distance for all the combinations for all combinations, and the two red areas when they match each other are determined as red-eye parts (# 136). . Then, the microcomputer 72 stores, for example, “1” for correction in the address of the area determined as the red-eye portion. It should be noted that no correction is necessary for the other areas, and as a result, "0"
It is said. The processing at the time of red-eye correction is the same as that of the third embodiment, and a description thereof will be omitted.

【0048】また、図13において、カッコで囲まれた
輪郭抽出部31及び形状識別部32は本実施例における
赤目位置検出の変形例を示したもので、各ラベリングさ
れた赤色領域の輪郭を輪郭抽出部31でそれぞれ抽出
し、形状識別部32で各輪郭が円形であれば赤目位置と
判別し、そうでなければ他の赤色物と判断するようにし
たもので(#138)、赤目位置の検出精度を向上させ
たものである。また、第1実施例、第2実施例で2値デ
ータメモリ13に得られた赤目検出データとの論理積を
取って、より検出精度の向上を図るようにしてもよい。
In FIG. 13, a contour extracting unit 31 and a shape discriminating unit 32 surrounded by parentheses show a modified example of the red-eye position detection in this embodiment, in which the contour of each labeled red area is contoured. The extraction unit 31 extracts each of them, and the shape identification unit 32 determines that each of the outlines is circular if the outline is circular, and otherwise determines that it is another red object (# 138). This is an improvement in detection accuracy. In addition, the detection accuracy may be further improved by taking the logical product of the red-eye detection data obtained in the binary data memory 13 in the first and second embodiments.

【0049】次に、図15は、赤目補正装置の第5、6
実施例を示す全体ブロック図で、図16は、第5実施例
における赤目位置検出処理のアルゴリズムを示し、図1
7は、第6実施例における赤目位置検出処理のアルゴリ
ズムを示す図である。第5実施例はスイッチSW7が図
示の状態にある場合で、第6実施例はスイッチSW7が
直接マイコン73に接続された状態にある場合である。
なお、図中、図9及び図11と同一番号が付されたもの
は同一機能を果たすものである。
FIG. 15 shows the fifth and sixth red-eye correction devices.
FIG. 16 is an overall block diagram showing an embodiment. FIG. 16 shows an algorithm of a red-eye position detection process in the fifth embodiment.
FIG. 7 is a diagram illustrating an algorithm of a red-eye position detection process in the sixth embodiment. The fifth embodiment is a case where the switch SW7 is in the illustrated state, and the sixth embodiment is a case where the switch SW7 is directly connected to the microcomputer 73.
Note that, in the drawings, those denoted by the same reference numerals as those in FIGS. 9 and 11 perform the same functions.

【0050】図において、輪郭抽出部34は肌色信号を
含む領域の輪郭を抽出するものである。形状識別部35
は予め人間の顔面形状を基準形状として記憶しておき、
輪郭抽出部34で得られる1又は複数の輪郭の内、いず
れが基準形状と一致するかどうかを、パターン認識技術
を利用して、判別することで、顔面を識別するものであ
る。塗りつぶし処理部36は形状識別部35で識別され
た顔面形状の閉領域内を塗りつぶす、すなわち当該領域
内に対し全て“1”を書き込むものである。
In the figure, a contour extracting section 34 extracts a contour of a region including a flesh color signal. Shape identification unit 35
Previously stores the human face shape as a reference shape,
The face is identified by determining, using a pattern recognition technique, which one or a plurality of contours obtained by the contour extraction unit 34 matches the reference shape. The painting processing unit 36 paints the inside of the closed area of the face shape identified by the shape identification unit 35, that is, writes “1” into the entire area.

【0051】続いて、第5実施例の場合における赤目位
置検出処理について図16のアルゴリズムを用いて説明
する。先ず、マイコン7からのアドレスコントロール信
号に基づいて、上記R,G,B信号が同期して読み出さ
れ、色度マトリクス回路3でL,u,v信号に変換され
て、#150、および#152〜#158の処理が同期
して実行される。すなわち、LUT52の内部テーブル
として赤色検出テーブルが選択され、これにより、u,
v信号を用いて赤色部が“1”に、それ以外の部分が
“0”として2値化される(#150)。この2値信号
はそのままAND回路121の一入力端に導かれる。一
方、LUT62の内部テーブルとして肌色検出テーブル
が選択され、これにより、u,v信号を用いて肌色部が
“1”に、それ以外の部分が“0”として2値化され
る。
Next, the red-eye position detecting process in the case of the fifth embodiment will be described with reference to the algorithm shown in FIG. First, based on an address control signal from the microcomputer 7, the R, G, and B signals are read out in synchronization and converted into L, u, and v signals by the chromaticity matrix circuit 3, and are converted into # 150 and # 150. The processing of 152 to # 158 is executed in synchronization. That is, the red detection table is selected as the internal table of the LUT 52, whereby u,
Using the v signal, the red part is binarized as "1" and the other parts are set as "0"(# 150). This binary signal is directly guided to one input terminal of the AND circuit 121. On the other hand, a flesh color detection table is selected as an internal table of the LUT 62, whereby the flesh color portion is set to "1" using the u and v signals, and the other portions are binarized as "0".

【0052】この2値信号は輪郭抽出部34に入力さ
れ、肌色部が領域として存在する該領域のそれぞれにつ
いて、その輪郭が抽出される(#152)。更に、抽出
された各輪郭は、形状識別部で、それが人物の顔面形状
の基準である、例えば卵形をしているかどうか判別され
る(#156)。そして、輪郭が卵形であると識別され
たときは、当該輪郭内に対して均一な塗りつぶし処理が
施される(#158)。次いで、この塗りつぶし処理さ
れた顔面領域信号は、LPF82を経て撮影倍率βに応
じて領域拡大が図られた後、AND回路121の他方入
力端に導かれ、ここで前記赤色部と論理積が取られる
(#160)。この論理積により、顔面内の赤色部が検
出されることになる。次いで、得られた赤色部の輪郭が
抽出され(#162)、更に、この抽出された輪郭が
丸、すなわち円形かどうかが識別される(#164)。
円形であれば赤目位置であるとして、マイコンに当該領
域内の信号が取り込まれる。そして、得られた赤目位置
信号はマイコン73に導かれ、前記第2実施例と同様に
して、赤目補正処理が施される。
The binary signal is input to the contour extraction unit 34, and the contour is extracted for each of the regions where the skin color portion exists as a region (# 152). Further, each of the extracted contours is discriminated by the shape discriminating section as to whether or not it is a reference for the shape of the face of a person, for example, an egg shape (# 156). Then, when the contour is identified as an oval, uniform filling processing is performed on the inside of the contour (# 158). Next, the face area signal which has been subjected to the filling processing is subjected to LPF 82 to expand the area in accordance with the photographing magnification β, and then guided to the other input end of the AND circuit 121, where the logical product of the red part and the red part is obtained. (# 160). By this logical product, a red portion in the face is detected. Next, the outline of the obtained red portion is extracted (# 162), and it is further determined whether or not the extracted outline is a circle, that is, a circle (# 164).
If it is circular, it is determined that the position is the red-eye position, and the signal in the area is taken into the microcomputer. Then, the obtained red-eye position signal is guided to the microcomputer 73 and subjected to red-eye correction processing in the same manner as in the second embodiment.

【0053】更に、赤目部の識別をより精度良く行うた
めに、該形状識別部32内に得られた円形信号の近くに
同等の円形信号があるかどうかで、該円形信号が赤目部
かどうかを判別するようにすることもできる(#16
6)。あるいは、形状識別部32は輪郭抽出部31で抽
出された赤色部の面積が撮影倍率βから予想される大き
さであるかどうかにより赤目部を識別するようにするこ
ともできる(#168)。また、第1実施例、第2実施
例で2値データメモリ13に得られた赤目検出データと
の論理積を取って、より精度向上を図るようにしてもよ
い。
Further, in order to identify the red-eye portion more accurately, it is determined whether or not there is an equivalent circular signal near the obtained circular signal in the shape discriminating unit 32. Can also be determined (# 16
6). Alternatively, the shape identifying unit 32 can identify the red-eye portion based on whether or not the area of the red portion extracted by the contour extracting unit 31 is the size expected from the imaging magnification β (# 168). In addition, the accuracy may be further improved by taking a logical product of the red-eye detection data obtained in the binary data memory 13 in the first and second embodiments.

【0054】続いて、第6実施例の場合における赤目位
置検出処理について図17のアルゴリズムを用いて説明
する。なお、この第6実施例においては、図15に示す
形状識別部35は、人間の顔面形状に代えて、眼の形状
を識別するもので、予め人間の眼の基準形状を記憶して
おき、輪郭抽出部34で得られる1又は複数の輪郭の
内、いずれが基準形状と一致するかどうかを、パターン
認識技術を利用して、判別する先ず、第5実施例同様、
LUT52の内部テーブルとして赤色検出テーブルが選
択され、これにより、u,v信号を用いて赤色部が
“1”に、それ以外の部分が“0”として2値化される
(#180)。この2値信号はそのままAND回路12
1の一入力端に導かれる。一方、LUT62の内部テー
ブルとして肌色検出テーブルが選択され、これにより、
u,v信号を用いて肌色部が“1”に、それ以外の部分
が“0”として2値化される。
Next, red eye position detection processing in the case of the sixth embodiment will be described with reference to the algorithm of FIG. In the sixth embodiment, the shape identification unit 35 shown in FIG. 15 identifies the shape of the eye instead of the shape of the human face, and stores the reference shape of the human eye in advance. Using a pattern recognition technique to determine which of one or a plurality of contours obtained by the contour extracting unit 34 matches the reference shape. First, as in the fifth embodiment,
The red detection table is selected as the internal table of the LUT 52, whereby the red portion is set to “1” and the other portions are set to “0” using the u and v signals to be binarized (# 180). This binary signal is supplied to the AND circuit 12 as it is.
1 to one input terminal. On the other hand, a skin color detection table is selected as an internal table of the LUT 62, and
Using the u and v signals, the skin color part is binarized as "1" and the other parts are set as "0".

【0055】この2値信号は輪郭抽出部34に入力さ
れ、肌色部と他の色部との境界が、それぞれ輪郭として
抽出される(#182)。例えば、顔面と顔面内の眼と
は色が異なるので、結果的に眼の外周に対して輪郭が形
成される。このようにして、抽出された各輪郭は、形状
識別部35で、それが人物の眼形状の基準である、例え
ば横向きの楕円形をしているかどうか判別される(#1
84)。そして、輪郭が眼の形であると識別されたとき
は(#186)、当該輪郭出囲まれる閉領域に対して均
一な塗りつぶし処理が施される(#188)。次いで、
この塗りつぶし処理された眼領域信号は、LPF82を
経て撮影倍率βに応じて領域拡大が図られた後、AND
回路121の他方入力端に導かれ、ここで前記赤色部と
論理積が取られる(#190)。この論理積により、眼
内の赤色部が検出されることになる。そして、得られた
赤目位置信号はマイコン73に導かれ、前記第2実施例
と同様にして、赤目補正処理が施される。
The binary signal is input to the contour extraction unit 34, and the boundaries between the skin color part and other color parts are respectively extracted as contours (# 182). For example, since the face and the eyes in the face have different colors, a contour is formed on the outer periphery of the eyes as a result. In this manner, each of the extracted contours is determined by the shape identification unit 35 as to whether or not it has a standard elliptical shape, for example, a horizontal ellipse, which is a reference of the eye shape of a person (# 1).
84). Then, when the contour is identified as an eye shape (# 186), a uniform filling process is performed on a closed region surrounded by the contour (# 188). Then
The eye region signal that has been subjected to the filling process is subjected to ANDF after the region is enlarged through the LPF 82 in accordance with the photographing magnification β.
The signal is led to the other input terminal of the circuit 121, where it is logically ANDed with the red part (# 190). By this logical product, a red part in the eye is detected. Then, the obtained red-eye position signal is guided to the microcomputer 73 and subjected to red-eye correction processing in the same manner as in the second embodiment.

【0056】また、赤目識別をより精度良く行うため
に、得られた眼位置信号の近くに同等の形状の信号があ
るかどうかで赤目部を識別するようにすることもできる
(#192)。あるいは、形状識別部35は輪郭抽出部
34で抽出された眼形状の面積が撮影倍率βから予想さ
れる大きさであるかどうかにより赤目部を識別するよう
にすることもできる(#194)。また、第1実施例、
第2実施例で2値データメモリ13に得られた赤目検出
データとの論理積を取って、より精度向上を図るように
してもよい。また、上記第5実施例と第6実施例とを組
み合わせてより精度の高い赤目位置検出を行うようにし
てもよく、更に、これに第3実施例を組み合わせれば、
一層高精度の赤目位置検出が期待できる。
In order to more accurately perform red-eye identification, the red-eye portion can be identified by determining whether there is a signal having an equivalent shape near the obtained eye position signal (# 192). Alternatively, the shape identification unit 35 can identify the red-eye portion based on whether or not the area of the eye shape extracted by the contour extraction unit 34 is a size expected from the photographing magnification β (# 194). Also, the first embodiment,
In the second embodiment, a logical AND with the red-eye detection data obtained in the binary data memory 13 may be taken to further improve the accuracy. Further, the fifth embodiment and the sixth embodiment may be combined to perform more accurate red-eye position detection. Further, if the third embodiment is combined with this,
More accurate red-eye position detection can be expected.

【0057】次に、図18は、赤目補正装置の第7実施
例を示す全体ブロック図で、図中、第9図と同一番号が
付されたものは同一機能を果たすものである。図19は
赤目位置検出処理のアルゴリズムを示す図である。
Next, FIG. 18 is an overall block diagram showing a seventh embodiment of the red-eye correction device. In the drawing, those denoted by the same reference numerals as in FIG. 9 perform the same functions. FIG. 19 is a diagram showing an algorithm of the red-eye position detection processing.

【0058】図において、マイコン74はモニター19
上の押下位置座標(x,y)が入力されるようになされ
ている。この座標(x,y)は画像メモリ2のアドレス
と対応するようになっている。なお、このモニター上の
位置指定の方法は、モニター19画面に透明なタッチパ
ネル191を重畳して配設し、このタッチパネル191
を押下することにより、あるいは操作部からの操作によ
り移動指示可能な画面上の表示マーカーを操作すること
により行われる。
In the figure, the microcomputer 74 is connected to the monitor 19
The upper pressed position coordinates (x, y) are input. The coordinates (x, y) correspond to the addresses of the image memory 2. In this method of specifying the position on the monitor, a transparent touch panel 191 is superposed on the screen of the monitor 19, and the touch panel 191 is provided.
Is performed, or by operating a display marker on the screen that can be instructed to move by an operation from the operation unit.

【0059】図20は、信号(L,u,v)から輝度系
(L)と極座標系(r,φ)への変換を説明するための
図で、図20(a)は(u,v)信号から(r,φ)信
号に変換する場合を示し、図20(b)は輝度信号Lを
抽出する場合を示す。
FIG. 20 is a diagram for explaining the conversion from the signal (L, u, v) to the luminance system (L) and the polar coordinate system (r, φ). FIG. FIG. 20B shows a case where the luminance signal L is extracted.

【0060】赤目補正テーブル37は、図示の状態にあ
るスイッチSW10,SW11を通して画像メモリ2か
ら入力される指定位置の信号(L,u,v)を輝度系
(L)と極座標系(r,φ)に変換すると共に、図20
(a)(b)に示すように、上記変換値に許容範囲を加
味した輝度信号(L±d)、色信号(r±α,φ±β)
を求めるとともに、色信号に対しては、更に逆変換し
て、(u1≦u≦u2,v1≦v≦v2)を求めるものであ
る。マイコン74は、この値をスイッチSW8,SW9
を通してLUT43、53内のRAMに書き込むように
している。また、LUT43は画像メモリ2から順次読
み出される信号(L)が、(L±d)の範囲に含まれる
ときは、“1”を出力し、それ以外のときは“0”出力
する。LUT53は画像メモリ2から順次読み出される
信号(u,v)が(u1≦u≦u2,v1≦v≦v2)の範
囲に含まれるときは、“1”を出力し、それ以外のとき
は“0”を出力する。このときのLUT43、53から
の各2値出力は、マイコン74からの切り換え信号によ
りスイッチSW8,SW9を通してAND回路121に
導かれるようになっている。
The red-eye correction table 37 converts a signal (L, u, v) at a designated position input from the image memory 2 through the switches SW10 and SW11 in the illustrated state into a luminance system (L) and a polar coordinate system (r, φ). ) And FIG.
(A) As shown in (b), a luminance signal (L ± d) and a chrominance signal (r ± α, φ ± β) in which an allowable range is added to the conversion value.
, And further inversely transforms the color signal to obtain (u 1 ≦ u ≦ u 2 , v 1 ≦ v ≦ v 2 ). The microcomputer 74 compares this value with the switches SW8 and SW9.
Is written to the RAM in the LUTs 43 and 53. The LUT 43 outputs “1” when the signal (L) sequentially read from the image memory 2 falls within the range of (L ± d), and outputs “0” otherwise. The LUT 53 outputs “1” when the signals (u, v) sequentially read from the image memory 2 are included in the range of (u 1 ≦ u ≦ u 2 , v 1 ≦ v ≦ v 2 ), and otherwise outputs In this case, "0" is output. At this time, the binary outputs from the LUTs 43 and 53 are guided to the AND circuit 121 through the switches SW8 and SW9 in response to a switching signal from the microcomputer 74.

【0061】続いて、図19により赤目位置検出処理を
説明すると、先ず、モニター画面上の再生画像からその
赤目位置に対して位置(x,y)が指定されると(#2
00)、マイコン74から、このアドレス(x,y)が
読み出され、画像メモリ2に供給される。そして、画像
メモリ2から該当アドレスのR,G,B信号が読み出さ
れ、色度マトリクス回路3でL,u,v信号に変換され
て赤目補正テーブル37に導かれる(#202,#21
0)。次いで、輝度信号Lに対して、#204〜#20
6の処理が実行され、色信号U,vに対して#212〜
#218の処理が実行される。
Next, the red-eye position detection processing will be described with reference to FIG. 19. First, when a position (x, y) is specified for the red-eye position from the reproduced image on the monitor screen (# 2)
00), the address (x, y) is read from the microcomputer 74 and supplied to the image memory 2. Then, the R, G, and B signals of the corresponding address are read from the image memory 2, converted into L, u, and v signals by the chromaticity matrix circuit 3, and guided to the red-eye correction table 37 (# 202, # 21).
0). Next, for the luminance signal L, # 204 to # 20
6 are executed, and # 212 to # 212 are applied to the color signals U and v.
The process of # 218 is executed.

【0062】輝度信号に対しては、許容範囲を加味した
検出エリア(L±d)が指定され、この内容がLUT4
3に書き込まれる(#204,#206)。一方、色信
号に対しては一旦極座標(r,φ)に変換され、更に許
容範囲を加味した検出エリア(r±α,φ±β)が指定
された後、逆変換(u1≦u≦u2,v1≦v≦v2)され
て、この内容がLUT53に書き込まれる(#212〜
#216)。
For the luminance signal, a detection area (L ± d) taking into account an allowable range is designated, and the contents are described in LUT4.
3 (# 204, # 206). On the other hand, the color signal is once converted to polar coordinates (r, φ), and after a detection area (r ± α, φ ± β) is specified in consideration of an allowable range, the inverse conversion (u 1 ≦ u ≦) is performed. u 2 , v 1 ≦ v ≦ v 2 ), and the contents are written to the LUT 53 (# 212 to # 212).
# 216).

【0063】次いで、マイコン74からのアドレスコン
トロール信号に基づいて、画像メモリ2から画像信号が
順次読み出され、色度マトリクス回路33でL,u,v
信号に変換されて、LUT43,53に導かれる(#2
08,#218)。LUT43、53では、L,u,v
信号が、予め書き込まれた検出エリア(L±d)、(u
1≦u≦u2,v1≦v≦v2)に含まれるときは、それぞ
れ“1”が出力され、それ以外のときは“0”が出力さ
れて、AND回路121に出力され、論理積が取られて
2値データメモリ13に順次書き込まれる(#22
0)。
Next, based on the address control signal from the microcomputer 74, the image signals are sequentially read from the image memory 2, and the L, u, v
The signals are converted into signals and guided to the LUTs 43 and 53 (# 2
08, # 218). In the LUTs 43 and 53, L, u, v
The signals are detected in advance in the detection area (L ± d), (u
1 ≦ u ≦ u 2 , v 1 ≦ v ≦ v 2 ), “1” is output, otherwise “0” is output and output to the AND circuit 121, and The product is taken and sequentially written to the binary data memory 13 (# 22
0).

【0064】次周期における画像メモリ2からの読み出
し時には、2値データメモリ121の内容と同期して読
み出され、2値データメモリ121から“1”が出力さ
れるときは、赤目位置と見做して、スイッチSW10,
SW11を図示とは逆の状態に切り換えて乗算部17,
18を介して色度マトリクス回路3に出力させ、“0”
が出力されるときは、赤目位置以外であるとして、スイ
ッチSW10,SW11を図示の状態に切り換えて画像
メモリ2の出力をそのまま色度マトリクス回路3に導
く。
At the time of reading from the image memory 2 in the next cycle, reading is performed in synchronization with the contents of the binary data memory 121, and when "1" is output from the binary data memory 121, it is regarded as a red-eye position. And switch SW10,
SW11 is switched to a state opposite to the state shown in the figure,
18 to the chromaticity matrix circuit 3 to output "0"
Is output, the switches SW10 and SW11 are switched to the illustrated state, and the output of the image memory 2 is led to the chromaticity matrix circuit 3 as it is.

【0065】次に、図21は、赤目補正装置の第8実施
例を示す全体ブロック図で、図22は赤目位置検出処理
のアルゴリズムを示す図である。なお、図中、図9及び
図11と同一番号が付されたものは同一機能を果たすも
のである。
Next, FIG. 21 is an overall block diagram showing an eighth embodiment of the red-eye correction device, and FIG. 22 is a diagram showing an algorithm of the red-eye position detection processing. Note that, in the drawings, those denoted by the same reference numerals as those in FIGS. 9 and 11 perform the same functions.

【0066】この実施例では、連写撮影された一連のコ
マに対しては、先頭コマで赤目位置と判断された位置の
近領域のみ、次コマから赤目位置を検出すべき領域とし
て扱うようにして、赤目位置検出の容易、迅速化を図っ
たものである。
In this embodiment, for a series of consecutively shot frames, only the region near the position determined to be the red-eye position in the first frame is treated as the region where the red-eye position is to be detected from the next frame. Thus, the detection of the red-eye position is facilitated and speeded up.

【0067】図において、マイコン75は撮像部20か
ら、あるいはマニュアル入力された連写情報及びそれら
一連のコマの撮影倍率βとを取り込むようになってい
る。LPF83は撮影倍率βに応じてフィルター効果が
変更可能にされたものである。なお、図21に示す回路
ブロックは、第2実施例または第3実施例で示す赤目位
置検出回路部を備えており、2値データメモリ13内に
は、上記赤目位置検出回路部により、あるコマにおける
検出赤目位置の2値データが取り込まれているものとす
る。
In the figure, the microcomputer 75 takes in the continuous shooting information and the photographing magnification β of a series of frames which are input from the imaging section 20 or manually. The LPF 83 has a filter effect that can be changed according to the photographing magnification β. The circuit block shown in FIG. 21 includes the red-eye position detection circuit section shown in the second embodiment or the third embodiment, and a certain frame is stored in the binary data memory 13 by the red-eye position detection circuit section. It is assumed that the binary data of the detected red-eye position at has been captured.

【0068】続いて、図22により赤目検出処理を説明
する。連写撮影された一連のコマの再生であることがマ
イコン75で判別されると(#230)、連写1コマ目
に対する再生が終了しても、2値データメモリ13内の
2値データはそのまま保持される。次いで、連写2コマ
目に対する再生処理が開始されるまでに、先の連写1コ
マ目に赤目が存在したかどうかの確認が行われ(#23
2)、連写1コマ目に赤目が存在していなければ、2コ
マ目以降については、例えば第2、第3実施例による赤
目位置検出処理が行われる。
Next, the red-eye detection processing will be described with reference to FIG. If the microcomputer 75 determines that a series of frames continuously shot (# 230), the binary data stored in the binary data memory 13 remains in the binary data memory 13 even when the playback of the first frame of the continuous shooting is completed. It is kept as it is. Next, by the time the reproduction process for the second frame of continuous shooting is started, it is confirmed whether or not red eyes existed in the first frame of continuous shooting (# 23).
2) If red-eye does not exist in the first frame of continuous shooting, the red-eye position detection processing according to the second and third embodiments is performed for the second and subsequent frames, for example.

【0069】一方、連写1コマ目に赤目が存在しておれ
ば、2コマ目以降に対し、上記確認された赤目位置の近
領域のみ抽出して検出を行う(#234)。すなわち、
2値データメモリ13から先頭コマの赤目位置データが
読み出され、LPF83を介して、その領域が撮影倍率
βに応じて拡大される。そして、先頭コマで確認された
赤目位置を囲むように、その近領域に対しても、データ
“1”が生成された領域信号がAND回路121の一方
入力端に導かれる。これは、撮影倍率βが大きいほど先
頭コマと2コマ目以降のコマ間での眼の位置の移動が大
きくなることが予想されるので、これに応じて眼の部分
を確実に検知領域に含めるようにするものである。ま
た、LUT52から赤色検出テーブルを介して出力され
たコマ内の赤色部を示すデータ“1”がAND回路12
1の他方入力端に導かれる。
On the other hand, if red-eye exists in the first frame of the continuous shooting, only the area near the confirmed red-eye position is extracted and detected for the second and subsequent frames (# 234). That is,
The red-eye position data of the first frame is read from the binary data memory 13, and the area is enlarged via the LPF 83 in accordance with the photographing magnification β. Then, an area signal in which data “1” is generated is guided to one input terminal of the AND circuit 121 also in the vicinity area so as to surround the red-eye position confirmed in the first frame. This is because it is expected that the larger the shooting magnification β is, the larger the movement of the eye position between the first frame and the second and subsequent frames is, and accordingly the eye part is reliably included in the detection area. Is to do so. The data “1” indicating the red part in the frame output from the LUT 52 via the red detection table is input to the AND circuit 12.
1 to the other input terminal.

【0070】そして、両データはAND回路121で論
理積を取られて(#236)、マイコン75に出力さ
れ、記憶される。更に、3コマ目以降、連写モードの最
終コマまで、上述同様に先頭コマにおける検出赤目位置
のデータを元に赤目位置検出が行われる。
Then, both data are ANDed by the AND circuit 121 (# 236), output to the microcomputer 75 and stored. Further, the red-eye position detection is performed based on the data of the detected red-eye position in the first frame from the third frame to the last frame in the continuous shooting mode as described above.

【0071】なお、この実施例では、2値データメモリ
13の2値データを元に説明したが、第4〜第6実施例
において、マイコン内に取り込まれている赤目位置のデ
ータに基づいて同様の処理を行うこともできる。また、
赤目補正処理部の構成として第1実施例のものを採用す
ることもできる。
In this embodiment, the description has been made based on the binary data in the binary data memory 13. In the fourth to sixth embodiments, the same applies based on the data of the red-eye position taken in the microcomputer. Can also be performed. Also,
The configuration of the first embodiment can be adopted as the configuration of the red-eye correction processing unit.

【0072】次に、赤目補正装置の第9実施例について
説明する。この第9実施例における赤目位置検出は、モ
ニター上の再生画像に対し、赤目位置を直接マニュアル
指示して赤目補正を施すものである。すなわち、マニュ
アル指示された座標位置(x,y)を検出し、この検出
位置データをローパスフィルターを介して拡大する(x
±Δx,y±Δy)ようにして検知精度を確保し、該拡
大された検知領域に対して、LUT5(またはLUT5
1,52)の赤色検出テーブルを介して出力される赤色
部と論理積を取ることで、赤目位置を検出する。このと
き、拡大範囲は撮影倍率βに応じて可変可能にしてもよ
い。なお、マニュアル指示の方法は、図18に示すよう
に、押圧された位置座標(x,y)を出力する透明なタ
ッチパネルをモニター画面に重畳して配設し、あるいは
操作部からの操作により移動指示可能な画面上の表示マ
ーカーを操作し、位置指定するようにしてもよい。
Next, a ninth embodiment of the red-eye correction device will be described. The red-eye position detection in the ninth embodiment performs red-eye correction by directly specifying the red-eye position manually on the reproduced image on the monitor. That is, the coordinate position (x, y) designated manually is detected, and the detected position data is enlarged via the low-pass filter (x
± Δx, y ± Δy) to ensure detection accuracy, and the LUT 5 (or LUT 5
The red eye position is detected by calculating the logical product of the red part output via the red detection table of (1, 52). At this time, the enlargement range may be made variable according to the imaging magnification β. As shown in FIG. 18, the manual instruction is performed by disposing a transparent touch panel that outputs the pressed position coordinates (x, y) on the monitor screen, or moving the touch panel by operating the operation unit. The position may be designated by operating a display marker on the screen that can be instructed.

【0073】また、この第9実施例と前記第7実施例と
の論理積を取って(図19、#222)、より精度の高
い赤目位置検出を行うようにしてもよい。
Further, a logical product of the ninth embodiment and the seventh embodiment may be calculated (# 222 in FIG. 19) to detect the red-eye position with higher accuracy.

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば、
撮像手段により得られた画像データから第1の抽出手段
で低彩度領域及び低照度領域の少なくとも一方を抽出
し、第2の抽出手段で肌色領域を抽出し、第3の抽出手
段で赤色領域を抽出し、更に、第1、第2及び第3の抽
出手段からの抽出信号を用いて、すなわち顔面特有の複
数の色成分を用いて画像内の赤目位置を検出するように
したので、容易、確実な赤目位置検出ができる。
As described above, according to the present invention,
A first extracting unit extracts at least one of a low chroma region and a low illuminance region from image data obtained by the imaging unit, a second extracting unit extracts a skin color region, and a third extracting unit extracts a red color region. And the red-eye position in the image is detected using the extracted signals from the first, second and third extracting means, that is, using a plurality of color components specific to the face. , Reliable red-eye position detection is possible.

【0075】また、このようにして得られた赤目位置デ
ータは、撮像された画像データがモニター等へ読み出さ
れる際に、同期的に読み出す等によって、容易に赤目位
置に対する色補正にも利用可能となる。
The red-eye position data obtained in this way can be easily used for color correction for the red-eye position by, for example, reading out the image data synchronously when the image data is read out to a monitor or the like. Become.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明が適用される赤目補正装置の第1実施例
を示す全体ブロック図である。
FIG. 1 is an overall block diagram showing a first embodiment of a red-eye correction device to which the present invention is applied.

【図2】撮像部の全体構造を示す斜視図である。FIG. 2 is a perspective view illustrating an overall structure of an imaging unit.

【図3】赤目位置を説明するための図である。FIG. 3 is a diagram for explaining a red-eye position.

【図4】図4(a)〜(j)は赤目位置の各検出手順に対する
画像処理内容を説明するための図である。
FIGS. 4A to 4J are diagrams for explaining image processing contents for each detection procedure of a red-eye position.

【図5】赤目位置検出及び色補正処理のアルゴリズムを
示す図である。
FIG. 5 is a diagram illustrating an algorithm of red eye position detection and color correction processing.

【図6】処理Aのアルゴリズムを詳細に示す図である。FIG. 6 is a diagram showing an algorithm of a process A in detail.

【図7】処理Bのアルゴリズムを詳細に示す図である。FIG. 7 is a diagram showing an algorithm of processing B in detail.

【図8】処理Cのアルゴリズムを詳細に示す図である。FIG. 8 is a diagram showing an algorithm of processing C in detail.

【図9】赤目補正装置の第2実施例を示す全体ブロック
図である。
FIG. 9 is an overall block diagram illustrating a second embodiment of the red-eye correction device.

【図10】第2実施例における赤目補正処理のアルゴリ
ズムを示す図である。
FIG. 10 is a diagram illustrating an algorithm of a red-eye correction process according to the second embodiment.

【図11】赤目補正装置の第3実施例を示す全体ブロッ
ク図である。
FIG. 11 is an overall block diagram showing a third embodiment of the red-eye correction device.

【図12】第3実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 12 is a diagram illustrating an algorithm of a red-eye position detection process in a third embodiment.

【図13】赤目補正装置の第4実施例を示す全体ブロッ
ク図である。
FIG. 13 is an overall block diagram illustrating a fourth embodiment of the red-eye correction device.

【図14】第4実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 14 is a diagram illustrating an algorithm of a red-eye position detection process according to a fourth embodiment.

【図15】赤目補正装置の第5、6実施例を示す全体ブ
ロック図である。
FIG. 15 is an overall block diagram showing fifth and sixth embodiments of the red-eye correction device.

【図16】第5実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 16 is a diagram illustrating an algorithm of a red-eye position detection process according to a fifth embodiment.

【図17】第6実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 17 is a diagram illustrating an algorithm of a red-eye position detection process according to a sixth embodiment.

【図18】赤目補正装置の第7実施例を示す全体ブロッ
ク図である。
FIG. 18 is an overall block diagram showing a seventh embodiment of the red-eye correction device.

【図19】第7実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 19 is a diagram illustrating an algorithm of a red-eye position detection process in a seventh embodiment.

【図20】信号(L,u,v)から輝度系(L)と極座
標系(r,φ)への変換を説明するための図で、図
(a)は(u,v)信号から(r,φ)信号を変換形成
する場合を示し、図(b)は輝度信号Lを抽出する場合
を示す。
FIG. 20 is a diagram for explaining conversion from a signal (L, u, v) to a luminance system (L) and a polar coordinate system (r, φ). FIG. (r, φ) signal is formed, and FIG. 7B shows a case where the luminance signal L is extracted.

【図21】赤目補正装置の第8実施例を示す全体ブロッ
ク図である。
FIG. 21 is an overall block diagram showing an eighth embodiment of the red-eye correction device.

【図22】第8実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 22 is a diagram illustrating an algorithm of a red-eye position detection process according to the eighth embodiment.

【符号の説明】[Explanation of symbols]

1 A/Dコンバータ 2 画像メモリ 3 色度マトリクス回路 4,41,42,5,51,52,53,6,61,6
2 LUT 7,71,72,73,74,75 マイコン 8,81,82,83,9,10 LPF 11 INV 12,121 AND回路 13 2値データメモリ 14 マトリクス回路 15 エンコーダ 16 D/Aコンバータ 17,18 乗算部 19 モニター 20 撮像部 31,34 輪郭抽出部 32,35 形状識別部 33 ラベリング部 36 塗りつぶし部 37 赤目補正テーブル SW1〜SW11 スイッチ
Reference Signs List 1 A / D converter 2 Image memory 3 Chromaticity matrix circuit 4,41,42,5,51,52,53,6,61,6
2 LUT 7, 71, 72, 73, 74, 75 Microcomputer 8, 81, 82, 83, 9, 10 LPF 11 INV 12, 121 AND circuit 13 Binary data memory 14 Matrix circuit 15 Encoder 16 D / A converter 17, Reference Signs List 18 Multiplication unit 19 Monitor 20 Imaging unit 31, 34 Contour extraction unit 32, 35 Shape identification unit 33 Labeling unit 36 Filling unit 37 Red-eye correction table SW1 to SW11 Switch

フロントページの続き (56)参考文献 特開 平5−19382(JP,A) 特開 平5−224271(JP,A) 特開 平6−75305(JP,A) (58)調査した分野(Int.Cl.7,DB名) G03B 27/72 - 27/80 G06T 7/00 - 7/60 Continuation of front page (56) References JP-A-5-19382 (JP, A) JP-A-5-224271 (JP, A) JP-A-6-75305 (JP, A) (58) Fields investigated (Int) .Cl. 7 , DB name) G03B 27/72-27/80 G06T 7 /00-7/60

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 撮像手段と、該撮像手段により得られた
画像データから低彩度領域及び低照度領域の少なくとも
一方を抽出する第1の抽出手段と、上記画像データから
肌色領域を抽出する第2の抽出手段と、上記画像データ
から赤色領域を抽出する第3の抽出手段と、上記第1、
第2及び第3の抽出手段からの信号を用いて画像内の赤
目位置を検出する検出手段とを備えたことを特徴とする
赤目位置検出装置。
An image pickup means and an image pickup means obtained by the image pickup means
First extracting means for extracting at least one low saturation region and the low intensity region of the image data, a second extraction means for extracting a skin color area from the image data, red area from the image data <br/> A third extracting means for extracting
Eye position detecting device characterized by comprising a detecting means for detecting a red eye position in the image using signals from the second and third extraction means.
JP5045400A 1993-03-05 1993-03-05 Red eye position detector Expired - Lifetime JP3036285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5045400A JP3036285B2 (en) 1993-03-05 1993-03-05 Red eye position detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5045400A JP3036285B2 (en) 1993-03-05 1993-03-05 Red eye position detector

Publications (2)

Publication Number Publication Date
JPH06258732A JPH06258732A (en) 1994-09-16
JP3036285B2 true JP3036285B2 (en) 2000-04-24

Family

ID=12718211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5045400A Expired - Lifetime JP3036285B2 (en) 1993-03-05 1993-03-05 Red eye position detector

Country Status (1)

Country Link
JP (1) JP3036285B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7486317B2 (en) 2003-10-27 2009-02-03 Noritsu Koki, Co., Ltd. Image processing method and apparatus for red eye correction
US8285002B2 (en) 2004-07-30 2012-10-09 Canon Kabushiki Kaisha Image processing apparatus and method, image sensing apparatus, and program
DE112017007863T5 (en) 2017-09-15 2020-04-30 Hitachi High-Technologies Corporation Ion milling device

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2907120B2 (en) * 1996-05-29 1999-06-21 日本電気株式会社 Red-eye detection correction device
US6292574B1 (en) * 1997-08-29 2001-09-18 Eastman Kodak Company Computer program product for redeye detection
US6396599B1 (en) * 1998-12-21 2002-05-28 Eastman Kodak Company Method and apparatus for modifying a portion of an image in accordance with colorimetric parameters
US7035461B2 (en) * 2002-08-22 2006-04-25 Eastman Kodak Company Method for detecting objects in digital images
US7343028B2 (en) 2003-05-19 2008-03-11 Fujifilm Corporation Method and apparatus for red-eye detection
JP2005310124A (en) 2004-03-25 2005-11-04 Fuji Photo Film Co Ltd Red eye detecting device, program, and recording medium with program recorded therein
JP4496465B2 (en) 2004-04-23 2010-07-07 ノーリツ鋼機株式会社 Red-eye correction method, program, and apparatus for implementing the method
JP4901229B2 (en) * 2005-03-11 2012-03-21 富士フイルム株式会社 Red-eye detection method, apparatus, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7486317B2 (en) 2003-10-27 2009-02-03 Noritsu Koki, Co., Ltd. Image processing method and apparatus for red eye correction
US8285002B2 (en) 2004-07-30 2012-10-09 Canon Kabushiki Kaisha Image processing apparatus and method, image sensing apparatus, and program
DE112017007863T5 (en) 2017-09-15 2020-04-30 Hitachi High-Technologies Corporation Ion milling device

Also Published As

Publication number Publication date
JPH06258732A (en) 1994-09-16

Similar Documents

Publication Publication Date Title
US7042505B1 (en) Red-eye filter method and apparatus
JP4041687B2 (en) Method and apparatus for removing flash artifacts
US6407777B1 (en) Red-eye filter method and apparatus
JP4217698B2 (en) Imaging apparatus and image processing method
US6278491B1 (en) Apparatus and a method for automatically detecting and reducing red-eye in a digital image
US7013025B2 (en) Image correction apparatus
US6728401B1 (en) Red-eye removal using color image processing
US20120093366A1 (en) Image selecting apparatus, camera, and method of selecting image
JP3036285B2 (en) Red eye position detector
JP2001126075A (en) Method and device for picture processing, and recording medium
CN110033418A (en) Image processing method, device, storage medium and electronic equipment
JP2004320286A (en) Digital camera
CN101753814A (en) Filming device, illumination processing device and illumination processing method
JP3302214B2 (en) Image input device
JP7129520B2 (en) Image processing device, image processing method, and program
JP2004320285A (en) Digital camera
JPH05342344A (en) Method and system for picture processing
US20080239086A1 (en) Digital camera, digital camera control process, and storage medium storing control program
JP2003189325A (en) Image processing apparatus and color image photographic apparatus
JP6937603B2 (en) Image processing equipment and its control methods, programs, and storage media
JP6033006B2 (en) Image processing apparatus, control method thereof, control program, and imaging apparatus
KR960002548B1 (en) The method and the system for specific image fetching
JP4829391B2 (en) Imaging device
JPH05224271A (en) Image processor
JP2009017591A (en) Imaging apparatus and image processing method

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080225

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090225

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110225

Year of fee payment: 11

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120225

Year of fee payment: 12

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130225

Year of fee payment: 13

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term