JPH06258732A - Pink-eye effect position detector - Google Patents

Pink-eye effect position detector

Info

Publication number
JPH06258732A
JPH06258732A JP4540093A JP4540093A JPH06258732A JP H06258732 A JPH06258732 A JP H06258732A JP 4540093 A JP4540093 A JP 4540093A JP 4540093 A JP4540093 A JP 4540093A JP H06258732 A JPH06258732 A JP H06258732A
Authority
JP
Japan
Prior art keywords
red
color
eye
image
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP4540093A
Other languages
Japanese (ja)
Other versions
JP3036285B2 (en
Inventor
Hiroaki Kubo
広明 久保
Toshiyuki Tanaka
俊幸 田中
Yukari Maeda
由香里 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP5045400A priority Critical patent/JP3036285B2/en
Publication of JPH06258732A publication Critical patent/JPH06258732A/en
Application granted granted Critical
Publication of JP3036285B2 publication Critical patent/JP3036285B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Abstract

PURPOSE:To easily and surely detect the pink-eye effect position of an object person extracting the image of plural color components peculiar to the face from the picked up color image of a film after being developed. CONSTITUTION:On the picked up image of the developed color film picked up on an image pickup part 20 and fetched in an image memory 2, a low illuminance part, a low saturation part and a flesh color part are detected by LUTs 4, 5 and 6, respectively. Further, each detection region is enlarged through filters 8-10 and then, a logical product is obtained by an ADC circuit 12 and written in a binary data memory 13. Then, the logical product of the logical product data and a reversal flesh color part from the LUT 6 via an INV 11 and a red color part from the LUT 5 is obtained to extract the red-eye effect position and rewrite it in the binary data memory 13. At the time of reading from the image memory 2, the pink-eye effect position signal of the binary data memory 13 is synchronously read and when it is at the pink-eye effect position, the LUTs 4, 5 and 6 are changed over to color converting tables respectively.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、フラッシュ撮影時に生
じることのある被写体人物画像の赤目を補正するための
赤目位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a red-eye position detecting device for correcting red-eye of a human image of a subject which may occur during flash photography.

【0002】[0002]

【従来の技術】人物を被写体としてフラッシュ撮影した
場合、フラッシュ光の一部が眼球内の血管等で反射し、
カメラ側に帰来して黒目の中央が赤くなる、いわゆる赤
目現象を生じることがある。特に近年のカメラの小型化
に伴い撮影レンズの光軸とフラッシュの光軸とが接近す
ることに起因して、かかる赤目現象が、一層発生し易く
なっている。そこで、かかる赤目発生を防止するため
に、フラッシュを本発光させる直前にプリ発光させて瞳
孔を窄ませた状態で撮影を行うようにした赤目発生防止
機能付きカメラが市販されている。また、印画紙にプリ
ントする際に、赤目を修正することも行われている。
2. Description of the Related Art When flash photography is performed on a person as a subject, a part of the flash light is reflected by blood vessels in the eyeball,
When returning to the camera side, the so-called red-eye phenomenon may occur, where the center of the black eye becomes red. In particular, with the recent miniaturization of cameras, the red-eye phenomenon is more likely to occur due to the optical axis of the taking lens and the optical axis of the flash approaching each other. Therefore, in order to prevent such a red-eye generation, a camera with a red-eye generation prevention function is commercially available which is pre-lighted immediately before the main flash is fired to take a picture in a state where the pupil is blocked. It is also practiced to correct red eyes when printing on photographic paper.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記赤
目発生防止機能付きカメラにおいても、被写体人物の個
人差その他の撮影条件下で常に赤目の発生が防止できる
までには至っていない。また、印画紙へのプリント時の
赤目修正においても、その修正作業に頻雑さや熟練さが
要求される等を考慮すると一般的ではない。
However, even in the above-described camera with a red-eye prevention function, the occurrence of red-eye cannot always be prevented under individual photographing conditions of individual persons and other photographing conditions. Further, even in the case of red-eye correction at the time of printing on photographic paper, it is not common when the correction work requires complexity and skill.

【0004】一方、現像済みカラーフィルムをカラー撮
像することにより得られる画像に対し、パターン認識技
術等を利用して瞳孔位置を抽出し、あるいは画像内の赤
色部分を抽出して、この部分を色変換することも考えら
れるが、赤目位置を正確に検出しようとすれば、画像処
理技術が極めて複雑となり、装置自体も高価なものとな
る。一方、通常の画像処理技術では、赤目位置以外の赤
色部分も一律に、あるいは誤って色変換してしまうとい
う虞れがあり、返って不自然な写真を提供してしまうこ
ととなり兼ねない。
On the other hand, with respect to an image obtained by color-imaging a developed color film, the pupil position is extracted by using pattern recognition technology or the red part in the image is extracted and this part is colored. Although conversion may be possible, if an attempt is made to accurately detect the position of the red eye, the image processing technology becomes extremely complicated and the apparatus itself becomes expensive. On the other hand, in a normal image processing technique, there is a risk that the red portion other than the red eye position may be uniformly or erroneously converted in color, which may result in providing an unnatural photograph.

【0005】本発明は、上記に鑑みてなされたもので、
現像済みフィルムをカラー撮像し、このカラー画像から
顔面特有の複数の色成分画像を抽出して被写体人物の赤
目位置を検出する赤目位置検出装置を提供することを目
的とする。
The present invention has been made in view of the above,
An object of the present invention is to provide a red-eye position detecting device that detects a red-eye position of a subject person by capturing a color image of a developed film and extracting a plurality of face-specific color component images from the color image.

【0006】[0006]

【課題を解決するための手段】本発明に係る赤目位置検
出装置は、現像済みカラーフィルムをカラー撮像する手
段と、撮像されたフィルム画像から低彩度領域及び低照
度領域部の少なくとも一方を抽出する第1の抽出手段
と、撮像されたフィルム画像から肌色領域を抽出する第
2の抽出手段と、撮像されたフィルム画像から赤色部を
抽出する第3の抽出手段と、第1、第2及び第3の抽出
手段からの抽出信号を用いて画像内の赤目位置を検出す
る検出手段とを備えたものである。
SUMMARY OF THE INVENTION A red-eye position detecting device according to the present invention comprises means for color-imaging a developed color film and at least one of a low-saturation region and a low-illuminance region portion extracted from the captured film image. First extracting means for extracting, a second extracting means for extracting a skin color region from the captured film image, a third extracting means for extracting a red part from the captured film image, first, second and And a detection means for detecting the position of the red eye in the image using the extraction signal from the third extraction means.

【0007】[0007]

【作用】本発明によれば、現像済みカラーフィルムがカ
ラー撮像され、撮像された画像内から低彩度領域及び低
照度領域の少なくとも一方の領域と肌色領域とが抽出さ
れ、これらの抽出信号を用いて、例えば論理積をとるこ
とで、人物の眼を含む領域が抽出される。更に、抽出さ
れた赤色部信号を用いて、目を含む領域から、赤目が発
生しているときは、当該赤目位置が検出される。
According to the present invention, the developed color film is imaged in color, at least one of the low-saturation region and the low-illuminance region and the skin color region are extracted from the imaged image, and these extracted signals are extracted. By using, for example, a logical product, the region including the eyes of the person is extracted. Further, when the red eye is generated from the area including the eye, the red eye position is detected using the extracted red part signal.

【0008】そして、このようにして得られた赤目位置
データは、撮像された画像データがモニター等へ読み出
される際に、赤目位置の赤色が別の色に、例えば人物の
通常の黒目に補正されるように用いられる。
In the red-eye position data thus obtained, when the picked-up image data is read out to a monitor or the like, the red color at the red-eye position is corrected to another color, for example, a normal black eye of a person. Used to.

【0009】[0009]

【実施例】図1は、本発明が適用される赤目補正装置の
第1実施例を示す全体ブロック図である。図において、
1は現像済みカラーフィルムを撮像部20でカラー撮像
して得られるR,G,B色の各画像信号を、例えば1画
素毎に8ビットのデジタル信号に変換するA/Dコンバ
ータである。画像メモリ2は上記A/Dコンバータ1か
ら、それぞれ同期して入力されるR,G,B画像信号を
各色毎に記憶するメモリ部201,202,203を備
え、これらは各色に対してそれぞれフィルム1コマ分に
対応する記憶容量を有している。
1 is a general block diagram showing a first embodiment of a red-eye correction apparatus to which the present invention is applied. In the figure,
Reference numeral 1 denotes an A / D converter that converts each image signal of R, G, and B colors obtained by color-imaging the developed color film by the imaging unit 20 into an 8-bit digital signal for each pixel, for example. The image memory 2 includes memory units 201, 202, and 203 for storing R, G, and B image signals input from the A / D converter 1 in synchronization with each other. It has a storage capacity corresponding to one frame.

【0010】撮像部20は、図2に示すように、フィル
ムカートリッジ21から現像済みカラーフィルムFを引
き出して巻き取る巻き取り手段22と、上記フィルムカ
ートリッジ21と巻き取り手段22間に配設され、引き
出されるフィルムFを挾むようにして対向配設された光
源23とミラー24を備えるとともにミラー24から像
変倍部25を介してその結像位置に配設されたR,G,
B色の各フィルターを備えたCCD等の撮像手段26と
で構成され、マニュアル指示によりフィルムFの1コマ
ずつ、あるいは上記巻き取り手段22によって自動的に
1コマずつ繰り出せるようになっている。巻き取り手段
22による1コマずつの繰り出しは、フィルムのパーフ
ォレーションを検出する光学的な手段(不図示)を介し
て行うことができる。また、上記フィルムカートリッジ
21の適所に、あるいはフィルムFの各コマに対応する
フィルム下端位置には磁気テープ等の記録媒体等が配設
され、かかる記録媒体に各コマに対する撮影倍率β、連
写情報その他所要の撮影情報が記録可能にされているも
のにあっては、必要に応じてこの撮影倍率β等が読み取
れるように磁気ヘッド27が付設されている。
As shown in FIG. 2, the image pickup section 20 is disposed between the film cartridge 21 and a winding means 22 for drawing and winding the developed color film F, and between the film cartridge 21 and the winding means 22. A light source 23 and a mirror 24 are provided so as to face each other so as to sandwich the film F to be drawn out, and R, G, and
It is composed of an image pickup means 26 such as a CCD equipped with each filter of B color, and can be fed out one frame at a time by the manual instruction or automatically by the winding means 22. The feeding of each frame by the winding means 22 can be performed through an optical means (not shown) for detecting the perforation of the film. Further, a recording medium such as a magnetic tape is arranged at an appropriate position of the film cartridge 21 or at a lower end position of the film corresponding to each frame of the film F, and the photographing magnification β for each frame and continuous shooting information are arranged on the recording medium. In the case where other required photographing information can be recorded, a magnetic head 27 is attached so that the photographing magnification β and the like can be read as necessary.

【0011】図1に戻り、L,u,v色度マトリクス回
路3は画像メモリ2から同期して読み出されるR,G,
B信号をL,u,v表色系(国際照明委員会CIE準
拠:JIS8730)に変換するものである。LUT4
〜LTU6はそれぞれ複数のテーブルを内蔵し、選択さ
れたテーブルを用いて入力信号に対し、後述する変換処
理等を施して出力するものである。表1にLUT4〜L
TU6が内蔵するテーブルを示す。
Returning to FIG. 1, the L, u, v chromaticity matrix circuit 3 reads the R, G,
The B signal is converted to an L, u, v color system (International Commission on Illumination CIE compliant: JIS8730). LUT4
Each of the to LTUs 6 has a plurality of built-in tables, and uses the selected table to perform the conversion process described later on the input signal and output the processed signal. LUT4 ~ L in Table 1
The table built in the TU 6 is shown.

【0012】[0012]

【表1】 [Table 1]

【0013】マイコン7は上記画像メモリ2及び後述の
2値データメモリ13へのR/Wコントロールとアドレ
スコントロール信号、LUT4〜6の各テーブルの選択
信号、及び後述するスイッチSW1〜SW4の切り換え
信号を必要に応じて出力するものである。このマイコン
7は上記画像メモリ2からの画像信号を所定の周期で繰
り返し読み出すように所要回路部をコントロールしてお
り、これによりモニター等に静止画を提供している。更
に、マイコン7は撮像されたフィルムの各コマに対する
撮影倍率βを前記磁気ヘッド27から読み取って入力可
能にしており、この撮影倍率βを用いて後述のローパス
フィルターLPF8〜10のフィルター特性を変更する
ものである。撮像部20が撮影倍率βを自動読み込みで
きないタイプであるときは、マニュアル入力可能にされ
ているものでもよい。
The microcomputer 7 sends an R / W control and address control signal to the image memory 2 and a binary data memory 13 described later, a selection signal for each table of the LUTs 4 to 6, and a switching signal for switches SW1 to SW4 described later. It is output as needed. The microcomputer 7 controls a required circuit unit so as to repeatedly read out the image signal from the image memory 2 at a predetermined cycle, thereby providing a still image to a monitor or the like. Further, the microcomputer 7 is capable of inputting the photographing magnification β for each frame of the imaged film by reading it from the magnetic head 27, and using this photographing magnification β, the filter characteristics of low-pass filters LPF8 to 10 to be described later are changed. It is a thing. If the image pickup unit 20 is of a type that cannot automatically read the photographing magnification β, it may be one that can be manually input.

【0014】LPF8〜10は、入力される信号を鈍ら
せる、いわゆるフィルター効果を与えるもので、例えば
LUT4から低照度検出テーブルを介して入力される信
号をフィルタリングすることにより、画像内の低照度検
出範囲を広げるようにする。INV11は入力レベルを
反転して出力するものである。2値データメモリ13は
AND回路12からの論理積出力を記憶するものであ
る。この2値データメモリ13は画像メモリ2の各色の
メモリ部に対応するアドレスを有する。また、2値デー
タメモリ13の出力はマイコン7からのコントロール信
号に基づいてスイッチSW4、LPF10を介してAN
D回路12の一入力端に再入力可能になっている。
The LPFs 8 to 10 provide a so-called filter effect to dull an input signal. For example, by filtering the signal input from the LUT 4 via the low illuminance detection table, the low illuminance detection in the image is performed. Try to expand the range. INV11 inverts the input level and outputs it. The binary data memory 13 stores the logical product output from the AND circuit 12. The binary data memory 13 has an address corresponding to the memory portion of each color of the image memory 2. The output of the binary data memory 13 is based on a control signal from the microcomputer 7 and is sent via the switch SW4 and LPF10 to AN.
It is possible to re-input to one input end of the D circuit 12.

【0015】スイッチSW1〜SW4は信号経路を切り
換えるスイッチで、マイコン7からの切り換え信号によ
り切り換え制御される。スイッチSW1とスイッチSW
2は直列に接続されており、LUT6の出力をLPF8
へ導く場合とLUT6の出力をINV11を経て直接A
ND回路12へ導く場合(図示の状態)とを切り換え
る。スイッチSW3は、LUT5の出力をLPF9へ導
く場合とLUT5の出力を直接AND回路12へ導く場
合(図示の状態)とを切り換える。スイッチSW4はL
UT4の出力をLPF10へ導く場合(図示の状態)と
2値データメモリ13からの出力をLPF10へ導く場
合とを切り換える。なお、このとき、スイッチSW4の
出力側にスイッチを付加して、2値データメモリ13か
らの出力をLPF10を介さずにAND回路12の一入
力端に直接導くようにしてもよい。
The switches SW1 to SW4 are switches for switching signal paths, and are switched and controlled by a switching signal from the microcomputer 7. Switch SW1 and switch SW
2 are connected in series, and the output of LUT6 is LPF8
And the output of LUT6 directly via INV11
Switching between the case of leading to the ND circuit 12 (state shown in the figure). The switch SW3 switches between the case of guiding the output of the LUT 5 to the LPF 9 and the case of directly guiding the output of the LUT 5 to the AND circuit 12 (state shown in the figure). Switch SW4 is L
The case where the output of the UT 4 is guided to the LPF 10 (state shown in the figure) and the case where the output from the binary data memory 13 is guided to the LPF 10 are switched. At this time, a switch may be added to the output side of the switch SW4 so that the output from the binary data memory 13 is directly guided to one input terminal of the AND circuit 12 without passing through the LPF 10.

【0016】マトリクス回路14はLUT4〜6から入
力される信号をY,R−Y,B−Yの各信号に変換する
ものである。エンコーダ15はマトリクス回路14から
の上記各信号をY信号とC信号に、あるいはNTSC信
号にコード化するものである。D/Aコンバータ16は
エンコーダ15の出力信号をアナログ信号に変換して不
図示のモニターへ出力するものである。
The matrix circuit 14 converts the signals input from the LUTs 4 to 6 into Y, RY and BY signals. The encoder 15 encodes each of the above signals from the matrix circuit 14 into a Y signal and a C signal, or an NTSC signal. The D / A converter 16 converts the output signal of the encoder 15 into an analog signal and outputs it to a monitor (not shown).

【0017】次に図3〜図8を用いて、赤目位置検出及
びその色補正について説明する。図3は赤目位置を説明
するための図、図4(a)〜(j)は赤目位置の各検出手順に
対する画像処理内容を説明するための図、図5〜図8は
赤目位置検出及び色補正処理のアルゴリズムを示す図で
ある。
Next, the red eye position detection and its color correction will be described with reference to FIGS. FIG. 3 is a diagram for explaining the red eye position, FIGS. 4 (a) to 4 (j) are diagrams for explaining the image processing contents for each detection procedure of the red eye position, and FIGS. 5 to 8 are red eye position detection and color. It is a figure which shows the algorithm of a correction process.

【0018】今、フィルム画像が図4(a)に示すカラー
人物像であるとすると、この画像が撮像部20で撮像さ
れてR,G,B色の各画像信号として取り込まれ、A/
Dコンバータ1で、それぞれ8ビットのデジタル信号に
変換されて画像メモリ2に記憶される(#2〜#6)。
続いて、マイコン7からのアドレスコントロール信号に
基づいて、上記R,G,B信号が同期して読み出され、
色度マトリクス回路3でL,u,v信号に変換される
(#8)。そして、この変換信号に対して、先ず処理A
(#10)が実行される。
Assuming that the film image is the color person image shown in FIG. 4A, this image is picked up by the image pickup section 20 and taken in as R, G, and B color image signals, and A / A
The D converter 1 converts each into an 8-bit digital signal and stores it in the image memory 2 (# 2 to # 6).
Then, based on the address control signal from the microcomputer 7, the R, G, B signals are read synchronously,
It is converted into L, u, v signals by the chromaticity matrix circuit 3 (# 8). Then, for this converted signal, first, the process A
(# 10) is executed.

【0019】図6は、この処理Aのアルゴリズムを詳細
に示す図で、#30〜#34、#36〜#40、#42
〜#46が第1ルーチン(読出1周期目)として同期し
て処理される。すなわち、#30,#32では、LUT
4の内部テーブルとして低照度検出テーブルが選択さ
れ、これにより、L信号のうち低照度部分が“1”に、
それ以外の部分が“0”として2値化される(図4
(b))。また、#36,#38では、LUT5の内部テ
ーブルとして低彩度検出テーブルが選択され、これによ
り、u,v信号を用いて低彩度部分が“1”に、それ以
外の部分が“0”として2値化される(図4(c))。更
に、#42,#44では、LUT6の内部テーブルとし
て肌色検出テーブルが選択され、これにより、u,v信
号を用いて肌色部分が“1”に、それ以外の部分が
“0”として2値化される(図4(d))。
FIG. 6 is a diagram showing the algorithm of this processing A in detail, which is # 30 to # 34, # 36 to # 40, # 42.
# 46 are processed synchronously as a first routine (first reading cycle). That is, in # 30 and # 32, the LUT
The low illuminance detection table is selected as the internal table of No. 4, whereby the low illuminance portion of the L signal becomes “1”,
Other parts are binarized as "0" (see FIG. 4).
(b)). Further, in # 36 and # 38, the low saturation detection table is selected as the internal table of the LUT 5, whereby the u and v signals are used to set the low saturation portion to “1” and the other portions to “0”. Is binarized as "" (FIG. 4 (c)). Further, in # 42 and # 44, the flesh color detection table is selected as the internal table of the LUT 6, whereby the u and v signals are used to set the flesh color portion to “1” and the other portions to “0”, which are binary. (Fig. 4 (d)).

【0020】そして、これらの2値化された信号は、そ
れぞれマトリクス回路14に導かれるとともに、LPF
8,9,10に導かれ(#34,#40,#46)、低
照度領域(図4(e))、低彩度領域(図4(f))及び肌色
領域(図4(g))に広げられる。ここで、低照度領域の
広げ度合は各コマに対応する前記撮影倍率βに基づいて
決定される。例えば、撮像倍率βが大きい程、信号の鈍
らせ度合が大きくなるようにされる。また、#34,#
40の処理は、図3に示すように、赤目の周囲に低照度
かつ低彩度の黒目部分が残ることに着目したものであっ
て、この黒目部の周囲を包含するように抽出範囲を広げ
ることで、赤目発生位置を確実に検出範囲内に収めるよ
うにするためである。#40の処理は、赤目が肌色に囲
まれた部分に発生することを利用して、顔面等の全体を
検出範囲内に含めるようにしたものである。
Then, these binarized signals are introduced into the matrix circuit 14 and the LPF, respectively.
Guided by 8, 9 and 10 (# 34, # 40, # 46), low illuminance area (Fig. 4 (e)), low saturation area (Fig. 4 (f)) and skin color area (Fig. 4 (g)). ). Here, the degree of expansion of the low illuminance area is determined based on the photographing magnification β corresponding to each frame. For example, the greater the imaging magnification β, the greater the degree of signal blunting. Also, # 34, #
As shown in FIG. 3, the processing in 40 focuses on the fact that a low-illuminance and low-saturation black eye portion remains around the red eye, and the extraction range is expanded to include the periphery of the black eye portion. This is to ensure that the red-eye occurrence position is within the detection range. The process of # 40 uses the fact that red eyes occur in the part surrounded by the skin color so that the entire face or the like is included in the detection range.

【0021】LPF8〜10から同期して出力される2
値信号はAND回路12で論理積がとられ(図4
(h))、2値データメモリ13に記憶される(#48〜
#50)。
2 output synchronously from the LPFs 8 to 10
The value signal is ANDed by the AND circuit 12 (see FIG. 4).
(h)) It is stored in the binary data memory 13 (# 48-
# 50).

【0022】続いて、#52,#54、#56〜#60
及び#62,#64の第2ルーチン(読出2周期目)が
実行される。すなわち、#52で、LUT5の内部テー
ブルとして赤色検出テーブルが選択され、これにより、
u,v信号を用いて赤色部分が“1”に、それ以外の部
分が“0”として2値化される(#54,(図4
(i)))。なお、このときスイッチSW3は切り換えら
れており、LUT5からの2値信号はLPF9を介する
ことなく直接AND回路12へ導かれる。更に、#56
で、LUT6の内部テーブルとして肌色検出テーブルが
選択され、これにより、u,v信号を用いて肌色部分が
“1”に、それ以外の部分が“0”として2値化される
(#58)。この2値信号はスイッチSW1の切り換え
によりINV11で反転され(#60)、更にLPF8
を介することなく、直接AND回路12へ導かれる。こ
の#52,#54及び#56〜#60の各処理は、個人
差や撮影光源などの諸条件によって赤色領域と肌色領域
とが重複することがあった場合に、肌色として検出され
た領域に対して、すなわち赤目位置以外についての色補
正を禁止するための準備処理である。
Subsequently, # 52, # 54, # 56 to # 60
And the second routine of # 62 and # 64 (the second read cycle) is executed. That is, in # 52, the red color detection table is selected as the internal table of the LUT 5, and by this,
The u and v signals are used to binarize the red part as "1" and the other parts as "0"(# 54, (Fig. 4).
(i))). At this time, the switch SW3 is switched, and the binary signal from the LUT 5 is directly guided to the AND circuit 12 without passing through the LPF 9. Furthermore, # 56
Then, the flesh color detection table is selected as the internal table of the LUT 6, and by this, the u and v signals are used to binarize the flesh color portion as "1" and the other portions as "0"(# 58). . This binary signal is inverted by INV11 by switching the switch SW1 (# 60), and further LPF8
It is directly guided to the AND circuit 12 without going through. Each of the processes of # 52, # 54, and # 56 to # 60 is performed on the area detected as the skin color when the red area and the skin color area may overlap due to various conditions such as individual differences and photographing light sources. On the other hand, this is a preparation process for prohibiting color correction at positions other than the red eye position.

【0023】そして、上記LUT5、INV11からの
信号は、前記スイッチSW4の切り換えにより2値デー
タメモリ13から同期して読み出される2値データ(図
4(h))とともにAND回路12で論理積がとられて、
再び2値データメモリ13に記憶される(#62,#6
4)。この結果、2値データメモリ13には、図4(j)
に示すように赤目位置のみが、データ“1”として取り
込まれることになる。次いで(読出3周期目)、図5に
戻り、処理B(#12)が実行される。なお、このと
き、前述したようにスイッチSW4を通過した2値信号
をLPF10を介さずにAND回路12に導いてもよ
い。
Then, the signals from the LUT5 and INV11 are ANDed by the AND circuit 12 together with the binary data (FIG. 4 (h)) read out synchronously from the binary data memory 13 by switching the switch SW4. Being
It is again stored in the binary data memory 13 (# 62, # 6).
4). As a result, the binary data memory 13 is shown in FIG.
As shown in, only the red eye position is captured as data "1". Next (reading third cycle), returning to FIG. 5, the process B (# 12) is executed. At this time, the binary signal passing through the switch SW4 may be guided to the AND circuit 12 without passing through the LPF 10 as described above.

【0024】図7は、上記処理Bのアルゴリズムを詳細
に示す図である。処理Bでは、マイコン7により、画像
メモリ2の各色メモリ部からの画像信号の読み出しと同
期して2値データメモリ13から2値データが順次読み
出される(#70)。そして、この2値データメモリ1
3からの出力値が“1”か“0”か、すなわち赤目位置
であるかそうでないかが判別される(#72)。マイコ
ン7はこの2値データの“1”,“0”に応じてLUT
4〜6に内蔵されるテーブルの変更を行う。すなわち、
2値データが“0”であれば、LUT4〜6のいずれも
スルーテーブルに切り換えられて、8ビットの入力信号
が変換されることなくそのまま出力される(#74)。
一方、2値データが“1”であれば、処理Cが実行され
る(#76)。
FIG. 7 is a diagram showing the algorithm of the process B in detail. In the process B, the microcomputer 7 sequentially reads the binary data from the binary data memory 13 in synchronization with the reading of the image signal from each color memory portion of the image memory 2 (# 70). And this binary data memory 1
It is determined whether the output value from 3 is "1" or "0", that is, whether it is the red eye position or not (# 72). The microcomputer 7 responds to "1" and "0" of this binary data by the LUT.
Change the built-in tables in 4-6. That is,
If the binary data is "0", all of the LUTs 4 to 6 are switched to the through table, and the 8-bit input signal is output as it is without being converted (# 74).
On the other hand, if the binary data is "1", the process C is executed (# 76).

【0025】図8は、この処理Cのアルゴリズムの詳細
を示すもので、LUT4はLowレベルを落すテーブル
に(#80,#82)、LUT5及び6は赤色抑圧テー
ブルに切り換えられて、赤目位置の赤色が抑圧処理さ
れ、例えば黒目に修正される(#84,#86、#8
8,#90)。
FIG. 8 shows the details of the algorithm of this processing C. The LUT 4 is switched to a table for lowering the Low level (# 80, # 82), and the LUTs 5 and 6 are switched to the red suppression table for the red eye position. The red color is suppressed and, for example, corrected to black eyes (# 84, # 86, # 8).
8, # 90).

【0026】このようにしてLUT4〜6から出力され
た(#82、#86、#90)各信号は、マトリクス回
路15で、Y,R−Y,B−Yの各信号に変換され、次
いでエンコーダ16でY信号とC信号に、あるいはNT
SC信号にコード化され、更にD/Aコンバータでアナ
ログ信号に変換されてY,C信号として、あるいはNT
SC信号として出力される(#14〜#20)。この
Y,C信号、あるいはNTSC信号は不図示のモニター
等に導かれて静止画として再生される。再生開始後に、
一旦赤目位置が検出されると、かかる検出処理を読み出
し周期毎に継続して行う必要はないので、例えばLUT
4〜6からAND回路12側への信号ラインを、あるい
はAND回路12と2値データメモリ13間を遮断する
等の制御をすればよい。これらの点は、後述の実施例に
おいても同様である。
The respective signals (# 82, # 86, # 90) output from the LUTs 4 to 6 in this manner are converted into Y, RY and BY signals by the matrix circuit 15, and then, Encoder 16 converts to Y and C signals, or NT
It is coded to SC signal and further converted to analog signal by D / A converter as Y and C signals or NT
It is output as an SC signal (# 14 to # 20). The Y, C signals or the NTSC signal is guided to a monitor (not shown) and reproduced as a still image. After starting playback,
Once the red-eye position is detected, it is not necessary to continuously perform such detection processing in every read cycle.
The signal line from 4 to 6 to the AND circuit 12 side, or between the AND circuit 12 and the binary data memory 13, may be controlled. These points are the same in the examples described later.

【0027】なお、この実施例では、画像メモリ2から
の最初の2周期の期間内では赤目補正されない画像がモ
ニターに導かれ、3周期目以降に赤目補正された画像が
モニターに導かれることになるが、その間の時間は僅か
であり、観察者に何等違和感を与えることはない。ある
いは、2値データメモリ13に補正データが得られるま
で、マトリクス回路14〜D/Aコンバータ16へのい
ずれかで画像信号出力を遮断するようにしてもよい。
In this embodiment, an image which is not red-eye corrected in the first two cycles from the image memory 2 is guided to the monitor, and an image which is red-eye corrected in the third cycle or later is guided to the monitor. However, the time between them is short and the observer does not feel any discomfort. Alternatively, the image signal output may be cut off by any of the matrix circuit 14 to the D / A converter 16 until the correction data is obtained in the binary data memory 13.

【0028】図9は、赤目補正装置の第2実施例を示す
全体ブロック図である。なお、図中、図1と同一番号が
付されたものは同一機能を果たすものである。また、撮
像部は図から省略している。
FIG. 9 is an overall block diagram showing a second embodiment of the red-eye correction device. Note that, in the figure, those denoted by the same reference numerals as those in FIG. 1 perform the same function. Further, the image pickup unit is omitted from the drawing.

【0029】この第2実施例の構成は、画像メモリ2と
マトリクス回路3間にスイッチSW10,11及び乗算
部17,18が介設されてなるものである。スイッチS
W10はR色メモリ部201と乗算部17とを切り換え
て色度マトリクス回路3に接続するもので、スイッチS
W11はG色メモリ部202と乗算部18とを切り換え
て色度マトリクス回路3に接続するものである。
In the configuration of the second embodiment, switches SW10 and SW11 and multiplication units 17 and 18 are provided between the image memory 2 and the matrix circuit 3. Switch S
W10 is for switching the R color memory unit 201 and the multiplying unit 17 and connecting them to the chromaticity matrix circuit 3.
W11 switches the G color memory unit 202 and the multiplication unit 18 and connects them to the chromaticity matrix circuit 3.

【0030】乗算部17は画像メモリ2のB色メモリ部
203とスイッチSW10間に介在され、該B色メモリ
部203からの出力に係数k1を乗算するものである。
乗算部18は画像メモリ2のB色メモリ部203とスイ
ッチSW11間に介在され、該B色メモリ部203から
の出力に係数k2を乗算するものである。従って、スイ
ッチSW10,11がかかる乗算部17,18側に切り
換えられた時は、色度マトリクス回路3には(R',
G',B')=(k1・B,k2・B,B)なる信号が入
力される。マイコン7は、これらのスイッチSW10,
SW11を、後述するように適宜切り換える。表2にL
UT41,51,61が内蔵するテーブルを示す。
The multiplication unit 17 is interposed between the B color memory unit 203 of the image memory 2 and the switch SW10, and multiplies the output from the B color memory unit 203 by the coefficient k1.
The multiplication unit 18 is interposed between the B color memory unit 203 of the image memory 2 and the switch SW11, and multiplies the output from the B color memory unit 203 by the coefficient k2. Therefore, when the switches SW10 and SW11 are switched to the multiplication units 17 and 18, the chromaticity matrix circuit 3 has (R ',
A signal of G ′, B ′) = (k1 · B, k2 · B, B) is input. The microcomputer 7 uses these switches SW10,
SW11 is appropriately switched as described later. L in Table 2
The table incorporated in UT41,51,61 is shown.

【0031】[0031]

【表2】 [Table 2]

【0032】この第2実施例における赤目補正処理は、
第1実施例の図5において、処理B(#12)の内容が
異なる。図10は、この処理のアルゴリズムを詳細に示
す図である。すなわち、マイコン7は2値データメモリ
13から順次2値データの読み出しを行わせ、これと同
期して画像メモリ2から各色の画像信号の読み出しを行
わす(#100)。そして、2値データメモリ13から
読み出された2値データに対して、“1”か“0”かの
判別が行われる。2値データが“0”であれば、マイコ
ン7からのコントロール信号によりLUT41,51,
61の内蔵テーブルがいずれもスルーテーブルに切り換
えられて、色度マトリクス回路3からの各8ビットの画
像信号が変換されることなくそのままマトリクス回路1
5に導かれる(#104)。
The red-eye correction processing in the second embodiment is
In FIG. 5 of the first embodiment, the contents of process B (# 12) are different. FIG. 10 is a diagram showing the algorithm of this processing in detail. That is, the microcomputer 7 causes the binary data memory 13 to sequentially read the binary data, and in synchronization with this, reads the image signals of the respective colors from the image memory 2 (# 100). Then, the binary data read from the binary data memory 13 is discriminated as "1" or "0". If the binary data is "0", the control signal from the microcomputer 7 causes the LUTs 41, 51,
All of the 61 built-in tables are switched to the through tables, and the 8-bit image signals from the chromaticity matrix circuit 3 are not converted and the matrix circuit 1 is directly converted.
5 (# 104).

【0033】一方、2値データが“0”のときは、LU
T41,51,61の内蔵テーブルはそのままのスルー
テーブルであるが、スイッチSW10,SW11が乗算
部17,18側に切り換えられて、下記の信号処理が施
される。すなわち、色度マトリクス回路3には(R',
G',B')=(k1・B,k2・B,B)のように変換
された8ビットの信号が入力される。
On the other hand, when the binary data is "0", LU
The built-in tables of T41, 51, 61 are the through tables as they are, but the switches SW10, SW11 are switched to the multiplication units 17, 18 side to perform the following signal processing. That is, the chromaticity matrix circuit 3 has (R ′,
G ′, B ′) = (k1 · B, k2 · B, B) converted 8-bit signal is input.

【0034】このようにすることで、第1実施例に比し
て、LUT41内のテーブルとしてレベル変換テーブル
が、LUT51,61内のテーブルとして赤色極圧テー
ブルが不要となり、その分、テーブル容量の低減が図れ
る。
By doing so, as compared with the first embodiment, the level conversion table as the table in the LUT 41 and the red extreme pressure table as the table in the LUTs 51 and 61 are not necessary, and the table capacity is reduced accordingly. It can be reduced.

【0035】次に、図11は、赤目補正装置の第3実施
例を示す全体ブロック図で、図12は、赤目位置検出処
理のアルゴリズムを示す図である。なお、図中、図9と
同一番号が付されたものは同一機能を果たすものであ
る。また、撮像部は図から省略している。
Next, FIG. 11 is an overall block diagram showing a third embodiment of the red-eye correction device, and FIG. 12 is a diagram showing an algorithm of red-eye position detection processing. Note that, in the figure, those denoted by the same numbers as in FIG. 9 perform the same functions. Further, the image pickup unit is omitted from the drawing.

【0036】LUT52はスルーテーブルと赤色検出テ
ーブルを、LUT62はスルーテーブルと肌色検出テー
ブルをそれぞれ内蔵している。なお、色度マトリクス回
路3からのL信号は、赤色位置の検出時には利用され
ず、しかも赤目補正時には直接マトリクス回路14に入
力されるだけなので、図9に示すLUT41は不要とな
っている。
The LUT 52 has a through table and a red color detection table, and the LUT 62 has a through table and a skin color detection table. The L signal from the chromaticity matrix circuit 3 is not used at the time of detecting the red position and is only directly input to the matrix circuit 14 at the time of red-eye correction, so that the LUT 41 shown in FIG. 9 is unnecessary.

【0037】輪郭抽出部31は2値データメモリ13の
各アドレスから順次出力される2値データから赤色部が
塊として存在する領域を抽出するとともに、その領域の
輪郭を抽出するものである。形状識別部32は、パター
ン認識技術を利用して、抽出された赤色部の輪郭が円形
かどうかを判別し、円形のものを赤目位置として識別す
るものである。LPF81はフィルター特性がマイコン
71からの撮影倍率βに応じて変更可能にされており、
撮影倍率βが大きいほど人物の顔部分が大きく撮影され
ているものとみなしてフィルター効果を上げるようにし
ている。なお、スイッチSW5,6の一方入力端にはレ
ベル“1”に相当する電圧が印加されている。
The contour extraction unit 31 extracts the region in which the red portion exists as a block from the binary data sequentially output from each address of the binary data memory 13 and also the contour of the region. The shape identifying unit 32 determines whether or not the contour of the extracted red portion is circular by using a pattern recognition technique, and identifies the circular one as the red eye position. The filter characteristics of the LPF 81 can be changed according to the photographing magnification β from the microcomputer 71,
The larger the shooting magnification β, the larger the face portion of the person is taken, and the higher the filter effect is. A voltage corresponding to the level "1" is applied to one input ends of the switches SW5 and SW6.

【0038】続いて、赤目位置検出処理について、図1
2のアルゴリズムを用いて説明する。今、フィルム画像
が図4(a)に示すカラー人物像であるとして、この画像
がR,G,B色の各画像信号として取り込まれ、画像メ
モリ2に記憶されたものとする。そして、マイコン7か
らのアドレスコントロール信号に基づいて、上記R,
G,B信号が同期して読み出され、色度マトリクス回路
3でL,u,v信号に変換されて、#110、#112
〜#116が同期して処理される。すなわち、LUT5
2の内部テーブルとして赤色検出テーブルが選択され、
これにより、u,v信号を用いて赤色部が“1”に、そ
れ以外の部分が“0”として2値化される(#110,
図4(i))。一方、LUT62の内部テーブルとして肌
色検出テーブルが選択され、これにより、u,v信号を
用いて肌色部が“1”に、それ以外の部分が“0”とし
て2値化される(#112,図4(d))。
Next, the red eye position detection processing will be described with reference to FIG.
This will be described using the algorithm of No. 2. It is assumed that the film image is the color person image shown in FIG. 4A and that the image is captured as image signals of R, G, and B colors and stored in the image memory 2. Then, based on the address control signal from the microcomputer 7, the R,
The G and B signals are read out in synchronization and converted into L, u and v signals by the chromaticity matrix circuit 3, and then # 110 and # 112.
~ # 116 are processed synchronously. That is, LUT5
The red detection table is selected as the internal table of 2.
As a result, the u and v signals are used to binarize the red portion as "1" and the other portions as "0"(# 110,
Figure 4 (i)). On the other hand, the flesh color detection table is selected as the internal table of the LUT 62, and the u and v signals are used to binarize the flesh color portion as "1" and the other portions as "0"(# 112, Figure 4 (d)).

【0039】そして、LUT52からの信号はスイッチ
SW5を介してAND回路12へ、LUT62からの信
号はスイッチSW1,SW2及びLPF81を介して肌
色部の領域拡大が行われて(#114,図4(g))、A
ND回路12へ導かれる。ここで、肌色部の領域拡大度
合は各コマに対応する前記撮影倍率βに基づいて決定さ
れる。例えば、撮像倍率βが大きい程、信号の鈍らせ度
合が大きくなるようにされる。なお、このとき、スイッ
チSW6はレベル“1”側に切り換えられている。従っ
て、AND回路12で、赤色部と拡大された肌色領域と
の論理積が取られて2値データメモリ13に取り込まれ
る。
Then, the signal from the LUT 52 is expanded to the AND circuit 12 through the switch SW5, and the signal from the LUT 62 is expanded through the switches SW1 and SW2 and the LPF 81 (# 114, FIG. g)), A
It is led to the ND circuit 12. Here, the area expansion degree of the flesh-colored portion is determined based on the photographing magnification β corresponding to each frame. For example, the greater the imaging magnification β, the greater the degree of signal blunting. At this time, the switch SW6 is switched to the level "1" side. Therefore, the AND circuit 12 takes the logical product of the red portion and the enlarged skin color area and stores it in the binary data memory 13.

【0040】次いで、次周期で、マイコン7からの切り
換え信号に基づいてスイッチSW1,2,5,6が切り
換えられるとともに、アドレスコントロール信号に基づ
いて、LUT52,62から同様に2値化信号が読み出
され、LUT62からの信号はINV11で反転された
後、スイッチSW1,SW2を介してLPF81を通過
することなく、直接AND回路12に導かれる。一方、
スイッチSW5はレベル“1”側に切り換えられてお
り、またスイッチSW6は2値データメモリ13側に接
続されており、このため、AND回路12で#116と
#118の処理が実行される。このようにして、肌色領
域の近傍に存在する赤色部が抽出される。
Next, in the next cycle, the switches SW1, 2, 5, 6 are switched based on the switching signal from the microcomputer 7, and the binary signals are similarly read from the LUTs 52 and 62 based on the address control signal. The signal output from the LUT 62 is inverted by the INV 11, and then directly guided to the AND circuit 12 via the switches SW1 and SW2 without passing through the LPF 81. on the other hand,
The switch SW5 is switched to the level "1" side, and the switch SW6 is connected to the binary data memory 13 side, so that the AND circuit 12 executes the processes of # 116 and # 118. In this way, the red portion existing near the skin color area is extracted.

【0041】続いて、2値データメモリ13から赤色部
の信号が順次読み出され、輪郭抽出部31でそれぞれの
赤色信号の輪郭が画像処理により抽出される(#12
0)。そして、得られた各輪郭信号は次段の形状識別部
32に導かれ、ここで輪郭が丸、すなわち円形であれば
赤目位置と判別し、そうでなければ他の赤色物(例えば
図4(i)のリボン等)と判断する(#122)。赤目位
置と判断された輪郭データはマイコン71に取り込まれ
る。
Next, the red color signals are sequentially read from the binary data memory 13, and the contours of the respective red color signals are extracted by the contour extraction section 31 by image processing (# 12).
0). Then, each of the obtained contour signals is guided to the shape identifying unit 32 at the next stage, and if the contour is a circle, that is, a circle, it is determined to be a red eye position, and if not, another red object (for example, FIG. i) Ribbon etc.) (# 122). The contour data determined to be the red eye position is fetched by the microcomputer 71.

【0042】そして、次周期で、画像メモリ2から信号
を読み出す際に該赤目位置の存在するアドレスを指定す
る毎に、スイッチSW10,11を切り換えて、色度マ
トリクス回路3に(R',G',B')=(k1・B,k
2・B,B)なる信号を送出する。なお、このときは、
第2実施例と同様、LUT52,62はいずれもスルー
テーブルが選択されている。
Then, in the next cycle, each time the address at which the red-eye position exists is specified when the signal is read out from the image memory 2, the switches SW10 and SW11 are switched to the chromaticity matrix circuit 3 (R ', G). ', B') = (k1 · B, k
2 · B, B) signal is transmitted. At this time,
As in the second embodiment, the through table is selected for both LUTs 52 and 62.

【0043】また、形状識別部32における赤目識別を
より精度良く行うために、該形状識別部32で得られた
円形信号の近く、すなわち画面上で両眼間距離に換算さ
れた距離に、同等の円形信号があるかどうかで、該円形
信号が赤目部かどうかを判別するようにすることもでき
る(#124)。あるいは、形状識別部32は輪郭抽出
部31で抽出された赤色部の面積、例えば赤色のアドレ
ス数を合計して求まる値に換算された値が、撮影倍率β
から予想される大きさであるかどうかにより赤目部を識
別するようにすることもできる(#126)。また、第
1実施例、第2実施例で2値データメモリ13に得られ
た赤目検出データとの論理積を取って、より精度向上を
図るようにしてもよい。
Further, in order to perform the red-eye discrimination in the shape discriminating unit 32 with higher accuracy, it is equivalent to the circular signal obtained by the shape discriminating unit 32, that is, the distance converted to the interocular distance on the screen. It is also possible to determine whether or not the circular signal is a red-eye portion by determining whether or not the circular signal is present (# 124). Alternatively, the shape identification unit 32 converts the area of the red portion extracted by the contour extraction unit 31, for example, a value converted into a value obtained by summing the number of red addresses, to obtain the imaging magnification β.
It is also possible to identify the red-eye part depending on whether or not the size is expected from (# 126). Further, the accuracy may be improved by taking the logical product of the red-eye detection data obtained in the binary data memory 13 in the first and second embodiments.

【0044】次に、図13は、赤目補正装置の第4実施
例を示す全体ブロック図で、図14は、赤目位置検出処
理のアルゴリズムを示す図である。なお、図中、図9及
び図11と同一番号が付されたものは同一機能を果たす
ものである。
Next, FIG. 13 is an overall block diagram showing a fourth embodiment of the red-eye correction apparatus, and FIG. 14 is a diagram showing an algorithm of red-eye position detection processing. Note that, in the figure, those denoted by the same reference numerals as those in FIGS. 9 and 11 perform the same function.

【0045】図において、ラベリング部33は、赤色信
号が1つの塊として存在する各赤色領域を抽出し、これ
らの赤色部のそれぞれに対し、例えば連番を付すなどす
るとともに、撮影倍率βから予想される両眼距離に一対
で存在するものを抽出するものである。
In the figure, the labeling unit 33 extracts each red region in which the red signal exists as one lump, assigns, for example, a serial number to each of these red regions, and predicts from the imaging magnification β. Those that exist in a pair in the binocular distance are extracted.

【0046】続いて、図14により赤目位置検出処理を
説明すると、先ず、マイコン72からのアドレスコント
ロール信3号に基づいて、上記R,G,B信号が同期し
て読み出され、色度マトリクス回路でL,u,v信号に
変換されて、#130〜#136の処理が実行される。
すなわち、LUT52の内部テーブルとして赤色検出テ
ーブルが選択され、これにより、u,v信号を用いて赤
色部が“1”に、それ以外の部分が“0”として2値化
される(#130)。
Next, the red eye position detection processing will be described with reference to FIG. 14. First, the R, G, B signals are synchronously read out based on the address control signal No. 3 from the microcomputer 72, and the chromaticity matrix is obtained. The circuit converts the signals into L, u, and v signals and executes the processes of # 130 to # 136.
That is, the red color detection table is selected as the internal table of the LUT 52, whereby the red and red parts are binarized to "1" and the other parts to "0" using the u and v signals (# 130). .

【0047】この2値信号は、ラベリング部33で画像
処理され、得られた各赤色領域に対して、連番が付され
(#132)、各ラべリングされた赤色領域の座標値、
すなわち画像メモリ2上のアドレスデータがマイコン7
2に導かれる。マイコン72は、得られた赤色領域の中
心座標値、すなわち中心アドレスを求めて一旦記憶し、
一方、撮影倍率βから予想される両眼距離をアドレス上
での距離に変換する。そして、上記求めた中心アドレス
からそれぞれ2個を、全ての組合せについて、前記両眼
距離に相当するアドレス距離と比較し、一致したときの
2個の赤色領域を赤目部と判別する(#136)。そし
て、マイコン72は、赤目部と判別された領域のアドレ
スに対して補正用、例えば“1”を記憶する。なお、そ
の他の領域については補正不要として、結果的に“0”
とされる。なお、赤目補正時における処理は、第3実施
例と同様なので説明は省略する。
This binary signal is image-processed by the labeling section 33, and a serial number is given to each red area obtained (# 132), and the coordinate value of each labeled red area,
That is, the address data on the image memory 2 is the microcomputer 7
Guided to 2. The microcomputer 72 obtains the center coordinate value of the obtained red area, that is, the center address, and temporarily stores it.
On the other hand, the binocular distance expected from the photographing magnification β is converted into the distance on the address. Then, for each combination, two from the obtained center addresses are compared with the address distance corresponding to the binocular distance, and the two red areas when they match are determined to be red-eye portions (# 136). . Then, the microcomputer 72 stores a correction, for example, "1" for the address of the area determined to be the red eye portion. Note that correction is unnecessary for other areas, resulting in "0".
It is said that Note that the processing at the time of red-eye correction is the same as in the third embodiment, so a description thereof will be omitted.

【0048】また、図13において、カッコで囲まれた
輪郭抽出部31及び形状識別部32は本実施例における
赤目位置検出の変形例を示したもので、各ラベリングさ
れた赤色領域の輪郭を輪郭抽出部31でそれぞれ抽出
し、形状識別部32で各輪郭が円形であれば赤目位置と
判別し、そうでなければ他の赤色物と判断するようにし
たもので(#138)、赤目位置の検出精度を向上させ
たものである。また、第1実施例、第2実施例で2値デ
ータメモリ13に得られた赤目検出データとの論理積を
取って、より検出精度の向上を図るようにしてもよい。
Further, in FIG. 13, the contour extraction unit 31 and the shape identification unit 32 enclosed in parentheses show a modified example of the red eye position detection in this embodiment, and the contours of the respective labeled red regions are contoured. The extraction unit 31 extracts each of them, and the shape identification unit 32 determines that each contour is a circle and determines that it is a red eye position, and otherwise determines that it is another red object (# 138). The detection accuracy is improved. The detection accuracy may be further improved by taking the logical product of the red-eye detection data obtained in the binary data memory 13 in the first and second embodiments.

【0049】次に、図15は、赤目補正装置の第5、6
実施例を示す全体ブロック図で、図16は、第5実施例
における赤目位置検出処理のアルゴリズムを示し、図1
7は、第6実施例における赤目位置検出処理のアルゴリ
ズムを示す図である。第5実施例はスイッチSW7が図
示の状態にある場合で、第6実施例はスイッチSW7が
直接マイコン73に接続された状態にある場合である。
なお、図中、図9及び図11と同一番号が付されたもの
は同一機能を果たすものである。
Next, FIG. 15 shows the fifth and sixth red-eye correction devices.
16 is an overall block diagram showing an embodiment, and FIG. 16 shows an algorithm of red-eye position detection processing in the fifth embodiment.
FIG. 7 is a diagram showing an algorithm of red-eye position detection processing in the sixth embodiment. The fifth embodiment is a case where the switch SW7 is in the illustrated state, and the sixth embodiment is a case where the switch SW7 is directly connected to the microcomputer 73.
Note that, in the figure, those denoted by the same reference numerals as those in FIGS. 9 and 11 perform the same function.

【0050】図において、輪郭抽出部34は肌色信号を
含む領域の輪郭を抽出するものである。形状識別部35
は予め人間の顔面形状を基準形状として記憶しておき、
輪郭抽出部34で得られる1又は複数の輪郭の内、いず
れが基準形状と一致するかどうかを、パターン認識技術
を利用して、判別することで、顔面を識別するものであ
る。塗りつぶし処理部36は形状識別部35で識別され
た顔面形状の閉領域内を塗りつぶす、すなわち当該領域
内に対し全て“1”を書き込むものである。
In the figure, a contour extraction unit 34 is for extracting the contour of a region including a skin color signal. Shape identification unit 35
Previously stores the human face shape as a reference shape,
The face is identified by determining which of the one or more contours obtained by the contour extraction unit 34 matches the reference shape by using the pattern recognition technique. The filling processing unit 36 fills the inside of the closed region of the face shape identified by the shape identifying unit 35, that is, writes “1” in all of the region.

【0051】続いて、第5実施例の場合における赤目位
置検出処理について図16のアルゴリズムを用いて説明
する。先ず、マイコン7からのアドレスコントロール信
号に基づいて、上記R,G,B信号が同期して読み出さ
れ、色度マトリクス回路3でL,u,v信号に変換され
て、#150、および#152〜#158の処理が同期
して実行される。すなわち、LUT52の内部テーブル
として赤色検出テーブルが選択され、これにより、u,
v信号を用いて赤色部が“1”に、それ以外の部分が
“0”として2値化される(#150)。この2値信号
はそのままAND回路121の一入力端に導かれる。一
方、LUT62の内部テーブルとして肌色検出テーブル
が選択され、これにより、u,v信号を用いて肌色部が
“1”に、それ以外の部分が“0”として2値化され
る。
Next, the red-eye position detection processing in the case of the fifth embodiment will be described using the algorithm of FIG. First, based on the address control signal from the microcomputer 7, the R, G, B signals are synchronously read out, converted into L, u, v signals by the chromaticity matrix circuit 3, and # 150 and #. The processes of 152 to # 158 are executed in synchronization. That is, the red color detection table is selected as the internal table of the LUT 52, whereby u,
By using the v signal, the red part is binarized as "1" and the other parts are binarized as "0"(# 150). This binary signal is guided as it is to one input terminal of the AND circuit 121. On the other hand, the flesh color detection table is selected as the internal table of the LUT 62, and the u and v signals are used to binarize the flesh color portion as "1" and the other portions as "0".

【0052】この2値信号は輪郭抽出部34に入力さ
れ、肌色部が領域として存在する該領域のそれぞれにつ
いて、その輪郭が抽出される(#152)。更に、抽出
された各輪郭は、形状識別部で、それが人物の顔面形状
の基準である、例えば卵形をしているかどうか判別され
る(#156)。そして、輪郭が卵形であると識別され
たときは、当該輪郭内に対して均一な塗りつぶし処理が
施される(#158)。次いで、この塗りつぶし処理さ
れた顔面領域信号は、LPF82を経て撮影倍率βに応
じて領域拡大が図られた後、AND回路121の他方入
力端に導かれ、ここで前記赤色部と論理積が取られる
(#160)。この論理積により、顔面内の赤色部が検
出されることになる。次いで、得られた赤色部の輪郭が
抽出され(#162)、更に、この抽出された輪郭が
丸、すなわち円形かどうかが識別される(#164)。
円形であれば赤目位置であるとして、マイコンに当該領
域内の信号が取り込まれる。そして、得られた赤目位置
信号はマイコン73に導かれ、前記第2実施例と同様に
して、赤目補正処理が施される。
This binary signal is input to the contour extracting section 34, and the contour of each of the areas where the skin color portion exists as an area is extracted (# 152). Further, each of the extracted contours is discriminated by the shape discriminating unit whether or not it has, for example, an oval shape which is a reference of the facial shape of the person (# 156). Then, when the contour is identified as an oval shape, the inside of the contour is uniformly painted (# 158). Then, the face area signal subjected to the filling processing is subjected to area expansion according to the photographing magnification β via the LPF 82, and is then guided to the other input end of the AND circuit 121, where the logical product is obtained with the red portion. (# 160). By this logical product, the red part in the face is detected. Next, the contour of the obtained red part is extracted (# 162), and it is further identified whether the extracted contour is a circle, that is, a circle (# 164).
If it is circular, it is determined that the position is the red eye position, and the signal in the area is captured by the microcomputer. Then, the obtained red-eye position signal is guided to the microcomputer 73 and subjected to red-eye correction processing in the same manner as in the second embodiment.

【0053】更に、赤目部の識別をより精度良く行うた
めに、該形状識別部32内に得られた円形信号の近くに
同等の円形信号があるかどうかで、該円形信号が赤目部
かどうかを判別するようにすることもできる(#16
6)。あるいは、形状識別部32は輪郭抽出部31で抽
出された赤色部の面積が撮影倍率βから予想される大き
さであるかどうかにより赤目部を識別するようにするこ
ともできる(#168)。また、第1実施例、第2実施
例で2値データメモリ13に得られた赤目検出データと
の論理積を取って、より精度向上を図るようにしてもよ
い。
Further, in order to identify the red-eye part more accurately, whether or not the circular signal is the red-eye part depends on whether or not there is an equivalent circular signal near the circular signal obtained in the shape identifying part 32. Can also be determined (# 16
6). Alternatively, the shape identifying unit 32 may identify the red-eye portion based on whether the area of the red portion extracted by the contour extracting unit 31 is the size expected from the photographing magnification β (# 168). Further, the accuracy may be improved by taking the logical product of the red-eye detection data obtained in the binary data memory 13 in the first and second embodiments.

【0054】続いて、第6実施例の場合における赤目位
置検出処理について図17のアルゴリズムを用いて説明
する。なお、この第6実施例においては、図15に示す
形状識別部35は、人間の顔面形状に代えて、眼の形状
を識別するもので、予め人間の眼の基準形状を記憶して
おき、輪郭抽出部34で得られる1又は複数の輪郭の
内、いずれが基準形状と一致するかどうかを、パターン
認識技術を利用して、判別する先ず、第5実施例同様、
LUT52の内部テーブルとして赤色検出テーブルが選
択され、これにより、u,v信号を用いて赤色部が
“1”に、それ以外の部分が“0”として2値化される
(#180)。この2値信号はそのままAND回路12
1の一入力端に導かれる。一方、LUT62の内部テー
ブルとして肌色検出テーブルが選択され、これにより、
u,v信号を用いて肌色部が“1”に、それ以外の部分
が“0”として2値化される。
Next, the red eye position detection processing in the case of the sixth embodiment will be described using the algorithm of FIG. In the sixth embodiment, the shape identifying unit 35 shown in FIG. 15 identifies the eye shape instead of the human face shape, and stores the reference shape of the human eye in advance. Using the pattern recognition technique, it is determined which of the one or more contours obtained by the contour extraction unit 34 matches the reference shape. First, as in the fifth embodiment,
The red color detection table is selected as the internal table of the LUT 52, and the u and v signals are used to binarize the red color portion as "1" and the other portions as "0"(# 180). This binary signal is AND circuit 12 as it is.
1 to one input end. On the other hand, the flesh color detection table is selected as the internal table of the LUT 62.
The u and v signals are used to binarize the flesh color part as "1" and the other parts as "0".

【0055】この2値信号は輪郭抽出部34に入力さ
れ、肌色部と他の色部との境界が、それぞれ輪郭として
抽出される(#182)。例えば、顔面と顔面内の眼と
は色が異なるので、結果的に眼の外周に対して輪郭が形
成される。このようにして、抽出された各輪郭は、形状
識別部35で、それが人物の眼形状の基準である、例え
ば横向きの楕円形をしているかどうか判別される(#1
84)。そして、輪郭が眼の形であると識別されたとき
は(#186)、当該輪郭出囲まれる閉領域に対して均
一な塗りつぶし処理が施される(#188)。次いで、
この塗りつぶし処理された眼領域信号は、LPF82を
経て撮影倍率βに応じて領域拡大が図られた後、AND
回路121の他方入力端に導かれ、ここで前記赤色部と
論理積が取られる(#190)。この論理積により、眼
内の赤色部が検出されることになる。そして、得られた
赤目位置信号はマイコン73に導かれ、前記第2実施例
と同様にして、赤目補正処理が施される。
This binary signal is input to the contour extraction unit 34, and the boundaries between the skin color portion and the other color portions are extracted as contours (# 182). For example, since the face and the eyes in the face have different colors, a contour is formed on the outer periphery of the eyes as a result. In this way, each of the extracted contours is discriminated by the shape discriminating unit 35 as to whether or not it has a lateral oval shape, which is a reference of the human eye shape (# 1).
84). Then, when the contour is identified as the shape of an eye (# 186), a uniform filling process is performed on the closed region surrounded by the contour (# 188). Then
The eye area signal subjected to the filling processing is subjected to the area expansion according to the imaging magnification β via the LPF 82, and then ANDed.
It is led to the other input terminal of the circuit 121, and is ANDed with the red portion (# 190). The red product in the eye is detected by this logical product. Then, the obtained red-eye position signal is guided to the microcomputer 73 and subjected to red-eye correction processing in the same manner as in the second embodiment.

【0056】また、赤目識別をより精度良く行うため
に、得られた眼位置信号の近くに同等の形状の信号があ
るかどうかで赤目部を識別するようにすることもできる
(#192)。あるいは、形状識別部35は輪郭抽出部
34で抽出された眼形状の面積が撮影倍率βから予想さ
れる大きさであるかどうかにより赤目部を識別するよう
にすることもできる(#194)。また、第1実施例、
第2実施例で2値データメモリ13に得られた赤目検出
データとの論理積を取って、より精度向上を図るように
してもよい。また、上記第5実施例と第6実施例とを組
み合わせてより精度の高い赤目位置検出を行うようにし
てもよく、更に、これに第3実施例を組み合わせれば、
一層高精度の赤目位置検出が期待できる。
Further, in order to perform the red-eye identification with higher accuracy, the red-eye portion may be identified based on whether or not there is a signal having an equivalent shape near the obtained eye position signal (# 192). Alternatively, the shape identifying unit 35 may identify the red-eye portion based on whether the area of the eye shape extracted by the contour extracting unit 34 is the size expected from the imaging magnification β (# 194). In addition, the first embodiment,
The accuracy may be improved by taking the logical product of the red-eye detection data obtained in the binary data memory 13 in the second embodiment. In addition, the fifth and sixth embodiments may be combined to perform more accurate red-eye position detection, and by combining this with the third embodiment,
Higher accuracy red-eye position detection can be expected.

【0057】次に、図18は、赤目補正装置の第7実施
例を示す全体ブロック図で、図中、第9図と同一番号が
付されたものは同一機能を果たすものである。図19は
赤目位置検出処理のアルゴリズムを示す図である。
Next, FIG. 18 is an overall block diagram showing a seventh embodiment of the red-eye correction apparatus. In the figure, those designated by the same numbers as in FIG. 9 perform the same functions. FIG. 19 is a diagram showing an algorithm of red-eye position detection processing.

【0058】図において、マイコン74はモニター19
上の押下位置座標(x,y)が入力されるようになされ
ている。この座標(x,y)は画像メモリ2のアドレス
と対応するようになっている。なお、このモニター上の
位置指定の方法は、モニター19画面に透明なタッチパ
ネル191を重畳して配設し、このタッチパネル191
を押下することにより、あるいは操作部からの操作によ
り移動指示可能な画面上の表示マーカーを操作すること
により行われる。
In the figure, the microcomputer 74 is a monitor 19
The upper pressed position coordinates (x, y) are input. The coordinates (x, y) correspond to the address of the image memory 2. It should be noted that the method of specifying the position on this monitor is as follows.
It is performed by pressing or by operating a display marker on the screen which can be instructed to move by an operation from the operation unit.

【0059】図20は、信号(L,u,v)から輝度系
(L)と極座標系(r,φ)への変換を説明するための
図で、図20(a)は(u,v)信号から(r,φ)信
号に変換する場合を示し、図20(b)は輝度信号Lを
抽出する場合を示す。
FIG. 20 is a diagram for explaining the conversion from the signal (L, u, v) to the luminance system (L) and the polar coordinate system (r, φ). FIG. 20A shows (u, v). ) Signal is converted to a (r, φ) signal, and FIG. 20B shows a case where the luminance signal L is extracted.

【0060】赤目補正テーブル37は、図示の状態にあ
るスイッチSW10,SW11を通して画像メモリ2か
ら入力される指定位置の信号(L,u,v)を輝度系
(L)と極座標系(r,φ)に変換すると共に、図20
(a)(b)に示すように、上記変換値に許容範囲を加
味した輝度信号(L±d)、色信号(r±α,φ±β)
を求めるとともに、色信号に対しては、更に逆変換し
て、(u1≦u≦u2,v1≦v≦v2)を求めるものであ
る。マイコン74は、この値をスイッチSW8,SW9
を通してLUT43、53内のRAMに書き込むように
している。また、LUT43は画像メモリ2から順次読
み出される信号(L)が、(L±d)の範囲に含まれる
ときは、“1”を出力し、それ以外のときは“0”出力
する。LUT53は画像メモリ2から順次読み出される
信号(u,v)が(u1≦u≦u2,v1≦v≦v2)の範
囲に含まれるときは、“1”を出力し、それ以外のとき
は“0”を出力する。このときのLUT43、53から
の各2値出力は、マイコン74からの切り換え信号によ
りスイッチSW8,SW9を通してAND回路121に
導かれるようになっている。
In the red-eye correction table 37, signals (L, u, v) at designated positions input from the image memory 2 through the switches SW10, SW11 in the illustrated state are converted into a luminance system (L) and a polar coordinate system (r, φ). ), And FIG.
As shown in (a) and (b), a luminance signal (L ± d) and a color signal (r ± α, φ ± β) in which an allowable range is added to the converted value.
In addition to the above, the color signal is further inversely transformed to obtain (u 1 ≦ u ≦ u 2 , v 1 ≦ v ≦ v 2 ). The microcomputer 74 sets this value to the switches SW8 and SW9.
Through LUTs 43 and 53. Further, the LUT 43 outputs "1" when the signals (L) sequentially read from the image memory 2 are included in the range of (L ± d), and outputs "0" otherwise. The LUT 53 outputs “1” when the signals (u, v) sequentially read from the image memory 2 are included in the range of (u 1 ≦ u ≦ u 2 , v 1 ≦ v ≦ v 2 ), and otherwise. In the case of, "0" is output. Each binary output from the LUTs 43 and 53 at this time is guided to the AND circuit 121 through the switches SW8 and SW9 by the switching signal from the microcomputer 74.

【0061】続いて、図19により赤目位置検出処理を
説明すると、先ず、モニター画面上の再生画像からその
赤目位置に対して位置(x,y)が指定されると(#2
00)、マイコン74から、このアドレス(x,y)が
読み出され、画像メモリ2に供給される。そして、画像
メモリ2から該当アドレスのR,G,B信号が読み出さ
れ、色度マトリクス回路3でL,u,v信号に変換され
て赤目補正テーブル37に導かれる(#202,#21
0)。次いで、輝度信号Lに対して、#204〜#20
6の処理が実行され、色信号U,vに対して#212〜
#218の処理が実行される。
Next, the red eye position detection processing will be described with reference to FIG. 19. First, when the position (x, y) is designated for the red eye position from the reproduced image on the monitor screen (# 2
00), the address (x, y) is read from the microcomputer 74 and supplied to the image memory 2. Then, the R, G, B signals of the corresponding address are read from the image memory 2, converted into L, u, v signals by the chromaticity matrix circuit 3 and guided to the red-eye correction table 37 (# 202, # 21).
0). Next, with respect to the luminance signal L, # 204 to # 20
6 is executed, and the color signals U and v are processed from # 212 to # 212.
The process of # 218 is executed.

【0062】輝度信号に対しては、許容範囲を加味した
検出エリア(L±d)が指定され、この内容がLUT4
3に書き込まれる(#204,#206)。一方、色信
号に対しては一旦極座標(r,φ)に変換され、更に許
容範囲を加味した検出エリア(r±α,φ±β)が指定
された後、逆変換(u1≦u≦u2,v1≦v≦v2)され
て、この内容がLUT53に書き込まれる(#212〜
#216)。
For the luminance signal, the detection area (L ± d) in which the allowable range is added is designated, and this content is LUT4.
3 is written (# 204, # 206). On the other hand, the color signal is once converted into polar coordinates (r, φ), and after the detection area (r ± α, φ ± β) in which the allowable range is added is specified, the inverse transformation (u 1 ≦ u ≦ u 2 , v 1 ≤ v ≤ v 2 ) and this content is written to the LUT 53 (# 212-
# 216).

【0063】次いで、マイコン74からのアドレスコン
トロール信号に基づいて、画像メモリ2から画像信号が
順次読み出され、色度マトリクス回路33でL,u,v
信号に変換されて、LUT43,53に導かれる(#2
08,#218)。LUT43、53では、L,u,v
信号が、予め書き込まれた検出エリア(L±d)、(u
1≦u≦u2,v1≦v≦v2)に含まれるときは、それぞ
れ“1”が出力され、それ以外のときは“0”が出力さ
れて、AND回路121に出力され、論理積が取られて
2値データメモリ13に順次書き込まれる(#22
0)。
Next, based on the address control signal from the microcomputer 74, the image signals are sequentially read out from the image memory 2, and the chromaticity matrix circuit 33 outputs L, u, v.
It is converted to a signal and guided to the LUTs 43 and 53 (# 2
08, # 218). In the LUT 43, 53, L, u, v
The detection area (L ± d) where the signal is written in advance, (u
1 ≤ u ≤ u 2 and v 1 ≤ v ≤ v 2 ), each outputs "1", and otherwise outputs "0" to the AND circuit 121 and outputs the logical value. The products are taken and sequentially written in the binary data memory 13 (# 22
0).

【0064】次周期における画像メモリ2からの読み出
し時には、2値データメモリ121の内容と同期して読
み出され、2値データメモリ121から“1”が出力さ
れるときは、赤目位置と見做して、スイッチSW10,
SW11を図示とは逆の状態に切り換えて乗算部17,
18を介して色度マトリクス回路3に出力させ、“0”
が出力されるときは、赤目位置以外であるとして、スイ
ッチSW10,SW11を図示の状態に切り換えて画像
メモリ2の出力をそのまま色度マトリクス回路3に導
く。
When reading from the image memory 2 in the next cycle, it is read in synchronization with the contents of the binary data memory 121, and when "1" is output from the binary data memory 121, it is regarded as the red eye position. Then switch SW10,
SW11 is switched to the state opposite to that shown in the drawing, and the multiplication unit 17,
It is output to the chromaticity matrix circuit 3 via 18 and becomes “0”.
Is output, the switches SW10 and SW11 are switched to the illustrated state and the output of the image memory 2 is guided to the chromaticity matrix circuit 3 as it is.

【0065】次に、図21は、赤目補正装置の第8実施
例を示す全体ブロック図で、図22は赤目位置検出処理
のアルゴリズムを示す図である。なお、図中、図9及び
図11と同一番号が付されたものは同一機能を果たすも
のである。
Next, FIG. 21 is an overall block diagram showing an eighth embodiment of the red-eye correction device, and FIG. 22 is a diagram showing an algorithm of red-eye position detection processing. Note that, in the figure, those denoted by the same reference numerals as those in FIGS. 9 and 11 perform the same function.

【0066】この実施例では、連写撮影された一連のコ
マに対しては、先頭コマで赤目位置と判断された位置の
近領域のみ、次コマから赤目位置を検出すべき領域とし
て扱うようにして、赤目位置検出の容易、迅速化を図っ
たものである。
In this embodiment, with respect to a series of frames photographed continuously, only the area near the position determined to be the red eye position in the first frame is treated as the region in which the red eye position should be detected from the next frame. The red-eye position detection is facilitated and speeded up.

【0067】図において、マイコン75は撮像部20か
ら、あるいはマニュアル入力された連写情報及びそれら
一連のコマの撮影倍率βとを取り込むようになってい
る。LPF83は撮影倍率βに応じてフィルター効果が
変更可能にされたものである。なお、図21に示す回路
ブロックは、第2実施例または第3実施例で示す赤目位
置検出回路部を備えており、2値データメモリ13内に
は、上記赤目位置検出回路部により、あるコマにおける
検出赤目位置の2値データが取り込まれているものとす
る。
In the figure, the microcomputer 75 is adapted to take in the continuous shooting information inputted from the image pickup section 20 or manually and the photographing magnification β of the series of frames. The LPF 83 has a filter effect changeable according to the photographing magnification β. The circuit block shown in FIG. 21 includes the red-eye position detection circuit section shown in the second or third embodiment. It is assumed that the binary data of the detected red-eye position in is captured.

【0068】続いて、図22により赤目検出処理を説明
する。連写撮影された一連のコマの再生であることがマ
イコン75で判別されると(#230)、連写1コマ目
に対する再生が終了しても、2値データメモリ13内の
2値データはそのまま保持される。次いで、連写2コマ
目に対する再生処理が開始されるまでに、先の連写1コ
マ目に赤目が存在したかどうかの確認が行われ(#23
2)、連写1コマ目に赤目が存在していなければ、2コ
マ目以降については、例えば第2、第3実施例による赤
目位置検出処理が行われる。
Next, the red eye detection processing will be described with reference to FIG. When it is determined by the microcomputer 75 that the series of frames shot continuously are reproduced (# 230), even if the reproduction for the first frame of continuous shooting ends, the binary data in the binary data memory 13 remains It is kept as it is. Next, by the time the reproduction process for the second frame of continuous shooting is started, it is confirmed whether or not a red eye exists in the first frame of continuous shooting (# 23).
2) If the red-eye does not exist in the first frame of continuous shooting, the red-eye position detection processing according to the second and third embodiments is performed for the second and subsequent frames.

【0069】一方、連写1コマ目に赤目が存在しておれ
ば、2コマ目以降に対し、上記確認された赤目位置の近
領域のみ抽出して検出を行う(#234)。すなわち、
2値データメモリ13から先頭コマの赤目位置データが
読み出され、LPF83を介して、その領域が撮影倍率
βに応じて拡大される。そして、先頭コマで確認された
赤目位置を囲むように、その近領域に対しても、データ
“1”が生成された領域信号がAND回路121の一方
入力端に導かれる。これは、撮影倍率βが大きいほど先
頭コマと2コマ目以降のコマ間での眼の位置の移動が大
きくなることが予想されるので、これに応じて眼の部分
を確実に検知領域に含めるようにするものである。ま
た、LUT52から赤色検出テーブルを介して出力され
たコマ内の赤色部を示すデータ“1”がAND回路12
1の他方入力端に導かれる。
On the other hand, if a red eye is present in the first frame of continuous shooting, only the near area of the confirmed red eye position is extracted and detected in the second and subsequent frames (# 234). That is,
The red-eye position data of the first frame is read from the binary data memory 13, and the area is enlarged according to the photographing magnification β via the LPF 83. Then, the area signal in which the data “1” is generated is guided to one input terminal of the AND circuit 121 even in the near area so as to surround the red eye position confirmed in the first frame. This is because it is expected that the larger the photographing magnification β, the larger the movement of the eye position between the first frame and the second and subsequent frames, and accordingly the eye part is surely included in the detection region. To do so. Further, the data “1” indicating the red portion in the frame output from the LUT 52 via the red detection table is the AND circuit 12
1 is led to the other input end.

【0070】そして、両データはAND回路121で論
理積を取られて(#236)、マイコン75に出力さ
れ、記憶される。更に、3コマ目以降、連写モードの最
終コマまで、上述同様に先頭コマにおける検出赤目位置
のデータを元に赤目位置検出が行われる。
Then, both data are ANDed by the AND circuit 121 (# 236) and output to the microcomputer 75 for storage. Further, from the third frame onward, up to the last frame in the continuous shooting mode, red-eye position detection is performed based on the detected red-eye position data in the first frame as described above.

【0071】なお、この実施例では、2値データメモリ
13の2値データを元に説明したが、第4〜第6実施例
において、マイコン内に取り込まれている赤目位置のデ
ータに基づいて同様の処理を行うこともできる。また、
赤目補正処理部の構成として第1実施例のものを採用す
ることもできる。
Although this embodiment has been described based on the binary data in the binary data memory 13, the same applies to the fourth to sixth embodiments based on the data of the red eye position taken in the microcomputer. Can also be processed. Also,
The configuration of the red-eye correction processing unit may be the same as that of the first embodiment.

【0072】次に、赤目補正装置の第9実施例について
説明する。この第9実施例における赤目位置検出は、モ
ニター上の再生画像に対し、赤目位置を直接マニュアル
指示して赤目補正を施すものである。すなわち、マニュ
アル指示された座標位置(x,y)を検出し、この検出
位置データをローパスフィルターを介して拡大する(x
±Δx,y±Δy)ようにして検知精度を確保し、該拡
大された検知領域に対して、LUT5(またはLUT5
1,52)の赤色検出テーブルを介して出力される赤色
部と論理積を取ることで、赤目位置を検出する。このと
き、拡大範囲は撮影倍率βに応じて可変可能にしてもよ
い。なお、マニュアル指示の方法は、図18に示すよう
に、押圧された位置座標(x,y)を出力する透明なタ
ッチパネルをモニター画面に重畳して配設し、あるいは
操作部からの操作により移動指示可能な画面上の表示マ
ーカーを操作し、位置指定するようにしてもよい。
Next, a ninth embodiment of the red-eye correction device will be described. In the red eye position detection in the ninth embodiment, the red eye position is directly manually instructed on the reproduced image on the monitor to correct the red eye. That is, the manually designated coordinate position (x, y) is detected, and the detected position data is enlarged through a low pass filter (x
± Δx, y ± Δy) to secure the detection accuracy, and the LUT5 (or LUT5) is applied to the enlarged detection area.
The red-eye position is detected by taking the logical product with the red part output via the red detection table of (1, 52). At this time, the enlargement range may be variable according to the photographing magnification β. As shown in FIG. 18, the manual instruction method is such that a transparent touch panel that outputs the pressed position coordinates (x, y) is placed on the monitor screen in a superimposed manner or moved by an operation from the operation unit. The position may be designated by operating the display marker on the screen that can be designated.

【0073】また、この第9実施例と前記第7実施例と
の論理積を取って(図19、#222)、より精度の高
い赤目位置検出を行うようにしてもよい。
Further, the logical product of the ninth embodiment and the seventh embodiment may be taken (# 222 in FIG. 19) to perform more accurate red-eye position detection.

【0074】[0074]

【発明の効果】以上説明したように、本発明によれば、
現像済みカラーフィルムをカラー撮像して得られたフィ
ルム画像から、第1の抽出手段で低彩度領域及び低照度
領域部の少なくとも一方を抽出し、第2の抽出手段で肌
色領域を抽出し、第3の抽出手段で赤色部とを抽出し、
更に、第1、第2及び第3の抽出手段からの抽出信号を
用いて、すなわち顔面特有の複数の色成分を用いて画像
内の赤目位置を検出するようにしたので、容易、確実な
赤目位置検出ができる。
As described above, according to the present invention,
From the film image obtained by color-imaging the developed color film, at least one of the low saturation area and the low illuminance area portion is extracted by the first extracting means, and the skin color area is extracted by the second extracting means, Extract the red part with the third extraction means,
Further, since the red eye position in the image is detected by using the extraction signals from the first, second and third extracting means, that is, by using the plural color components peculiar to the face, the red eye position is easy and reliable. The position can be detected.

【0075】また、このようにして得られた赤目位置デ
ータは、撮像された画像データがモニター等へ読み出さ
れる際に、同期的に読み出す等によって、容易に赤目位
置に対する色補正にも利用可能となる。
Further, the red-eye position data thus obtained can be easily used for color correction for the red-eye position by synchronously reading the picked-up image data when it is read out to a monitor or the like. Become.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明が適用される赤目補正装置の第1実施例
を示す全体ブロック図である。
FIG. 1 is an overall block diagram showing a first embodiment of a red-eye correction device to which the present invention is applied.

【図2】撮像部の全体構造を示す斜視図である。FIG. 2 is a perspective view showing the overall structure of an imaging unit.

【図3】赤目位置を説明するための図である。FIG. 3 is a diagram for explaining a red eye position.

【図4】図4(a)〜(j)は赤目位置の各検出手順に対する
画像処理内容を説明するための図である。
FIG. 4A to FIG. 4J are diagrams for explaining the image processing contents for each detection procedure of the red eye position.

【図5】赤目位置検出及び色補正処理のアルゴリズムを
示す図である。
FIG. 5 is a diagram showing an algorithm of red-eye position detection and color correction processing.

【図6】処理Aのアルゴリズムを詳細に示す図である。FIG. 6 is a diagram showing an algorithm of a process A in detail.

【図7】処理Bのアルゴリズムを詳細に示す図である。FIG. 7 is a diagram showing an algorithm of a process B in detail.

【図8】処理Cのアルゴリズムを詳細に示す図である。FIG. 8 is a diagram showing an algorithm of a process C in detail.

【図9】赤目補正装置の第2実施例を示す全体ブロック
図である。
FIG. 9 is an overall block diagram showing a second embodiment of the red-eye correction device.

【図10】第2実施例における赤目補正処理のアルゴリ
ズムを示す図である。
FIG. 10 is a diagram showing an algorithm of red-eye correction processing in the second embodiment.

【図11】赤目補正装置の第3実施例を示す全体ブロッ
ク図である。
FIG. 11 is an overall block diagram showing a third embodiment of the red-eye correction device.

【図12】第3実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 12 is a diagram showing an algorithm of red-eye position detection processing in the third embodiment.

【図13】赤目補正装置の第4実施例を示す全体ブロッ
ク図である。
FIG. 13 is an overall block diagram showing a fourth embodiment of the red-eye correction device.

【図14】第4実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 14 is a diagram showing an algorithm of red-eye position detection processing in the fourth embodiment.

【図15】赤目補正装置の第5、6実施例を示す全体ブ
ロック図である。
FIG. 15 is an overall block diagram showing fifth and sixth embodiments of the red-eye correction device.

【図16】第5実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 16 is a diagram showing an algorithm of red-eye position detection processing in the fifth embodiment.

【図17】第6実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 17 is a diagram showing an algorithm of red-eye position detection processing in the sixth embodiment.

【図18】赤目補正装置の第7実施例を示す全体ブロッ
ク図である。
FIG. 18 is an overall block diagram showing a seventh embodiment of the red-eye correction device.

【図19】第7実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 19 is a diagram showing an algorithm of red-eye position detection processing in the seventh embodiment.

【図20】信号(L,u,v)から輝度系(L)と極座
標系(r,φ)への変換を説明するための図で、図
(a)は(u,v)信号から(r,φ)信号を変換形成
する場合を示し、図(b)は輝度信号Lを抽出する場合
を示す。
FIG. 20 is a diagram for explaining a conversion from a signal (L, u, v) to a luminance system (L) and a polar coordinate system (r, φ), and FIG. r, φ) signal is converted and formed, and FIG. 7B shows a case where the luminance signal L is extracted.

【図21】赤目補正装置の第8実施例を示す全体ブロッ
ク図である。
FIG. 21 is an overall block diagram showing an eighth embodiment of the red-eye correction device.

【図22】第8実施例における赤目位置検出処理のアル
ゴリズムを示す図である。
FIG. 22 is a diagram showing an algorithm of red-eye position detection processing in the eighth embodiment.

【符号の説明】 1 A/Dコンバータ 2 画像メモリ 3 色度マトリクス回路 4,41,42,5,51,52,53,6,61,6
2 LUT 7,71,72,73,74,75 マイコン 8,81,82,83,9,10 LPF 11 INV 12,121 AND回路 13 2値データメモリ 14 マトリクス回路 15 エンコーダ 16 D/Aコンバータ 17,18 乗算部 19 モニター 20 撮像部 31,34 輪郭抽出部 32,35 形状識別部 33 ラベリング部 36 塗りつぶし部 37 赤目補正テーブル SW1〜SW11 スイッチ
[Description of Reference Signs] 1 A / D converter 2 Image memory 3 Chromaticity matrix circuit 4, 41, 42, 5, 51, 52, 53, 6, 61, 6
2 LUT 7, 71, 72, 73, 74, 75 Microcomputer 8, 81, 82, 83, 9, 10 LPF 11 INV 12, 121 AND circuit 13 Binary data memory 14 Matrix circuit 15 Encoder 16 D / A converter 17, 18 Multiplier 19 Monitor 20 Imager 31,34 Contour extractor 32,35 Shape discriminating unit 33 Labeling unit 36 Filling unit 37 Red-eye correction table SW1 to SW11 switches

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 現像済みカラーフィルムをカラー撮像す
る手段と、撮像されたフィルム画像から低彩度領域及び
低照度領域部の少なくとも一方を抽出する第1の抽出手
段と、撮像されたフィルム画像から肌色領域を抽出する
第2の抽出手段と、撮像されたフィルム画像から赤色部
を抽出する第3の抽出手段と、第1、第2及び第3の抽
出手段からの抽出信号を用いて画像内の赤目位置を検出
する検出手段とを備えたことを特徴とする赤目位置検出
装置。
1. A means for color-imaging a developed color film, a first extracting means for extracting at least one of a low-saturation region and a low-illuminance region portion from the captured film image; In the image using the second extraction means for extracting the skin color region, the third extraction means for extracting the red part from the captured film image, and the extraction signals from the first, second and third extraction means. A red-eye position detecting device for detecting the red-eye position.
JP5045400A 1993-03-05 1993-03-05 Red eye position detector Expired - Lifetime JP3036285B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5045400A JP3036285B2 (en) 1993-03-05 1993-03-05 Red eye position detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5045400A JP3036285B2 (en) 1993-03-05 1993-03-05 Red eye position detector

Publications (2)

Publication Number Publication Date
JPH06258732A true JPH06258732A (en) 1994-09-16
JP3036285B2 JP3036285B2 (en) 2000-04-24

Family

ID=12718211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5045400A Expired - Lifetime JP3036285B2 (en) 1993-03-05 1993-03-05 Red eye position detector

Country Status (1)

Country Link
JP (1) JP3036285B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11136498A (en) * 1997-08-29 1999-05-21 Eastman Kodak Co Computer program matter for red eye detection
US5990973A (en) * 1996-05-29 1999-11-23 Nec Corporation Red-eye detection/retouch apparatus
EP1480168A2 (en) 2003-05-19 2004-11-24 Fuji Photo Film Co., Ltd. Method and apparatus for red-eye detection
WO2006011630A1 (en) * 2004-07-30 2006-02-02 Canon Kabushiki Kaisha Image processing apparatus and method, image sensig apparatus, and program
JP2006285956A (en) * 2005-03-11 2006-10-19 Fuji Photo Film Co Ltd Red eye detecting method and device, and program
CN100403804C (en) * 1998-12-21 2008-07-16 伊士曼柯达公司 Method and apparatus for remedying parts of images by color parameters
US7460707B2 (en) 2004-04-23 2008-12-02 Noritsu Koki Co., Ltd. Image processing method and apparatus for red eye correction
US7486317B2 (en) 2003-10-27 2009-02-03 Noritsu Koki, Co., Ltd. Image processing method and apparatus for red eye correction
US7636477B2 (en) 2004-03-25 2009-12-22 Fujifilm Corporation Device for detecting red eye, program therefor, and recording medium storing the program
JP2010102725A (en) * 2002-08-22 2010-05-06 Eastman Kodak Co Method for detecting object in digital image

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112017007863B4 (en) 2017-09-15 2022-10-06 Hitachi High-Technologies Corporation ion milling device

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5990973A (en) * 1996-05-29 1999-11-23 Nec Corporation Red-eye detection/retouch apparatus
JPH11136498A (en) * 1997-08-29 1999-05-21 Eastman Kodak Co Computer program matter for red eye detection
CN100403804C (en) * 1998-12-21 2008-07-16 伊士曼柯达公司 Method and apparatus for remedying parts of images by color parameters
JP2010102725A (en) * 2002-08-22 2010-05-06 Eastman Kodak Co Method for detecting object in digital image
EP1480168A2 (en) 2003-05-19 2004-11-24 Fuji Photo Film Co., Ltd. Method and apparatus for red-eye detection
EP1480168B1 (en) * 2003-05-19 2010-04-14 FUJIFILM Corporation Method and apparatus for red-eye detection
US7486317B2 (en) 2003-10-27 2009-02-03 Noritsu Koki, Co., Ltd. Image processing method and apparatus for red eye correction
US7636477B2 (en) 2004-03-25 2009-12-22 Fujifilm Corporation Device for detecting red eye, program therefor, and recording medium storing the program
US7460707B2 (en) 2004-04-23 2008-12-02 Noritsu Koki Co., Ltd. Image processing method and apparatus for red eye correction
JP2006040231A (en) * 2004-07-30 2006-02-09 Canon Inc Image processing device, its method, imaging device, and program
WO2006011630A1 (en) * 2004-07-30 2006-02-02 Canon Kabushiki Kaisha Image processing apparatus and method, image sensig apparatus, and program
JP4599110B2 (en) * 2004-07-30 2010-12-15 キヤノン株式会社 Image processing apparatus and method, imaging apparatus, and program
US8285002B2 (en) 2004-07-30 2012-10-09 Canon Kabushiki Kaisha Image processing apparatus and method, image sensing apparatus, and program
JP2006285956A (en) * 2005-03-11 2006-10-19 Fuji Photo Film Co Ltd Red eye detecting method and device, and program

Also Published As

Publication number Publication date
JP3036285B2 (en) 2000-04-24

Similar Documents

Publication Publication Date Title
US7042505B1 (en) Red-eye filter method and apparatus
JP4217698B2 (en) Imaging apparatus and image processing method
US7206022B2 (en) Camera system with eye monitoring
US4805016A (en) Endoscopic system for converting primary color images into hue, saturation and intensity images
CN101753814B (en) Filming device, illumination processing device and illumination processing method
US20060008173A1 (en) Device and method for correcting image including person area
JP2004320286A (en) Digital camera
US9197818B2 (en) Imaging apparatus
JP3036285B2 (en) Red eye position detector
JP2003092699A (en) Digital camera imaging apparatus
US8432473B2 (en) Imaging apparatus
JP7129520B2 (en) Image processing device, image processing method, and program
JP2004320285A (en) Digital camera
US20080239086A1 (en) Digital camera, digital camera control process, and storage medium storing control program
JP2003189325A (en) Image processing apparatus and color image photographic apparatus
JP6937603B2 (en) Image processing equipment and its control methods, programs, and storage media
KR960002548B1 (en) The method and the system for specific image fetching
JP4829391B2 (en) Imaging device
JP2009017591A (en) Imaging apparatus and image processing method
JPH05224271A (en) Image processor
JPS6379631A (en) Endoscope imaging apparatus
JPH10164472A (en) Image information processing method and electronic camera
JP3090101B2 (en) Digital camera device
JPH11185026A (en) Face area extraction device
JP2009065450A (en) Imaging apparatus

Legal Events

Date Code Title Description
FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080225

Year of fee payment: 8

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 9

Free format text: PAYMENT UNTIL: 20090225

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 10

Free format text: PAYMENT UNTIL: 20100225

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100225

Year of fee payment: 10

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 11

Free format text: PAYMENT UNTIL: 20110225

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120225

Year of fee payment: 12

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 13

Free format text: PAYMENT UNTIL: 20130225

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140225

Year of fee payment: 14

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term