JPH1166317A - Device and method for detecting eye position of face image - Google Patents
Device and method for detecting eye position of face imageInfo
- Publication number
- JPH1166317A JPH1166317A JP10106009A JP10600998A JPH1166317A JP H1166317 A JPH1166317 A JP H1166317A JP 10106009 A JP10106009 A JP 10106009A JP 10600998 A JP10600998 A JP 10600998A JP H1166317 A JPH1166317 A JP H1166317A
- Authority
- JP
- Japan
- Prior art keywords
- window
- histogram
- face image
- eye position
- peak
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 238000001514 detection method Methods 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 4
- 239000000284 extract Substances 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 7
- 210000001747 pupil Anatomy 0.000 description 5
- 241001469893 Oxyzygonectes dovii Species 0.000 description 4
- 230000001815 facial effect Effects 0.000 description 2
- 241001504424 Zosteropidae Species 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Eye Examination Apparatus (AREA)
- Studio Devices (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、人の顔の映像にお
ける目の位置を検出する装置及びその方法に関し、特
に、ヒストグラムを用いて、顔映像における目の位置を
検出する目位置検出装置及びその方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for detecting the position of an eye in an image of a human face, and more particularly to an apparatus and a method for detecting an eye position in a face image using a histogram. Regarding the method.
【0002】[0002]
【従来の技術】周知のように、顔映像は目、鼻、口、及
び顔の輪郭のような特徴によって区別できる。このよう
な特徴のうち、目は顔のなかで最も重要な特徴を有して
いる。しかし、映像上の目の位置を正確に検出すること
は非常に難しい作業である。2. Description of the Related Art As is well known, facial images can be distinguished by features such as eyes, nose, mouth, and facial contour. Of these features, the eyes have the most important features in the face. However, accurately detecting the position of the eye on the video is a very difficult task.
【0003】そのような問題を解決するために、赤外線
を用いる目位置検出システムが提案されてきた。In order to solve such a problem, an eye position detecting system using infrared rays has been proposed.
【0004】図1は、従来の目位置検出システム10の
概略的なブロック図であって、米国特許第5,293,
427号明細書に、EYE POSITION DET
ECTION SYSTEM AND METHOD
THEREFORなる名称で開示されている。この、車
の運転者等の目の位置を検出するための目位置検出シス
テム10は、赤外線ストローブ12、TVカメラ14、
A/Dコンバーター16、イメージメモリ18、目ウィ
ンドウ検出部20、虹彩検出部22、運転者状態判別部
24、及びタイミング回路26を備えている。システム
10において、赤外線ストローブ12は赤外線を運転者
の顔に照射する。TVカメラ14は赤外線により照射さ
れる顔の映像を撮像する。タイミング回路26は、赤外
線ストローブ12から放射された赤外線のタイミングと
TVカメラにより撮像された顔映像のタイミングとを一
致させる。A/Dコンバーター16はTVカメラ14に
よって得られた顔映像のアナログ信号(アナログ顔信
号)を、顔映像のデジタル信号(デジタル顔信号)に変
換する。イメージメモリ18はA/Dコンバータ16か
らデジタル顔信号を受け取り、それを格納する。目ウィ
ンドウ検出部20はイメージメモリ18内に格納されて
いる映像信号に基づいて、二つの目を含む領域を検出す
る。虹彩検出部22は、目ウィンドウ検出部20によっ
て検出された領域内の映像信号を処理して、虹彩位置を
検出する。運転者状態判別部24は虹彩検出部22によ
って検出された結果に基づいて、例えば、運転者が居眠
りしているか、または他の所を見ているかを判別する。FIG. 1 is a schematic block diagram of a conventional eye position detection system 10, which is disclosed in US Pat.
No. 427, EYE POSITION DET
ECTION SYSTEM AND METHOD
It is disclosed under the name THEREFOR. The eye position detection system 10 for detecting the position of the eyes of a driver or the like of a car includes an infrared strobe 12, a TV camera 14,
An A / D converter 16, an image memory 18, an eye window detecting unit 20, an iris detecting unit 22, a driver state determining unit 24, and a timing circuit 26 are provided. In the system 10, the infrared strobe 12 emits infrared radiation to the driver's face. The TV camera 14 captures an image of a face irradiated by infrared rays. The timing circuit 26 matches the timing of the infrared light emitted from the infrared strobe 12 with the timing of the face image captured by the TV camera. The A / D converter 16 converts an analog signal (analog face signal) of the face image obtained by the TV camera 14 into a digital signal (digital face signal) of the face image. The image memory 18 receives the digital face signal from the A / D converter 16 and stores it. The eye window detecting section 20 detects an area including two eyes based on the video signal stored in the image memory 18. The iris detection unit 22 processes an image signal in the area detected by the eye window detection unit 20 to detect an iris position. The driver state determination unit 24 determines, for example, whether the driver is dozing or looking at another place based on the result detected by the iris detection unit 22.
【0005】しかしながら、従来の目位置検出システム
10においては、赤外線を放射する赤外線ストローブ1
2が必要であるため、システムの構造が複雑となり、更
に、目の位置を検出するには映像データを2値化する必
要があるので、検出プロセスが複雑となるという不都合
があった。However, in the conventional eye position detection system 10, the infrared strobe 1 that emits infrared light is used.
2 is required, the structure of the system is complicated, and furthermore, since the video data needs to be binarized in order to detect the position of the eyes, the detection process is complicated.
【0006】[0006]
【発明が解決しようとする課題】従って、本発明の主な
目的は、ヒストグラムを用いて、顔映像における目の位
置を効果的且つ高い信頼性をもって検出する目位置検出
装置及び目位置検出方法を提供することにある。SUMMARY OF THE INVENTION Accordingly, a main object of the present invention is to provide an eye position detecting apparatus and an eye position detecting method for effectively and highly reliably detecting an eye position in a face image using a histogram. To provide.
【0007】[0007]
【課題を解決するための手段】上記の目的を達成するた
めに、本発明によれば、各々がグレーレベル値を有する
複数の画素で表現される、人の顔の像である顔映像にお
ける目の位置を検出する目位置検出装置であって、前記
顔映像を取り囲むようなウィンドウを生成するウィンド
ウ生成手段と、前記ウィンドウ顔映像からヒストグラム
を抽出するヒストグラム抽出手段と、前記ヒストグラム
からピークを検出し、前記検出したピークの個数と予め
定められた数とを比較するピーク検出手段と、前記ピー
クの個数と前記予め定められた数とが一致する場合、前
記ウィンドウ顔映像の各々に対するヒストグラムにおけ
る、ピーク値を含む最低画素値または0画素値点間の範
囲の画素数であるエリアを計算するエリア計算手段と、
前記計算されたエリアのうち最大のエリアを選択し、前
記最大のエリアを用いて目の位置を決定する最大エリア
選択手段とを含むことを特徴とする目位置検出装置が提
供される。According to the present invention, there is provided, in accordance with the present invention, an eye in a face image, which is an image of a human face, represented by a plurality of pixels each having a gray level value. An eye position detecting device for detecting a position of a face image, a window generating means for generating a window surrounding the face image, a histogram extracting means for extracting a histogram from the window face image, and detecting a peak from the histogram. A peak detection unit that compares the number of detected peaks with a predetermined number; and, when the number of peaks matches the predetermined number, a peak in a histogram for each of the window face images. Area calculation means for calculating an area that is the number of pixels in the range between the lowest pixel value or 0 pixel value point including the value,
And a maximum area selecting unit for selecting a maximum area from the calculated areas and determining an eye position using the maximum area.
【0008】[0008]
【発明の実施の形態】以下、本発明の好適実施例につい
て図面を参照しながらより詳しく説明する。Preferred embodiments of the present invention will be described below in detail with reference to the drawings.
【0009】図2は、本発明による目位置検出装置10
0の概略的なブロック図であって、この装置は、フィル
タ110、ウィンドウ生成部120、ヒストグラム取出
部130、ピーク検出部140、エリア計算部150、
スイッチ160、及び選択部170から構成される。FIG. 2 shows an eye position detecting apparatus 10 according to the present invention.
0 is a schematic block diagram of the apparatus, which includes a filter 110, a window generator 120, a histogram extractor 130, a peak detector 140, an area calculator 150,
It comprises a switch 160 and a selector 170.
【0010】本発明は主に顔映像に関するものであっ
て、この顔映像は例えば、TVカメラ(図示せず)によ
って撮像される。図3には、一例として顔映像200が
示されており、X軸の方向の520個の画素及びY軸の
方向の500個の画素よりなる。顔映像200のフィー
ルドのアングルは顔全体が顔映像200内に丁度収まる
ように調整される。顔映像200が入力顔信号としてフ
ィルター110に入力される前、顔映像200はA/D
コンバータ(図示せず)によってデジタル顔映像信号に
変換される。The present invention mainly relates to a face image, and the face image is captured by, for example, a TV camera (not shown). FIG. 3 shows a face image 200 as an example, which includes 520 pixels in the X-axis direction and 500 pixels in the Y-axis direction. The angle of the field of the face image 200 is adjusted so that the entire face just fits in the face image 200. Before the face image 200 is input to the filter 110 as an input face signal, the face image 200 is A / D
It is converted into a digital face video signal by a converter (not shown).
【0011】フィルター110は受け取ったデジタル顔
映像信号を前処理して、次のプロセッサに供給する。詳
述すると、フィルター110は入力映像信号に含まれた
ノイズ、例えば、インパルスノイズを取り除いてフィル
タリング済みの映像信号を生成する。微少量のノイズを
取り除くには十字形のメジアンフィルターを用いてもよ
い。ここで、フィルタリング処理は画素単位で行われ、
また多様な公知のローパスフィルターがノイズ除去のた
めに用いられてもよい。The filter 110 pre-processes the received digital face image signal and supplies it to the next processor. More specifically, the filter 110 removes noise included in the input video signal, for example, impulse noise, and generates a filtered video signal. To remove a very small amount of noise, a cross-shaped median filter may be used. Here, the filtering process is performed in pixel units,
Also, various known low-pass filters may be used for noise removal.
【0012】フィルター110からのフィルタリング済
みの映像はウィンドウ生成部120に供給される。この
ウィンドウ生成部120はフィルタリング済みの映像内
に複数のサーチウィンドウを順次生成する。本発明の好
適な実施例において、サーチウィンドウ220は図3に
示すような長方形である。ウィンドウ生成部120はラ
スタスキャニング方法(raster scannin
g method)を用いてフィルタリング済みの映像
の全体をスキャニングし、各サーチウィンドウの位置を
表す位置ベクトルPVをラインL10を通じてスイッチ
160に供給する。[0012] The filtered image from the filter 110 is supplied to the window generator 120. The window generator 120 sequentially generates a plurality of search windows in the filtered video. In the preferred embodiment of the present invention, search window 220 is rectangular as shown in FIG. The window generating unit 120 performs a raster scanning method.
Using g method), the entire filtered image is scanned, and a position vector PV representing the position of each search window is supplied to the switch 160 via the line L10.
【0013】ヒストグラム取出部130は、ウィンドウ
生成部120により生成された各サーチウィンドウ内に
含まれるフィルタリング済みの映像のヒストグラムを取
出す。サーチウィンドウのヒストグラムは、サーチウィ
ンドウ内においてフィルタリング済みの映像の画素の周
波数をグレーレベル値の関数としてプロットすることに
より求められる。また、このヒストグラム取出部130
は、各画素のグレーレベル値が0〜255である時、サ
ーチウィンドウ内の画素の個数をカウントして各グレー
レベル値に対する周波数を計算する。図5には、本発明
によるヒストグラムの一例が示されている。このヒスト
グラムにおいて、水平軸はグレーレベルを表し、垂直軸
はサーチウィンドウにおける各グレーレベルを有する画
素の周波数を表す。The histogram extracting unit 130 extracts a histogram of a filtered image included in each search window generated by the window generating unit 120. The histogram of the search window is determined by plotting the frequency of the filtered image pixels within the search window as a function of the gray level value. Also, the histogram extracting unit 130
Calculates the frequency for each gray level value by counting the number of pixels in the search window when the gray level value of each pixel is 0 to 255. FIG. 5 shows an example of a histogram according to the present invention. In this histogram, the horizontal axis represents gray levels, and the vertical axis represents the frequency of pixels having each gray level in the search window.
【0014】その後、ヒストグラム取出部130は取出
してヒストグラムをピーク検出部140に供給する。こ
のピーク検出部140は受け取ったヒストグラムに基づ
いて、図5に示したように、0〜255のグレーレベル
領域内で例えば、3つのピークP1、P2、P3を検出
する。これらのピークを検出する前に、ヒストグラムは
平滑化、即ち、ヒストグラムの各値を平均してヒストグ
ラム上の小さい揺れ(fluctuation)を除去
する。ヒストグラム上のピークはピーク点(例えば、P
1)を取囲むグレーレベルのクラスタとして定義され
得、またヒストグラムの局部最大値であり、そのピーク
に対応する周波数は予め定められたしきい値より大き
い。図5に示したように、予め定められたしきい値TH
はヒストグラム内の各画素の平均周波数として決定して
もよい。即ち、ピークとは、入力映像において他のグレ
ーレベルよりも頻繁に現れるグレーレベルのクラスタを
表す。Thereafter, the histogram extracting section 130 extracts the histogram and supplies the histogram to the peak detecting section 140. Based on the received histogram, the peak detection unit 140 detects, for example, three peaks P1, P2, and P3 in the gray level region of 0 to 255 as shown in FIG. Prior to detecting these peaks, the histogram is smoothed, i.e., the values of the histogram are averaged to remove small fluctuations on the histogram. The peak on the histogram is the peak point (eg, P
1) It may be defined as a gray level cluster surrounding 1) and is a local maximum of the histogram, the frequency corresponding to the peak of which is greater than a predetermined threshold. As shown in FIG. 5, a predetermined threshold value TH
May be determined as the average frequency of each pixel in the histogram. That is, a peak represents a cluster of gray levels that appears more frequently in the input video than other gray levels.
【0015】ピーク検出部140は図4に示すように、
瞳孔223及び白目221を取囲むか、またはカバーし
ているサーチウィンドウ(例えば、220)を候補ウィ
ンドウとして検出する。この候補ウィンドウは白目22
1、皮膚222、瞳孔223の間の異なるコントラスト
によって、3つの領域に分けられ得る。よって、ピーク
検出部140により検出されたピークの個数が3である
場合、ピーク検出部140は、3個のピークを有するサ
ーチウィンドウ220を候補ウィンドウとして取り決
め、該当候補ウィンドウのヒストグラム及びピーク情報
をエリア計算部150に供給し、サーチウィンドウが候
補ウィンドウ220であることを表すスイッチ信号をラ
インL20を通じてスイッチ160に供給する。ここ
で、ピーク情報はヒストグラム内のピークに対応する画
素値を有する。スイッチ160はピーク検出部140か
らのスイッチ信号に応じて、ウィンドウ生成部120と
選択部170との間の接続を行って選択部170に候補
ウィンドウに対応する位置ベクトルが供給されるように
する。[0015] As shown in FIG.
A search window (eg, 220) surrounding or covering pupil 223 and white eye 221 is detected as a candidate window. This candidate window is white eyes 22
1. Different contrasts between the skin 222 and the pupil 223 can be divided into three regions. Therefore, when the number of peaks detected by the peak detecting unit 140 is 3, the peak detecting unit 140 determines the search window 220 having three peaks as a candidate window, and stores the histogram and peak information of the candidate window in the area. A switch signal, which is supplied to the calculation unit 150 and indicates that the search window is the candidate window 220, is supplied to the switch 160 via the line L20. Here, the peak information has a pixel value corresponding to the peak in the histogram. The switch 160 performs a connection between the window generation unit 120 and the selection unit 170 according to the switch signal from the peak detection unit 140 so that the selection unit 170 is supplied with the position vector corresponding to the candidate window.
【0016】続いて、エリア計算部150は図5に示し
たように、最初、候補ウィンドウに対するヒストグラム
上の3つのピークのうち、2つのピーク(例えば、最大
の画素値を有する第1ピークP1と、最少の画素値を有
する第2ピークP2)を検出する。その後、エリア計算
部150は、第1ピークP1を有するエリアA1と第3ピ
ークP3を有するエリアA3とを計算する。エリアA1は
0〜L1の間に存在する画素の数を表し、エリアA3はL
2〜255の間に存在する画素の数を表す。L1はP1と
P2との間の最も小さい周波数を有する画素値に対応
し、L2はP2とP3の間の最も小さい周波数を有する画
素値に対応する。その後、エリア計算部150は両エリ
アA1とA3の和エリアATを計算して、ラインL50を
通じて選択部170に供給する。ここで、エリアA1は
瞳孔223内の画素の数、エリアA3は白目221内の
画素の数を各々表す。Subsequently, as shown in FIG. 5, the area calculation unit 150 first starts with two peaks (for example, the first peak P 1 having the largest pixel value) among the three peaks on the histogram for the candidate window. And the second peak P 2 ) having the minimum pixel value. Then, the area calculation unit 150 calculates an area A 1 having a first peak P 1 and the area A 3 having a third peak P 3. Area A 1 represents the number of pixels that exist between 0 to L 1, the area A 3 is L
Represents the number of pixels existing between 2 and 255. L 1 corresponds to a pixel value having the smallest frequency between P 1 and P 2, L 2 corresponds to a pixel value having the smallest frequency between P 2 and P 3. After that, the area calculation unit 150 calculates the sum area A T of the two areas A 1 and A 3 and supplies the sum area A T to the selection unit 170 via the line L50. Here, area A 1 represents the number of pixels in pupil 223, and area A 3 represents the number of pixels in white eye 221.
【0017】選択部170は、入力顔映像から得られた
全ての候補ウィンドウに対する和エリアAtのうち最大
の和エリアを選択して、この最大の和エリアを有する候
補ウィンドウに対応する位置ベクトルPVを入力顔映像
の目の位置として出力する。The selection unit 170 selects the maximum sum area of the sum area A t to all candidate window obtained from the input face image, the position vector PV corresponding to the candidate window having the sum area of the maximum Is output as the eye position of the input face image.
【0018】図6及び図7には、本発明によって目位置
決定方法を説明するためのフローチャートが示されてい
る。FIGS. 6 and 7 are flow charts for explaining the eye position determining method according to the present invention.
【0019】TVカメラから入力された顔映像は目位置
検出装置100に入力され(ステップS10)、この顔
映像はフィルター10によりフィルタリングされ(ステ
ップS20)、フィルター110からのフィルタリング
済みの顔映像はウィンドウ生成部120に入力され、こ
こでラスタスキャニング法にてフィルタリング済みの映
像全体を走査して、サーチウィンドウと該当サーチウィ
ンドウの位置ベクトルPVとを順次生成する(ステップ
S30)。ステップS40にて、ヒストグラム取出部1
30によって各サーチウィンドウ内のフィルタリング済
みの映像からヒストグラムが取出される。その後、ピー
ク検出部140によってヒストグラム上でピークが検出
される(ステップS50)。The face image input from the TV camera is input to the eye position detecting device 100 (step S10), and the face image is filtered by the filter 10 (step S20). It is input to the generation unit 120 and scans the entire filtered image by the raster scanning method, and sequentially generates a search window and a position vector PV of the search window (step S30). In step S40, histogram extracting unit 1
30 extracts a histogram from the filtered video in each search window. Thereafter, a peak is detected on the histogram by the peak detection unit 140 (Step S50).
【0020】ステップS60にて、ピーク検出部140
によってヒストグラム内のピークの個数が3個であるか
否かが判別され、判別の結果が真である場合は該当サー
チウィンドウは候補ウィンドウとして決定され、プロセ
スはステップS70に進み、そうでない場合にはステッ
プS100に進む。In step S60, peak detector 140
It is determined whether the number of peaks in the histogram is three or not. If the result of the determination is true, the corresponding search window is determined as a candidate window, and the process proceeds to step S70; Proceed to step S100.
【0021】ステップS70にて、エリア計算部150
は各候補ウィンドウに対する三つのピーク点のうち、最
大及び最小画素値に対応する二つのピーク点を検出す
る。ステップS80にて、エリア計算部150は和エリ
アAT、即ち、ステップS70で求められた2つのピー
ク点を含むピーク内における画素の総数を計算する。ス
テップS90にて、各候補ウィンドウに対する和エリア
AT及び位置ベクトルPVが選択部170に格納され、
プロセスはステップS100に進む。In step S70, area calculation section 150
Detects two peak points corresponding to the maximum and minimum pixel values among the three peak points for each candidate window. In step S80, the area calculation unit 150 calculates the sum area A T , that is, the total number of pixels in the peak including the two peak points obtained in step S70. In step S90, the sum area A T and the position vector PV for each candidate window are stored in the selection unit 170,
The process proceeds to step S100.
【0022】ステップS100にて、プロセスは全ての
顔映像に対するサーチウィンドウが全て処理されたか否
かが判別され、全てのサーチウィンドウが処理されない
場合、プロセスはステップS40に戻る。全て処理され
た場合には、選択部170は全ての顔映像に対する候補
ウィンドウの和エリアATのうち最大の和エリアを選択
する(ステップS120)。続いて、ステップS130
にて、選択部170は最大の和エリアATを有する候補
ウィンドウに対応する位置ベクトルを出力し、プロセス
は終了する。In step S100, the process determines whether all search windows for all face images have been processed. If all search windows have not been processed, the process returns to step S40. If all the processes have been performed, the selection unit 170 selects the largest sum area among the sum areas A T of the candidate windows for all face images (step S120). Subsequently, step S130
At, the selection unit 170 outputs a position vector corresponding to the candidate window having the largest sum area A T , and the process ends.
【0023】上記において、本発明の好適な実施の形態
について説明したが、本発明の請求範囲を逸脱すること
なく、当業者は種々の改変をなし得るであろう。While the preferred embodiment of the present invention has been described above, those skilled in the art will be able to make various modifications without departing from the scope of the present invention.
【0024】[0024]
【発明の効果】従って、本発明によれば、顔映像の目の
位置を検出するために赤外線を放射する赤外線ストロー
ブを備える必要がなくなり、システムの構造が単純化さ
れ、且つ取出された顔映像のヒストグラムを用いて目の
位置を高い信頼性をもって検出することが可能となる。Therefore, according to the present invention, there is no need to provide an infrared strobe for radiating infrared rays in order to detect the eye position of a face image, the structure of the system is simplified, and the extracted face image is eliminated. The eye position can be detected with high reliability using the histogram.
【図1】従来の目位置検出装置の概略的なブロック図で
ある。FIG. 1 is a schematic block diagram of a conventional eye position detecting device.
【図2】本発明による目位置検出装置の概略的なブロッ
ク図である。FIG. 2 is a schematic block diagram of an eye position detecting device according to the present invention.
【図3】本発明のサーチウィンドウを含む顔映像の概略
図である。FIG. 3 is a schematic diagram of a face image including a search window according to the present invention.
【図4】図3に示す瞳孔及び白目を含むサーチウィンド
ウを示す概略図である。FIG. 4 is a schematic diagram showing a search window including a pupil and a white eye shown in FIG. 3;
【図5】図4中のサーチウィンドウのヒストグラムを示
す模式図である。FIG. 5 is a schematic diagram showing a histogram of a search window in FIG. 4;
【図6】本発明による目位置検出方法を説明するための
フローチャートである。FIG. 6 is a flowchart illustrating an eye position detection method according to the present invention.
【図7】本発明による目位置検出方法を説明するための
フローチャートである。FIG. 7 is a flowchart illustrating an eye position detection method according to the present invention.
【符号の説明】 10、100 目位置検出装置 12 赤外線ストローブ 14 TVカメラ 16 A/Dコンバーター 18 イメージメモリ 20 目ウィンドウ検出部 22 虹彩検出部 24 運転者状態判別部 26 タイミング回路 110 フィルター 120 ウィンドウ生成部 130 ヒストグラム取出部 140 ピーク検出部 150 エリア計算部 160 スイッチ 170 選択部 200 顔映像 220 サーチウィンドウ 221 白目 222 皮膚 223 瞳孔DESCRIPTION OF SYMBOLS 10, 100 Eye position detecting device 12 Infrared strobe 14 TV camera 16 A / D converter 18 Image memory 20 Eye window detecting unit 22 Iris detecting unit 24 Driver state determining unit 26 Timing circuit 110 Filter 120 Window generating unit 130 Histogram extraction unit 140 Peak detection unit 150 Area calculation unit 160 Switch 170 Selection unit 200 Face image 220 Search window 221 White eye 222 Skin 223 Pupil
Claims (10)
画素で表現される、人の顔の像である顔映像における目
の位置を検出する目位置検出装置であって、 前記顔映像を取り囲むようなウィンドウを生成するウィ
ンドウ生成手段と、 前記ウィンドウ顔映像からヒストグラムを抽出するヒス
トグラム抽出手段と、 前記ヒストグラムからピークを検出し、前記検出したピ
ークの個数と予め定められた数とを比較するピーク検出
手段と、 前記ピークの個数と前記予め定められた数とが一致する
場合、前記ウィンドウ顔映像の各々に対するヒストグラ
ムにおける、ピーク値を含む最低画素値または0画素値
点間の範囲の画素数であるエリアを計算するエリア計算
手段と、 前記計算されたエリアのうち最大のエリアを選択し、前
記最大のエリアを用いて目の位置を決定する最大エリア
選択手段とを含むことを特徴とする目位置検出装置。1. An eye position detection device for detecting an eye position in a face image, which is an image of a human face, each of which is represented by a plurality of pixels having a gray level value, wherein the eye position detection device surrounds the face image. Window generating means for generating a simple window; histogram extracting means for extracting a histogram from the window face image; peak detection for detecting a peak from the histogram and comparing the detected number of peaks with a predetermined number. Means, when the number of peaks matches the predetermined number, the histogram is a minimum pixel value including a peak value or a pixel number in a range between 0 pixel value points in a histogram for each of the window face images. Area calculating means for calculating an area, selecting the largest area among the calculated areas, and using the largest area Eye position detecting device which comprises a maximum area selection means for determining the position.
顔映像における雑音を除去することによって、フィルタ
リング済みの顔映像を得るフィルタリング手段を更に含
むことを特徴とする請求項1に記載の目位置検出装置。2. The eye position detecting apparatus according to claim 1, further comprising a filtering unit configured to filter the face image to remove noise in the face image to obtain a filtered face image. .
フィルタであることを特徴とする請求項2に記載の目位
置検出装置。3. The eye position detecting device according to claim 2, wherein said filtering means is a median filter.
を特徴とする請求項1に記載の目位置検出装置。4. The eye position detecting device according to claim 1, wherein the predetermined number is three.
たウィンドウが長方形であることを特徴とする請求項1
に記載の目位置検出装置。5. A window according to claim 1, wherein said window generated by said window generating means is a rectangle.
An eye position detecting device according to item 1.
キャニング方法を用いて前記顔映像全体をスキャニング
することを特徴とする請求項5に記載の目位置検出装
置。6. The eye position detecting apparatus according to claim 5, wherein the window generating means scans the entire face image using a raster scanning method.
顔映像における画素の周波数をグレーレベル値の関数と
してプロットすることにより得られ、前記ヒストグラム
の水平軸はグレーレベルを表し、垂直軸は前記ウィンド
ウ顔映像における各グレーレベルに対応する周波数を表
すことを特徴とする請求項1に記載の目位置検出装置。7. The histogram is obtained by plotting the frequency of pixels in the window face image as a function of gray level value, wherein the horizontal axis of the histogram represents gray level and the vertical axis is the 2. The eye position detecting device according to claim 1, wherein a frequency corresponding to each gray level is represented.
たしきい値より大きいヒストグラムの局部最大値をピー
クとして見なすことを特徴とする請求項1に記載の目位
置検出装置。8. The eye position detecting device according to claim 1, wherein said peak detecting means regards a local maximum value of a histogram larger than a predetermined threshold value as a peak.
数の画素を有する顔映像における目の位置を、ヒストグ
ラムを用いて検出する目位置検出方法装置であって、 前記顔映像をフィルタリングして、フィルタリング済み
の顔映像を得る第1過程と、 前記フィルタリング済みの顔映像内のウィンドウを生成
する第2過程と、 前記ウィンドウからヒストグラムを抽出する第3過程
と、 前記ヒストグラムのピークを検出する第4過程と、 前記ピークの個数が3であるかを判別して、個数が3個
であると前記ウィンドウを候補ウィンドウとして決定す
る第5過程と、 前記候補ウィンドウの3つのピークのうち、最小のピー
ク値と最大のピーク値を有する2つのピークを決定する
第6過程と、 前記候補ウィンドウにおいて、前記最小のピーク値を有
するピークを取囲む領域における画素の個数を表すエリ
アAMAXと、前記最大のピーク値を有するピークを取囲
む領域における画素の個数を表すエリアAMINとの和を
とり、和エリアATを計算する第7過程と、 前記候補ウィンドウに対する前記和エリアATとそれに
対応する位置ベクトルとを格納する第8過程と、 前記格納された和エリアATのうち、最も大きいATを選
択して、それに対応する位置ベクトルを前記目の位置と
して出力する第9過程とを含むことを特徴とする目位置
検出方法。9. An eye position detection method apparatus for detecting, using a histogram, an eye position in a face image having a plurality of pixels each represented by a gray level value, the method comprising: filtering the face image; A first step of obtaining a filtered face image; a second step of generating a window in the filtered face image; a third step of extracting a histogram from the window; and a fourth step of detecting a peak of the histogram. A step of determining whether the number of the peaks is three, and determining the window as a candidate window if the number is three, a minimum peak among the three peaks of the candidate window A sixth step of determining two peaks having a maximum value and a maximum peak value; and providing the minimum peak value in the candidate window. That takes the area A MAX indicating the number of pixels in the region surrounding the peak, the sum of the areas A MIN representing the number of pixels in the region surrounding the peak with a peak value of said maximum, calculating the sum area A T A seventh step of storing the sum area A T and the corresponding position vector for the candidate window; and selecting the largest A T among the stored sum areas A T , Outputting a corresponding position vector as the position of the eye.
記和エリアATのうち、2つの最大の和エリアATを選択
して、それに対応する位置ベクトルを両側の目の位置と
して出力することを特徴とする請求項9に記載の目位置
検出方法。10. A case of detecting the positions of the two eyes, one of the sum area A T, by selecting two largest sum area A T, and outputs the position vector corresponding thereto as the position of both sides of the eye The eye position detecting method according to claim 9, wherein:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1019970039611A KR19990016896A (en) | 1997-08-20 | 1997-08-20 | Eye region detection method in face image |
KR1997-39611 | 1997-08-20 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH1166317A true JPH1166317A (en) | 1999-03-09 |
JP4004634B2 JP4004634B2 (en) | 2007-11-07 |
Family
ID=19517901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP10600998A Expired - Fee Related JP4004634B2 (en) | 1997-08-20 | 1998-04-16 | Face image eye position detection apparatus and method |
Country Status (4)
Country | Link |
---|---|
US (1) | US6072892A (en) |
JP (1) | JP4004634B2 (en) |
KR (2) | KR19990016896A (en) |
GB (1) | GB2328504B (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200289A (en) * | 2005-12-28 | 2007-08-09 | Kao Corp | Method for detection of location of eye |
JP2009015599A (en) * | 2007-07-04 | 2009-01-22 | Kao Corp | Method and system for detecting eye position |
US8131013B2 (en) | 2005-12-28 | 2012-03-06 | Kao Corporation | Method and detecting system for positions of facial parts |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6496594B1 (en) * | 1998-10-22 | 2002-12-17 | Francine J. Prokoski | Method and apparatus for aligning and comparing images of the face and body from different imagers |
JP3969894B2 (en) * | 1999-05-24 | 2007-09-05 | 三菱電機株式会社 | Face image processing device |
EP1211640A3 (en) * | 2000-09-15 | 2003-10-15 | Canon Kabushiki Kaisha | Image processing methods and apparatus for detecting human eyes, human face and other objects in an image |
US6920237B2 (en) * | 2000-12-19 | 2005-07-19 | Eastman Kodak Company | Digital image processing method and computer program product for detecting human irises in an image |
US6792134B2 (en) | 2000-12-19 | 2004-09-14 | Eastman Kodak Company | Multi-mode digital image processing method for detecting eyes |
US7092554B2 (en) * | 2001-05-01 | 2006-08-15 | Eastman Kodak Company | Method for detecting eye and mouth positions in a digital image |
US6895103B2 (en) * | 2001-06-19 | 2005-05-17 | Eastman Kodak Company | Method for automatically locating eyes in an image |
US7058209B2 (en) * | 2001-09-20 | 2006-06-06 | Eastman Kodak Company | Method and computer program product for locating facial features |
US20040052418A1 (en) * | 2002-04-05 | 2004-03-18 | Bruno Delean | Method and apparatus for probabilistic image analysis |
US7369685B2 (en) * | 2002-04-05 | 2008-05-06 | Identix Corporation | Vision-based operating method and system |
CN100465985C (en) * | 2002-12-31 | 2009-03-04 | 佳能株式会社 | Human ege detecting method, apparatus, system and storage medium |
JP4407243B2 (en) * | 2003-11-10 | 2010-02-03 | ソニー株式会社 | Collation processing apparatus and method |
US20060018522A1 (en) * | 2004-06-14 | 2006-01-26 | Fujifilm Software(California), Inc. | System and method applying image-based face recognition for online profile browsing |
US7248720B2 (en) * | 2004-10-21 | 2007-07-24 | Retica Systems, Inc. | Method and system for generating a combined retina/iris pattern biometric |
KR100590572B1 (en) * | 2004-12-15 | 2006-06-19 | 삼성전자주식회사 | Method and apparatus for detecting a position of eye |
WO2006087791A1 (en) * | 2005-02-17 | 2006-08-24 | Fujitsu Limited | Image processing method, image processing system, image processor, and computer program |
GB2448050A (en) * | 2007-03-22 | 2008-10-01 | Artnix Inc | A method and apparatus for extracting face images from video data and performing recognition matching for identification of people. |
US8055072B2 (en) * | 2007-11-27 | 2011-11-08 | Himax Technologies Limited | Image display panel and driving method thereof |
KR101032660B1 (en) * | 2009-11-30 | 2011-05-06 | 재단법인대구경북과학기술원 | Method for extracting obstacle |
EP2498583B1 (en) | 2011-03-07 | 2017-05-03 | Zedel | LED lamp provided with a safety device |
US8781187B2 (en) * | 2011-07-13 | 2014-07-15 | Mckesson Financial Holdings | Methods, apparatuses, and computer program products for identifying a region of interest within a mammogram image |
TWI471808B (en) * | 2012-07-20 | 2015-02-01 | Pixart Imaging Inc | Pupil detection device |
US9323053B2 (en) * | 2013-09-30 | 2016-04-26 | Nghia Trong Lam | Active shielding against intense illumination (ASAII) system for direct viewing |
US9626476B2 (en) | 2014-03-27 | 2017-04-18 | Change Healthcare Llc | Apparatus, method and computer-readable storage medium for transforming digital images |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2541688B2 (en) * | 1990-05-21 | 1996-10-09 | 日産自動車株式会社 | Eye position detection device |
US5261007A (en) * | 1990-11-09 | 1993-11-09 | Visidyne, Inc. | Frequency division, energy comparison signal processing system |
JPH07504056A (en) * | 1992-02-18 | 1995-04-27 | ネオパス,インク. | Methods for identifying objects using data processing techniques |
US5481622A (en) * | 1994-03-01 | 1996-01-02 | Rensselaer Polytechnic Institute | Eye tracking apparatus and method employing grayscale threshold values |
JP3452685B2 (en) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | Face image processing device |
-
1997
- 1997-08-20 KR KR1019970039611A patent/KR19990016896A/en active Search and Examination
-
1998
- 1998-04-03 US US09/054,687 patent/US6072892A/en not_active Expired - Lifetime
- 1998-04-08 GB GB9807620A patent/GB2328504B/en not_active Expired - Fee Related
- 1998-04-16 JP JP10600998A patent/JP4004634B2/en not_active Expired - Fee Related
- 1998-08-13 KR KR1019980032866A patent/KR19990023570A/en not_active Application Discontinuation
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007200289A (en) * | 2005-12-28 | 2007-08-09 | Kao Corp | Method for detection of location of eye |
US8131013B2 (en) | 2005-12-28 | 2012-03-06 | Kao Corporation | Method and detecting system for positions of facial parts |
JP2009015599A (en) * | 2007-07-04 | 2009-01-22 | Kao Corp | Method and system for detecting eye position |
Also Published As
Publication number | Publication date |
---|---|
US6072892A (en) | 2000-06-06 |
KR19990023570A (en) | 1999-03-25 |
JP4004634B2 (en) | 2007-11-07 |
KR19990016896A (en) | 1999-03-15 |
GB2328504A (en) | 1999-02-24 |
GB9807620D0 (en) | 1998-06-10 |
GB2328504B (en) | 2001-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4004634B2 (en) | Face image eye position detection apparatus and method | |
JP3761059B2 (en) | Method and apparatus for detecting human face and observer tracking display | |
JP3143819B2 (en) | Eyelid opening detector | |
US8154591B2 (en) | Eyelid opening level determination device and computer readable medium storing computer program thereof | |
JP2003526841A (en) | Face extraction system and method based on biometrics | |
JPH11288459A (en) | Method and device for detecting area such as face and observer tracking display | |
JP2006259900A (en) | Image processing system, image processor and processing method, recording medium, and program | |
JPH11250267A (en) | Method and device for detecting position of eye and record medium recording program for detecting position of eye | |
JP3063504B2 (en) | Image data feature detection device | |
WO2018233637A1 (en) | Video processing method and apparatus, electronic device, and storage medium | |
JP2003150942A (en) | Eye position tracing method | |
JP2000331159A (en) | Facial image processor | |
JP3774495B2 (en) | Image information extracting apparatus and method | |
KR20170088315A (en) | Integrated Control method for Vehicle Drive using Depth Information based Face Recognition | |
JP3980464B2 (en) | Method for extracting nose position, program for causing computer to execute method for extracting nose position, and nose position extracting apparatus | |
JP5128454B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
JP4151624B2 (en) | Pupil detection device, iris authentication device, and pupil detection method | |
JP3963789B2 (en) | Eye detection device, eye detection program, recording medium for recording the program, and eye detection method | |
JP4636314B2 (en) | Image processing apparatus and method, recording medium, and program | |
JPH11185026A (en) | Face area extraction device | |
JP2001331795A (en) | Device and method for normalizing image | |
JP4687955B2 (en) | Image processing apparatus and method, recording medium, and program | |
JP2004213589A (en) | Specific part posture estimating device | |
WO2005093656A1 (en) | System for estimating attitude at specific part, methode for estimating attitude at specific part, and program for estimating attitude at specific part | |
JPH07220095A (en) | Extracting device for image of object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050217 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070410 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070709 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070822 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110831 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110831 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120831 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130831 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |