JPH1166317A - Device and method for detecting eye position of face image - Google Patents

Device and method for detecting eye position of face image

Info

Publication number
JPH1166317A
JPH1166317A JP10106009A JP10600998A JPH1166317A JP H1166317 A JPH1166317 A JP H1166317A JP 10106009 A JP10106009 A JP 10106009A JP 10600998 A JP10600998 A JP 10600998A JP H1166317 A JPH1166317 A JP H1166317A
Authority
JP
Japan
Prior art keywords
window
histogram
face image
eye position
peak
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10106009A
Other languages
Japanese (ja)
Other versions
JP4004634B2 (en
Inventor
Seong-Beom Kim
成範 金
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
WiniaDaewoo Co Ltd
Original Assignee
Daewoo Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daewoo Electronics Co Ltd filed Critical Daewoo Electronics Co Ltd
Publication of JPH1166317A publication Critical patent/JPH1166317A/en
Application granted granted Critical
Publication of JP4004634B2 publication Critical patent/JP4004634B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/19Sensors therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Eye Examination Apparatus (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an eye position detector and a method which use histogram and effectively detect the positions of eyes in a face image also with high reliability. SOLUTION: This device includes a window creating part 120 which generates such a window as to encircle a face image, a histogram extracting part 130 which extracts a histogram from the face image, a peak detecting part 140 which detects peaks from the histogram and compares the number of detected peaks with a prescribed number, an area calculating part 150 which calculates the area of a histogram to each face image when both numbers are coincident and a selecting part 170 which selects the largest area among each area and decides the positions of eyes by using the largest area.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人の顔の映像にお
ける目の位置を検出する装置及びその方法に関し、特
に、ヒストグラムを用いて、顔映像における目の位置を
検出する目位置検出装置及びその方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an apparatus and a method for detecting the position of an eye in an image of a human face, and more particularly to an apparatus and a method for detecting an eye position in a face image using a histogram. Regarding the method.

【0002】[0002]

【従来の技術】周知のように、顔映像は目、鼻、口、及
び顔の輪郭のような特徴によって区別できる。このよう
な特徴のうち、目は顔のなかで最も重要な特徴を有して
いる。しかし、映像上の目の位置を正確に検出すること
は非常に難しい作業である。
2. Description of the Related Art As is well known, facial images can be distinguished by features such as eyes, nose, mouth, and facial contour. Of these features, the eyes have the most important features in the face. However, accurately detecting the position of the eye on the video is a very difficult task.

【0003】そのような問題を解決するために、赤外線
を用いる目位置検出システムが提案されてきた。
In order to solve such a problem, an eye position detecting system using infrared rays has been proposed.

【0004】図1は、従来の目位置検出システム10の
概略的なブロック図であって、米国特許第5,293,
427号明細書に、EYE POSITION DET
ECTION SYSTEM AND METHOD
THEREFORなる名称で開示されている。この、車
の運転者等の目の位置を検出するための目位置検出シス
テム10は、赤外線ストローブ12、TVカメラ14、
A/Dコンバーター16、イメージメモリ18、目ウィ
ンドウ検出部20、虹彩検出部22、運転者状態判別部
24、及びタイミング回路26を備えている。システム
10において、赤外線ストローブ12は赤外線を運転者
の顔に照射する。TVカメラ14は赤外線により照射さ
れる顔の映像を撮像する。タイミング回路26は、赤外
線ストローブ12から放射された赤外線のタイミングと
TVカメラにより撮像された顔映像のタイミングとを一
致させる。A/Dコンバーター16はTVカメラ14に
よって得られた顔映像のアナログ信号(アナログ顔信
号)を、顔映像のデジタル信号(デジタル顔信号)に変
換する。イメージメモリ18はA/Dコンバータ16か
らデジタル顔信号を受け取り、それを格納する。目ウィ
ンドウ検出部20はイメージメモリ18内に格納されて
いる映像信号に基づいて、二つの目を含む領域を検出す
る。虹彩検出部22は、目ウィンドウ検出部20によっ
て検出された領域内の映像信号を処理して、虹彩位置を
検出する。運転者状態判別部24は虹彩検出部22によ
って検出された結果に基づいて、例えば、運転者が居眠
りしているか、または他の所を見ているかを判別する。
FIG. 1 is a schematic block diagram of a conventional eye position detection system 10, which is disclosed in US Pat.
No. 427, EYE POSITION DET
ECTION SYSTEM AND METHOD
It is disclosed under the name THEREFOR. The eye position detection system 10 for detecting the position of the eyes of a driver or the like of a car includes an infrared strobe 12, a TV camera 14,
An A / D converter 16, an image memory 18, an eye window detecting unit 20, an iris detecting unit 22, a driver state determining unit 24, and a timing circuit 26 are provided. In the system 10, the infrared strobe 12 emits infrared radiation to the driver's face. The TV camera 14 captures an image of a face irradiated by infrared rays. The timing circuit 26 matches the timing of the infrared light emitted from the infrared strobe 12 with the timing of the face image captured by the TV camera. The A / D converter 16 converts an analog signal (analog face signal) of the face image obtained by the TV camera 14 into a digital signal (digital face signal) of the face image. The image memory 18 receives the digital face signal from the A / D converter 16 and stores it. The eye window detecting section 20 detects an area including two eyes based on the video signal stored in the image memory 18. The iris detection unit 22 processes an image signal in the area detected by the eye window detection unit 20 to detect an iris position. The driver state determination unit 24 determines, for example, whether the driver is dozing or looking at another place based on the result detected by the iris detection unit 22.

【0005】しかしながら、従来の目位置検出システム
10においては、赤外線を放射する赤外線ストローブ1
2が必要であるため、システムの構造が複雑となり、更
に、目の位置を検出するには映像データを2値化する必
要があるので、検出プロセスが複雑となるという不都合
があった。
However, in the conventional eye position detection system 10, the infrared strobe 1 that emits infrared light is used.
2 is required, the structure of the system is complicated, and furthermore, since the video data needs to be binarized in order to detect the position of the eyes, the detection process is complicated.

【0006】[0006]

【発明が解決しようとする課題】従って、本発明の主な
目的は、ヒストグラムを用いて、顔映像における目の位
置を効果的且つ高い信頼性をもって検出する目位置検出
装置及び目位置検出方法を提供することにある。
SUMMARY OF THE INVENTION Accordingly, a main object of the present invention is to provide an eye position detecting apparatus and an eye position detecting method for effectively and highly reliably detecting an eye position in a face image using a histogram. To provide.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに、本発明によれば、各々がグレーレベル値を有する
複数の画素で表現される、人の顔の像である顔映像にお
ける目の位置を検出する目位置検出装置であって、前記
顔映像を取り囲むようなウィンドウを生成するウィンド
ウ生成手段と、前記ウィンドウ顔映像からヒストグラム
を抽出するヒストグラム抽出手段と、前記ヒストグラム
からピークを検出し、前記検出したピークの個数と予め
定められた数とを比較するピーク検出手段と、前記ピー
クの個数と前記予め定められた数とが一致する場合、前
記ウィンドウ顔映像の各々に対するヒストグラムにおけ
る、ピーク値を含む最低画素値または0画素値点間の範
囲の画素数であるエリアを計算するエリア計算手段と、
前記計算されたエリアのうち最大のエリアを選択し、前
記最大のエリアを用いて目の位置を決定する最大エリア
選択手段とを含むことを特徴とする目位置検出装置が提
供される。
According to the present invention, there is provided, in accordance with the present invention, an eye in a face image, which is an image of a human face, represented by a plurality of pixels each having a gray level value. An eye position detecting device for detecting a position of a face image, a window generating means for generating a window surrounding the face image, a histogram extracting means for extracting a histogram from the window face image, and detecting a peak from the histogram. A peak detection unit that compares the number of detected peaks with a predetermined number; and, when the number of peaks matches the predetermined number, a peak in a histogram for each of the window face images. Area calculation means for calculating an area that is the number of pixels in the range between the lowest pixel value or 0 pixel value point including the value,
And a maximum area selecting unit for selecting a maximum area from the calculated areas and determining an eye position using the maximum area.

【0008】[0008]

【発明の実施の形態】以下、本発明の好適実施例につい
て図面を参照しながらより詳しく説明する。
Preferred embodiments of the present invention will be described below in detail with reference to the drawings.

【0009】図2は、本発明による目位置検出装置10
0の概略的なブロック図であって、この装置は、フィル
タ110、ウィンドウ生成部120、ヒストグラム取出
部130、ピーク検出部140、エリア計算部150、
スイッチ160、及び選択部170から構成される。
FIG. 2 shows an eye position detecting apparatus 10 according to the present invention.
0 is a schematic block diagram of the apparatus, which includes a filter 110, a window generator 120, a histogram extractor 130, a peak detector 140, an area calculator 150,
It comprises a switch 160 and a selector 170.

【0010】本発明は主に顔映像に関するものであっ
て、この顔映像は例えば、TVカメラ(図示せず)によ
って撮像される。図3には、一例として顔映像200が
示されており、X軸の方向の520個の画素及びY軸の
方向の500個の画素よりなる。顔映像200のフィー
ルドのアングルは顔全体が顔映像200内に丁度収まる
ように調整される。顔映像200が入力顔信号としてフ
ィルター110に入力される前、顔映像200はA/D
コンバータ(図示せず)によってデジタル顔映像信号に
変換される。
The present invention mainly relates to a face image, and the face image is captured by, for example, a TV camera (not shown). FIG. 3 shows a face image 200 as an example, which includes 520 pixels in the X-axis direction and 500 pixels in the Y-axis direction. The angle of the field of the face image 200 is adjusted so that the entire face just fits in the face image 200. Before the face image 200 is input to the filter 110 as an input face signal, the face image 200 is A / D
It is converted into a digital face video signal by a converter (not shown).

【0011】フィルター110は受け取ったデジタル顔
映像信号を前処理して、次のプロセッサに供給する。詳
述すると、フィルター110は入力映像信号に含まれた
ノイズ、例えば、インパルスノイズを取り除いてフィル
タリング済みの映像信号を生成する。微少量のノイズを
取り除くには十字形のメジアンフィルターを用いてもよ
い。ここで、フィルタリング処理は画素単位で行われ、
また多様な公知のローパスフィルターがノイズ除去のた
めに用いられてもよい。
The filter 110 pre-processes the received digital face image signal and supplies it to the next processor. More specifically, the filter 110 removes noise included in the input video signal, for example, impulse noise, and generates a filtered video signal. To remove a very small amount of noise, a cross-shaped median filter may be used. Here, the filtering process is performed in pixel units,
Also, various known low-pass filters may be used for noise removal.

【0012】フィルター110からのフィルタリング済
みの映像はウィンドウ生成部120に供給される。この
ウィンドウ生成部120はフィルタリング済みの映像内
に複数のサーチウィンドウを順次生成する。本発明の好
適な実施例において、サーチウィンドウ220は図3に
示すような長方形である。ウィンドウ生成部120はラ
スタスキャニング方法(raster scannin
g method)を用いてフィルタリング済みの映像
の全体をスキャニングし、各サーチウィンドウの位置を
表す位置ベクトルPVをラインL10を通じてスイッチ
160に供給する。
[0012] The filtered image from the filter 110 is supplied to the window generator 120. The window generator 120 sequentially generates a plurality of search windows in the filtered video. In the preferred embodiment of the present invention, search window 220 is rectangular as shown in FIG. The window generating unit 120 performs a raster scanning method.
Using g method), the entire filtered image is scanned, and a position vector PV representing the position of each search window is supplied to the switch 160 via the line L10.

【0013】ヒストグラム取出部130は、ウィンドウ
生成部120により生成された各サーチウィンドウ内に
含まれるフィルタリング済みの映像のヒストグラムを取
出す。サーチウィンドウのヒストグラムは、サーチウィ
ンドウ内においてフィルタリング済みの映像の画素の周
波数をグレーレベル値の関数としてプロットすることに
より求められる。また、このヒストグラム取出部130
は、各画素のグレーレベル値が0〜255である時、サ
ーチウィンドウ内の画素の個数をカウントして各グレー
レベル値に対する周波数を計算する。図5には、本発明
によるヒストグラムの一例が示されている。このヒスト
グラムにおいて、水平軸はグレーレベルを表し、垂直軸
はサーチウィンドウにおける各グレーレベルを有する画
素の周波数を表す。
The histogram extracting unit 130 extracts a histogram of a filtered image included in each search window generated by the window generating unit 120. The histogram of the search window is determined by plotting the frequency of the filtered image pixels within the search window as a function of the gray level value. Also, the histogram extracting unit 130
Calculates the frequency for each gray level value by counting the number of pixels in the search window when the gray level value of each pixel is 0 to 255. FIG. 5 shows an example of a histogram according to the present invention. In this histogram, the horizontal axis represents gray levels, and the vertical axis represents the frequency of pixels having each gray level in the search window.

【0014】その後、ヒストグラム取出部130は取出
してヒストグラムをピーク検出部140に供給する。こ
のピーク検出部140は受け取ったヒストグラムに基づ
いて、図5に示したように、0〜255のグレーレベル
領域内で例えば、3つのピークP1、P2、P3を検出
する。これらのピークを検出する前に、ヒストグラムは
平滑化、即ち、ヒストグラムの各値を平均してヒストグ
ラム上の小さい揺れ(fluctuation)を除去
する。ヒストグラム上のピークはピーク点(例えば、P
1)を取囲むグレーレベルのクラスタとして定義され
得、またヒストグラムの局部最大値であり、そのピーク
に対応する周波数は予め定められたしきい値より大き
い。図5に示したように、予め定められたしきい値TH
はヒストグラム内の各画素の平均周波数として決定して
もよい。即ち、ピークとは、入力映像において他のグレ
ーレベルよりも頻繁に現れるグレーレベルのクラスタを
表す。
Thereafter, the histogram extracting section 130 extracts the histogram and supplies the histogram to the peak detecting section 140. Based on the received histogram, the peak detection unit 140 detects, for example, three peaks P1, P2, and P3 in the gray level region of 0 to 255 as shown in FIG. Prior to detecting these peaks, the histogram is smoothed, i.e., the values of the histogram are averaged to remove small fluctuations on the histogram. The peak on the histogram is the peak point (eg, P
1) It may be defined as a gray level cluster surrounding 1) and is a local maximum of the histogram, the frequency corresponding to the peak of which is greater than a predetermined threshold. As shown in FIG. 5, a predetermined threshold value TH
May be determined as the average frequency of each pixel in the histogram. That is, a peak represents a cluster of gray levels that appears more frequently in the input video than other gray levels.

【0015】ピーク検出部140は図4に示すように、
瞳孔223及び白目221を取囲むか、またはカバーし
ているサーチウィンドウ(例えば、220)を候補ウィ
ンドウとして検出する。この候補ウィンドウは白目22
1、皮膚222、瞳孔223の間の異なるコントラスト
によって、3つの領域に分けられ得る。よって、ピーク
検出部140により検出されたピークの個数が3である
場合、ピーク検出部140は、3個のピークを有するサ
ーチウィンドウ220を候補ウィンドウとして取り決
め、該当候補ウィンドウのヒストグラム及びピーク情報
をエリア計算部150に供給し、サーチウィンドウが候
補ウィンドウ220であることを表すスイッチ信号をラ
インL20を通じてスイッチ160に供給する。ここ
で、ピーク情報はヒストグラム内のピークに対応する画
素値を有する。スイッチ160はピーク検出部140か
らのスイッチ信号に応じて、ウィンドウ生成部120と
選択部170との間の接続を行って選択部170に候補
ウィンドウに対応する位置ベクトルが供給されるように
する。
[0015] As shown in FIG.
A search window (eg, 220) surrounding or covering pupil 223 and white eye 221 is detected as a candidate window. This candidate window is white eyes 22
1. Different contrasts between the skin 222 and the pupil 223 can be divided into three regions. Therefore, when the number of peaks detected by the peak detecting unit 140 is 3, the peak detecting unit 140 determines the search window 220 having three peaks as a candidate window, and stores the histogram and peak information of the candidate window in the area. A switch signal, which is supplied to the calculation unit 150 and indicates that the search window is the candidate window 220, is supplied to the switch 160 via the line L20. Here, the peak information has a pixel value corresponding to the peak in the histogram. The switch 160 performs a connection between the window generation unit 120 and the selection unit 170 according to the switch signal from the peak detection unit 140 so that the selection unit 170 is supplied with the position vector corresponding to the candidate window.

【0016】続いて、エリア計算部150は図5に示し
たように、最初、候補ウィンドウに対するヒストグラム
上の3つのピークのうち、2つのピーク(例えば、最大
の画素値を有する第1ピークP1と、最少の画素値を有
する第2ピークP2)を検出する。その後、エリア計算
部150は、第1ピークP1を有するエリアA1と第3ピ
ークP3を有するエリアA3とを計算する。エリアA1
0〜L1の間に存在する画素の数を表し、エリアA3はL
2〜255の間に存在する画素の数を表す。L1はP1
2との間の最も小さい周波数を有する画素値に対応
し、L2はP2とP3の間の最も小さい周波数を有する画
素値に対応する。その後、エリア計算部150は両エリ
アA1とA3の和エリアATを計算して、ラインL50を
通じて選択部170に供給する。ここで、エリアA1
瞳孔223内の画素の数、エリアA3は白目221内の
画素の数を各々表す。
Subsequently, as shown in FIG. 5, the area calculation unit 150 first starts with two peaks (for example, the first peak P 1 having the largest pixel value) among the three peaks on the histogram for the candidate window. And the second peak P 2 ) having the minimum pixel value. Then, the area calculation unit 150 calculates an area A 1 having a first peak P 1 and the area A 3 having a third peak P 3. Area A 1 represents the number of pixels that exist between 0 to L 1, the area A 3 is L
Represents the number of pixels existing between 2 and 255. L 1 corresponds to a pixel value having the smallest frequency between P 1 and P 2, L 2 corresponds to a pixel value having the smallest frequency between P 2 and P 3. After that, the area calculation unit 150 calculates the sum area A T of the two areas A 1 and A 3 and supplies the sum area A T to the selection unit 170 via the line L50. Here, area A 1 represents the number of pixels in pupil 223, and area A 3 represents the number of pixels in white eye 221.

【0017】選択部170は、入力顔映像から得られた
全ての候補ウィンドウに対する和エリアAtのうち最大
の和エリアを選択して、この最大の和エリアを有する候
補ウィンドウに対応する位置ベクトルPVを入力顔映像
の目の位置として出力する。
The selection unit 170 selects the maximum sum area of the sum area A t to all candidate window obtained from the input face image, the position vector PV corresponding to the candidate window having the sum area of the maximum Is output as the eye position of the input face image.

【0018】図6及び図7には、本発明によって目位置
決定方法を説明するためのフローチャートが示されてい
る。
FIGS. 6 and 7 are flow charts for explaining the eye position determining method according to the present invention.

【0019】TVカメラから入力された顔映像は目位置
検出装置100に入力され(ステップS10)、この顔
映像はフィルター10によりフィルタリングされ(ステ
ップS20)、フィルター110からのフィルタリング
済みの顔映像はウィンドウ生成部120に入力され、こ
こでラスタスキャニング法にてフィルタリング済みの映
像全体を走査して、サーチウィンドウと該当サーチウィ
ンドウの位置ベクトルPVとを順次生成する(ステップ
S30)。ステップS40にて、ヒストグラム取出部1
30によって各サーチウィンドウ内のフィルタリング済
みの映像からヒストグラムが取出される。その後、ピー
ク検出部140によってヒストグラム上でピークが検出
される(ステップS50)。
The face image input from the TV camera is input to the eye position detecting device 100 (step S10), and the face image is filtered by the filter 10 (step S20). It is input to the generation unit 120 and scans the entire filtered image by the raster scanning method, and sequentially generates a search window and a position vector PV of the search window (step S30). In step S40, histogram extracting unit 1
30 extracts a histogram from the filtered video in each search window. Thereafter, a peak is detected on the histogram by the peak detection unit 140 (Step S50).

【0020】ステップS60にて、ピーク検出部140
によってヒストグラム内のピークの個数が3個であるか
否かが判別され、判別の結果が真である場合は該当サー
チウィンドウは候補ウィンドウとして決定され、プロセ
スはステップS70に進み、そうでない場合にはステッ
プS100に進む。
In step S60, peak detector 140
It is determined whether the number of peaks in the histogram is three or not. If the result of the determination is true, the corresponding search window is determined as a candidate window, and the process proceeds to step S70; Proceed to step S100.

【0021】ステップS70にて、エリア計算部150
は各候補ウィンドウに対する三つのピーク点のうち、最
大及び最小画素値に対応する二つのピーク点を検出す
る。ステップS80にて、エリア計算部150は和エリ
アAT、即ち、ステップS70で求められた2つのピー
ク点を含むピーク内における画素の総数を計算する。ス
テップS90にて、各候補ウィンドウに対する和エリア
T及び位置ベクトルPVが選択部170に格納され、
プロセスはステップS100に進む。
In step S70, area calculation section 150
Detects two peak points corresponding to the maximum and minimum pixel values among the three peak points for each candidate window. In step S80, the area calculation unit 150 calculates the sum area A T , that is, the total number of pixels in the peak including the two peak points obtained in step S70. In step S90, the sum area A T and the position vector PV for each candidate window are stored in the selection unit 170,
The process proceeds to step S100.

【0022】ステップS100にて、プロセスは全ての
顔映像に対するサーチウィンドウが全て処理されたか否
かが判別され、全てのサーチウィンドウが処理されない
場合、プロセスはステップS40に戻る。全て処理され
た場合には、選択部170は全ての顔映像に対する候補
ウィンドウの和エリアATのうち最大の和エリアを選択
する(ステップS120)。続いて、ステップS130
にて、選択部170は最大の和エリアATを有する候補
ウィンドウに対応する位置ベクトルを出力し、プロセス
は終了する。
In step S100, the process determines whether all search windows for all face images have been processed. If all search windows have not been processed, the process returns to step S40. If all the processes have been performed, the selection unit 170 selects the largest sum area among the sum areas A T of the candidate windows for all face images (step S120). Subsequently, step S130
At, the selection unit 170 outputs a position vector corresponding to the candidate window having the largest sum area A T , and the process ends.

【0023】上記において、本発明の好適な実施の形態
について説明したが、本発明の請求範囲を逸脱すること
なく、当業者は種々の改変をなし得るであろう。
While the preferred embodiment of the present invention has been described above, those skilled in the art will be able to make various modifications without departing from the scope of the present invention.

【0024】[0024]

【発明の効果】従って、本発明によれば、顔映像の目の
位置を検出するために赤外線を放射する赤外線ストロー
ブを備える必要がなくなり、システムの構造が単純化さ
れ、且つ取出された顔映像のヒストグラムを用いて目の
位置を高い信頼性をもって検出することが可能となる。
Therefore, according to the present invention, there is no need to provide an infrared strobe for radiating infrared rays in order to detect the eye position of a face image, the structure of the system is simplified, and the extracted face image is eliminated. The eye position can be detected with high reliability using the histogram.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の目位置検出装置の概略的なブロック図で
ある。
FIG. 1 is a schematic block diagram of a conventional eye position detecting device.

【図2】本発明による目位置検出装置の概略的なブロッ
ク図である。
FIG. 2 is a schematic block diagram of an eye position detecting device according to the present invention.

【図3】本発明のサーチウィンドウを含む顔映像の概略
図である。
FIG. 3 is a schematic diagram of a face image including a search window according to the present invention.

【図4】図3に示す瞳孔及び白目を含むサーチウィンド
ウを示す概略図である。
FIG. 4 is a schematic diagram showing a search window including a pupil and a white eye shown in FIG. 3;

【図5】図4中のサーチウィンドウのヒストグラムを示
す模式図である。
FIG. 5 is a schematic diagram showing a histogram of a search window in FIG. 4;

【図6】本発明による目位置検出方法を説明するための
フローチャートである。
FIG. 6 is a flowchart illustrating an eye position detection method according to the present invention.

【図7】本発明による目位置検出方法を説明するための
フローチャートである。
FIG. 7 is a flowchart illustrating an eye position detection method according to the present invention.

【符号の説明】 10、100 目位置検出装置 12 赤外線ストローブ 14 TVカメラ 16 A/Dコンバーター 18 イメージメモリ 20 目ウィンドウ検出部 22 虹彩検出部 24 運転者状態判別部 26 タイミング回路 110 フィルター 120 ウィンドウ生成部 130 ヒストグラム取出部 140 ピーク検出部 150 エリア計算部 160 スイッチ 170 選択部 200 顔映像 220 サーチウィンドウ 221 白目 222 皮膚 223 瞳孔DESCRIPTION OF SYMBOLS 10, 100 Eye position detecting device 12 Infrared strobe 14 TV camera 16 A / D converter 18 Image memory 20 Eye window detecting unit 22 Iris detecting unit 24 Driver state determining unit 26 Timing circuit 110 Filter 120 Window generating unit 130 Histogram extraction unit 140 Peak detection unit 150 Area calculation unit 160 Switch 170 Selection unit 200 Face image 220 Search window 221 White eye 222 Skin 223 Pupil

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 各々がグレーレベル値を有する複数の
画素で表現される、人の顔の像である顔映像における目
の位置を検出する目位置検出装置であって、 前記顔映像を取り囲むようなウィンドウを生成するウィ
ンドウ生成手段と、 前記ウィンドウ顔映像からヒストグラムを抽出するヒス
トグラム抽出手段と、 前記ヒストグラムからピークを検出し、前記検出したピ
ークの個数と予め定められた数とを比較するピーク検出
手段と、 前記ピークの個数と前記予め定められた数とが一致する
場合、前記ウィンドウ顔映像の各々に対するヒストグラ
ムにおける、ピーク値を含む最低画素値または0画素値
点間の範囲の画素数であるエリアを計算するエリア計算
手段と、 前記計算されたエリアのうち最大のエリアを選択し、前
記最大のエリアを用いて目の位置を決定する最大エリア
選択手段とを含むことを特徴とする目位置検出装置。
1. An eye position detection device for detecting an eye position in a face image, which is an image of a human face, each of which is represented by a plurality of pixels having a gray level value, wherein the eye position detection device surrounds the face image. Window generating means for generating a simple window; histogram extracting means for extracting a histogram from the window face image; peak detection for detecting a peak from the histogram and comparing the detected number of peaks with a predetermined number. Means, when the number of peaks matches the predetermined number, the histogram is a minimum pixel value including a peak value or a pixel number in a range between 0 pixel value points in a histogram for each of the window face images. Area calculating means for calculating an area, selecting the largest area among the calculated areas, and using the largest area Eye position detecting device which comprises a maximum area selection means for determining the position.
【請求項2】 前記顔映像をフィルタリングして前記
顔映像における雑音を除去することによって、フィルタ
リング済みの顔映像を得るフィルタリング手段を更に含
むことを特徴とする請求項1に記載の目位置検出装置。
2. The eye position detecting apparatus according to claim 1, further comprising a filtering unit configured to filter the face image to remove noise in the face image to obtain a filtered face image. .
【請求項3】 前記フィルタリング手段が、メジアン
フィルタであることを特徴とする請求項2に記載の目位
置検出装置。
3. The eye position detecting device according to claim 2, wherein said filtering means is a median filter.
【請求項4】 前記予め定められた数が3であること
を特徴とする請求項1に記載の目位置検出装置。
4. The eye position detecting device according to claim 1, wherein the predetermined number is three.
【請求項5】 前記ウィンドウ生成手段から生成され
たウィンドウが長方形であることを特徴とする請求項1
に記載の目位置検出装置。
5. A window according to claim 1, wherein said window generated by said window generating means is a rectangle.
An eye position detecting device according to item 1.
【請求項6】 前記ウィンドウ生成手段が、ラスタス
キャニング方法を用いて前記顔映像全体をスキャニング
することを特徴とする請求項5に記載の目位置検出装
置。
6. The eye position detecting apparatus according to claim 5, wherein the window generating means scans the entire face image using a raster scanning method.
【請求項7】 前記ヒストグラムが、前記ウィンドウ
顔映像における画素の周波数をグレーレベル値の関数と
してプロットすることにより得られ、前記ヒストグラム
の水平軸はグレーレベルを表し、垂直軸は前記ウィンド
ウ顔映像における各グレーレベルに対応する周波数を表
すことを特徴とする請求項1に記載の目位置検出装置。
7. The histogram is obtained by plotting the frequency of pixels in the window face image as a function of gray level value, wherein the horizontal axis of the histogram represents gray level and the vertical axis is the 2. The eye position detecting device according to claim 1, wherein a frequency corresponding to each gray level is represented.
【請求項8】 前記ピーク検出手段が、予め定められ
たしきい値より大きいヒストグラムの局部最大値をピー
クとして見なすことを特徴とする請求項1に記載の目位
置検出装置。
8. The eye position detecting device according to claim 1, wherein said peak detecting means regards a local maximum value of a histogram larger than a predetermined threshold value as a peak.
【請求項9】 各々がグレーレベル値で表現される複
数の画素を有する顔映像における目の位置を、ヒストグ
ラムを用いて検出する目位置検出方法装置であって、 前記顔映像をフィルタリングして、フィルタリング済み
の顔映像を得る第1過程と、 前記フィルタリング済みの顔映像内のウィンドウを生成
する第2過程と、 前記ウィンドウからヒストグラムを抽出する第3過程
と、 前記ヒストグラムのピークを検出する第4過程と、 前記ピークの個数が3であるかを判別して、個数が3個
であると前記ウィンドウを候補ウィンドウとして決定す
る第5過程と、 前記候補ウィンドウの3つのピークのうち、最小のピー
ク値と最大のピーク値を有する2つのピークを決定する
第6過程と、 前記候補ウィンドウにおいて、前記最小のピーク値を有
するピークを取囲む領域における画素の個数を表すエリ
アAMAXと、前記最大のピーク値を有するピークを取囲
む領域における画素の個数を表すエリアAMINとの和を
とり、和エリアATを計算する第7過程と、 前記候補ウィンドウに対する前記和エリアATとそれに
対応する位置ベクトルとを格納する第8過程と、 前記格納された和エリアATのうち、最も大きいATを選
択して、それに対応する位置ベクトルを前記目の位置と
して出力する第9過程とを含むことを特徴とする目位置
検出方法。
9. An eye position detection method apparatus for detecting, using a histogram, an eye position in a face image having a plurality of pixels each represented by a gray level value, the method comprising: filtering the face image; A first step of obtaining a filtered face image; a second step of generating a window in the filtered face image; a third step of extracting a histogram from the window; and a fourth step of detecting a peak of the histogram. A step of determining whether the number of the peaks is three, and determining the window as a candidate window if the number is three, a minimum peak among the three peaks of the candidate window A sixth step of determining two peaks having a maximum value and a maximum peak value; and providing the minimum peak value in the candidate window. That takes the area A MAX indicating the number of pixels in the region surrounding the peak, the sum of the areas A MIN representing the number of pixels in the region surrounding the peak with a peak value of said maximum, calculating the sum area A T A seventh step of storing the sum area A T and the corresponding position vector for the candidate window; and selecting the largest A T among the stored sum areas A T , Outputting a corresponding position vector as the position of the eye.
【請求項10】 2つの目の位置を検出する場合、前
記和エリアATのうち、2つの最大の和エリアATを選択
して、それに対応する位置ベクトルを両側の目の位置と
して出力することを特徴とする請求項9に記載の目位置
検出方法。
10. A case of detecting the positions of the two eyes, one of the sum area A T, by selecting two largest sum area A T, and outputs the position vector corresponding thereto as the position of both sides of the eye The eye position detecting method according to claim 9, wherein:
JP10600998A 1997-08-20 1998-04-16 Face image eye position detection apparatus and method Expired - Fee Related JP4004634B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1019970039611A KR19990016896A (en) 1997-08-20 1997-08-20 Eye region detection method in face image
KR1997-39611 1997-08-20

Publications (2)

Publication Number Publication Date
JPH1166317A true JPH1166317A (en) 1999-03-09
JP4004634B2 JP4004634B2 (en) 2007-11-07

Family

ID=19517901

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10600998A Expired - Fee Related JP4004634B2 (en) 1997-08-20 1998-04-16 Face image eye position detection apparatus and method

Country Status (4)

Country Link
US (1) US6072892A (en)
JP (1) JP4004634B2 (en)
KR (2) KR19990016896A (en)
GB (1) GB2328504B (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200289A (en) * 2005-12-28 2007-08-09 Kao Corp Method for detection of location of eye
JP2009015599A (en) * 2007-07-04 2009-01-22 Kao Corp Method and system for detecting eye position
US8131013B2 (en) 2005-12-28 2012-03-06 Kao Corporation Method and detecting system for positions of facial parts

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6496594B1 (en) * 1998-10-22 2002-12-17 Francine J. Prokoski Method and apparatus for aligning and comparing images of the face and body from different imagers
JP3969894B2 (en) * 1999-05-24 2007-09-05 三菱電機株式会社 Face image processing device
EP1211640A3 (en) * 2000-09-15 2003-10-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face and other objects in an image
US6920237B2 (en) * 2000-12-19 2005-07-19 Eastman Kodak Company Digital image processing method and computer program product for detecting human irises in an image
US6792134B2 (en) 2000-12-19 2004-09-14 Eastman Kodak Company Multi-mode digital image processing method for detecting eyes
US7092554B2 (en) * 2001-05-01 2006-08-15 Eastman Kodak Company Method for detecting eye and mouth positions in a digital image
US6895103B2 (en) * 2001-06-19 2005-05-17 Eastman Kodak Company Method for automatically locating eyes in an image
US7058209B2 (en) * 2001-09-20 2006-06-06 Eastman Kodak Company Method and computer program product for locating facial features
US20040052418A1 (en) * 2002-04-05 2004-03-18 Bruno Delean Method and apparatus for probabilistic image analysis
US7369685B2 (en) * 2002-04-05 2008-05-06 Identix Corporation Vision-based operating method and system
CN100465985C (en) * 2002-12-31 2009-03-04 佳能株式会社 Human ege detecting method, apparatus, system and storage medium
JP4407243B2 (en) * 2003-11-10 2010-02-03 ソニー株式会社 Collation processing apparatus and method
US20060018522A1 (en) * 2004-06-14 2006-01-26 Fujifilm Software(California), Inc. System and method applying image-based face recognition for online profile browsing
US7248720B2 (en) * 2004-10-21 2007-07-24 Retica Systems, Inc. Method and system for generating a combined retina/iris pattern biometric
KR100590572B1 (en) * 2004-12-15 2006-06-19 삼성전자주식회사 Method and apparatus for detecting a position of eye
WO2006087791A1 (en) * 2005-02-17 2006-08-24 Fujitsu Limited Image processing method, image processing system, image processor, and computer program
GB2448050A (en) * 2007-03-22 2008-10-01 Artnix Inc A method and apparatus for extracting face images from video data and performing recognition matching for identification of people.
US8055072B2 (en) * 2007-11-27 2011-11-08 Himax Technologies Limited Image display panel and driving method thereof
KR101032660B1 (en) * 2009-11-30 2011-05-06 재단법인대구경북과학기술원 Method for extracting obstacle
EP2498583B1 (en) 2011-03-07 2017-05-03 Zedel LED lamp provided with a safety device
US8781187B2 (en) * 2011-07-13 2014-07-15 Mckesson Financial Holdings Methods, apparatuses, and computer program products for identifying a region of interest within a mammogram image
TWI471808B (en) * 2012-07-20 2015-02-01 Pixart Imaging Inc Pupil detection device
US9323053B2 (en) * 2013-09-30 2016-04-26 Nghia Trong Lam Active shielding against intense illumination (ASAII) system for direct viewing
US9626476B2 (en) 2014-03-27 2017-04-18 Change Healthcare Llc Apparatus, method and computer-readable storage medium for transforming digital images

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2541688B2 (en) * 1990-05-21 1996-10-09 日産自動車株式会社 Eye position detection device
US5261007A (en) * 1990-11-09 1993-11-09 Visidyne, Inc. Frequency division, energy comparison signal processing system
JPH07504056A (en) * 1992-02-18 1995-04-27 ネオパス,インク. Methods for identifying objects using data processing techniques
US5481622A (en) * 1994-03-01 1996-01-02 Rensselaer Polytechnic Institute Eye tracking apparatus and method employing grayscale threshold values
JP3452685B2 (en) * 1995-05-10 2003-09-29 三菱電機株式会社 Face image processing device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200289A (en) * 2005-12-28 2007-08-09 Kao Corp Method for detection of location of eye
US8131013B2 (en) 2005-12-28 2012-03-06 Kao Corporation Method and detecting system for positions of facial parts
JP2009015599A (en) * 2007-07-04 2009-01-22 Kao Corp Method and system for detecting eye position

Also Published As

Publication number Publication date
US6072892A (en) 2000-06-06
KR19990023570A (en) 1999-03-25
JP4004634B2 (en) 2007-11-07
KR19990016896A (en) 1999-03-15
GB2328504A (en) 1999-02-24
GB9807620D0 (en) 1998-06-10
GB2328504B (en) 2001-12-19

Similar Documents

Publication Publication Date Title
JP4004634B2 (en) Face image eye position detection apparatus and method
JP3761059B2 (en) Method and apparatus for detecting human face and observer tracking display
JP3143819B2 (en) Eyelid opening detector
US8154591B2 (en) Eyelid opening level determination device and computer readable medium storing computer program thereof
JP2003526841A (en) Face extraction system and method based on biometrics
JPH11288459A (en) Method and device for detecting area such as face and observer tracking display
JP2006259900A (en) Image processing system, image processor and processing method, recording medium, and program
JPH11250267A (en) Method and device for detecting position of eye and record medium recording program for detecting position of eye
JP3063504B2 (en) Image data feature detection device
WO2018233637A1 (en) Video processing method and apparatus, electronic device, and storage medium
JP2003150942A (en) Eye position tracing method
JP2000331159A (en) Facial image processor
JP3774495B2 (en) Image information extracting apparatus and method
KR20170088315A (en) Integrated Control method for Vehicle Drive using Depth Information based Face Recognition
JP3980464B2 (en) Method for extracting nose position, program for causing computer to execute method for extracting nose position, and nose position extracting apparatus
JP5128454B2 (en) Wrinkle detection device, wrinkle detection method and program
JP4151624B2 (en) Pupil detection device, iris authentication device, and pupil detection method
JP3963789B2 (en) Eye detection device, eye detection program, recording medium for recording the program, and eye detection method
JP4636314B2 (en) Image processing apparatus and method, recording medium, and program
JPH11185026A (en) Face area extraction device
JP2001331795A (en) Device and method for normalizing image
JP4687955B2 (en) Image processing apparatus and method, recording medium, and program
JP2004213589A (en) Specific part posture estimating device
WO2005093656A1 (en) System for estimating attitude at specific part, methode for estimating attitude at specific part, and program for estimating attitude at specific part
JPH07220095A (en) Extracting device for image of object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070410

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070709

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070731

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070822

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100831

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110831

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120831

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130831

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees