JP2003271932A - Sight line direction detector - Google Patents

Sight line direction detector

Info

Publication number
JP2003271932A
JP2003271932A JP2002070187A JP2002070187A JP2003271932A JP 2003271932 A JP2003271932 A JP 2003271932A JP 2002070187 A JP2002070187 A JP 2002070187A JP 2002070187 A JP2002070187 A JP 2002070187A JP 2003271932 A JP2003271932 A JP 2003271932A
Authority
JP
Japan
Prior art keywords
image
eye
line
face
pupil
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002070187A
Other languages
Japanese (ja)
Other versions
JP3797253B2 (en
Inventor
Kinya Iwamoto
欣也 岩本
Masayuki Kaneda
雅之 金田
Yasushi Ueno
裕史 上野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP2002070187A priority Critical patent/JP3797253B2/en
Publication of JP2003271932A publication Critical patent/JP2003271932A/en
Application granted granted Critical
Publication of JP3797253B2 publication Critical patent/JP3797253B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sight line direction detector capable of detecting the sight line direction with excellent accuracy from an image picked up from a face. <P>SOLUTION: The image of the face is picked up by a face image picking-up means CL1. The position of eyes on the image is specified by an eye position specifying means CL2 from the face image. An eyeball rotational angle detecting means CL4 detects the rotational angle of the eyeball from the face image and the eye position. A face direction detecting means CL3 detects the direction of the face from the face image. A sight line direction calculating means CL5 calculates the sight line direction from the rotational angle of the eyeballs detected by the eyeball rotational angle detecting means CL4 and the direction of the face detected by the face direction detecting means CL3. <P>COPYRIGHT: (C)2003,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、被験者の顔面を撮
影した顔画像から視線方向を検出する視線方向検出装置
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a line-of-sight direction detecting device for detecting a line-of-sight direction from a face image obtained by photographing the face of a subject.

【0002】[0002]

【従来の技術】視線方向を検出する装置としては、特開
平9−53917号「車両用視線方向計測装置」が知ら
れている。この装置は、乗員の眼球からの反射像を撮像
する撮像装置と、撮像装置と共軸の不可視光を照射する
第1照明と、第1照明とは異なる位置から不可視光を照
射する第2照明とを備えている。そして、第1、第2照
明から交互に顔を照射して得られた画像データから、画
像処理によって瞳孔中心の位置と角膜反射像の位置を求
め、両者に基づいて視線方向を算出している。
2. Description of the Related Art As a device for detecting the line-of-sight direction, Japanese Patent Laid-Open No. 9-53917 "Vehicle line-of-sight direction measuring device" is known. This device includes an imaging device that captures a reflected image from an eyeball of an occupant, a first illumination that emits invisible light that is coaxial with the imaging device, and a second illumination that emits invisible light from a position different from the first illumination. It has and. Then, the position of the center of the pupil and the position of the corneal reflection image are obtained by image processing from image data obtained by alternately illuminating the face from the first and second illuminations, and the line-of-sight direction is calculated based on the both. .

【0003】[0003]

【発明が解決しようとする課題】しかしながら、上記従
来技術にあっては、瞳孔の中の角膜反射像の位置をとら
えるという顔画像の狭い範囲から視線方向を計測してい
るため、精度の高い視線方向の検出ができないという問
題点があった。
However, in the above-mentioned prior art, since the line-of-sight direction is measured from a narrow range of the face image that captures the position of the corneal reflection image in the pupil, the line-of-sight with high accuracy is obtained. There was a problem that the direction could not be detected.

【0004】また、眼の位置が動かないという前提であ
れば視線を検知できるが、運転中など顔が動いている環
境では視線方向を特定することは更に難しい。
Although it is possible to detect the line of sight on the assumption that the position of the eye does not move, it is more difficult to specify the direction of the line of sight in an environment where the face is moving such as while driving.

【0005】以上の問題点に鑑み本発明の目的は、顔を
撮像した画像から精度良く視線方向を検出することが出
来る視線方向検出装置を提供することである。
In view of the above problems, an object of the present invention is to provide a line-of-sight direction detecting device capable of accurately detecting the line-of-sight direction from a face image.

【0006】[0006]

【課題を解決するための手段】本発明は、顔画像撮像手
段によって撮像された顔画像から目の位置を特定し、該
眼位置特定手段により特定された画像から眼球の回転角
を検出するとともに、顔画像撮像手段によって撮像され
た顔画像から顔の向きを検出し、これら眼球回転角と顔
の向きから視線方向を検出することを要旨とする視線方
向検出装置である。
According to the present invention, the eye position is specified from the face image picked up by the face image pick-up means, and the rotation angle of the eyeball is detected from the image specified by the eye position specifying means. A line-of-sight direction detection device that detects the direction of the face from the face image captured by the face-image capturing means and detects the direction of the line of sight from the eyeball rotation angle and the face direction.

【0007】また本発明は、顔画像を撮像する顔画像撮
像手段と、顔画像撮像手段によって撮像された顔画像か
ら画像上の眼の位置を特定する眼位置特定手段と、顔画
像撮像手段によって撮像された顔画像及び前記特定され
た眼の位置から眼球の回転角を検出する眼球回転角検出
手段と、顔画像撮像手段によって撮像された顔画像から
顔の向きを検出する顔の向き検出手段と、眼球回転角検
出手段によって検出された眼球の回転角と顔の向き検出
手段によって検出された顔の向きから視線方向を算出す
る視線方向算出手段と、を備えたことを要旨とする視線
方向検出装置である。
Further, according to the present invention, the face image capturing means for capturing the face image, the eye position identifying means for identifying the eye position on the image from the face image captured by the face image capturing means, and the face image capturing means are provided. Eye rotation angle detection means for detecting the rotation angle of the eyeball from the captured face image and the specified eye position, and face orientation detection means for detecting the face orientation from the face image captured by the face image capturing means. And a gaze direction calculating means for calculating a gaze direction from the rotation angle of the eyeball detected by the eyeball rotation angle detecting means and the face direction detected by the face orientation detecting means, It is a detection device.

【0008】[0008]

【発明の効果】本発明によれば、精度良く視線方向を検
出する視線方向検出装置を提供することができるという
効果がある。
According to the present invention, there is an effect that it is possible to provide a line-of-sight direction detecting device for detecting the line-of-sight direction with high accuracy.

【0009】[0009]

【発明の実施の形態】以下、図面を参照して、本発明の
実施の形態を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings.

【0010】〔第1実施形態〕図1は、本発明に係る視
線方向検出装置の第1実施形態の構成を説明するブロッ
ク図である。同図において、視線方向検出装置は、顔画
像を撮像する顔画像撮像手段CL1と、顔画像撮像手段
CL1によって撮像された顔画像から画像上の眼の位置
を特定する眼位置特定手段CL2と、顔画像撮像手段C
L1によって撮像された顔画像から眼球の回転角を検出
する眼球回転角検出手段CL4と、顔画像撮像手段CL
1によって撮像された顔画像から顔の向きを検出する顔
の向き検出手段CL3と、眼球回転角検出手段CL4に
よって検出された眼球の回転角と顔の向き検出手段CL
3によって検出された顔の向きから視線方向を算出する
視線方向算出手段CL5とを備えている。
[First Embodiment] FIG. 1 is a block diagram for explaining the arrangement of a first embodiment of a line-of-sight direction detecting device according to the present invention. In the figure, the line-of-sight direction detection device includes a face image capturing unit CL1 that captures a face image, and an eye position identifying unit CL2 that identifies the position of an eye on the image from the face image captured by the face image capturing unit CL1. Face image capturing means C
Eye rotation angle detecting means CL4 for detecting the rotation angle of the eyeball from the face image captured by L1, and face image capturing means CL
Face orientation detecting means CL3 for detecting the orientation of the face from the face image picked up by No. 1 and eye rotation angle and face orientation detecting means CL detected by the eyeball rotation angle detecting means CL4.
And a line-of-sight direction calculation means CL5 for calculating the line-of-sight direction from the face direction detected by the reference numeral 3.

【0011】顔画像撮像手段CL1は、運転者またはオ
ペレータ等の顔を撮像して顔画像データを出力するTV
カメラ等の撮像手段である。眼位置特定手段CL2は、
顔画像撮像手段CL1から出力された顔画像データを処
理して、画像上の眼の位置を特定する。
The face image pickup means CL1 is a TV for picking up the face of a driver or an operator and outputting face image data.
It is an imaging means such as a camera. The eye position specifying means CL2 is
The face image data output from the face image capturing means CL1 is processed to identify the position of the eye on the image.

【0012】顔の向き検出手段CL3は、顔画像撮像手
段CL1から出力された顔画像データを処理して顔画像
撮像手段CL1の光軸ラインを正面とした顔の向きを検
出する。
The face orientation detecting means CL3 processes the face image data output from the face image capturing means CL1 to detect the face orientation with the optical axis line of the face image capturing means CL1 as the front.

【0013】眼球回転角検出手段CL4は、さらに瞳位
置検出手段CL41と円弧状ラインのピーク位置検出手
段CL42とを備えて構成されている。
The eyeball rotation angle detecting means CL4 is further provided with a pupil position detecting means CL41 and a peak position detecting means CL42 of an arc line.

【0014】瞳位置検出手段CL41は、眼位置特定手
段CL2で特定された眼の位置を中心とした顔画像の部
分画像である微小画像を画像処理することによって、瞳
の位置を検出する。
The pupil position detecting means CL41 detects the position of the pupil by image-processing a minute image which is a partial image of a face image centered on the eye position specified by the eye position specifying means CL2.

【0015】円弧状ラインのピーク位置検出手段CL4
2は、眼位置特定手段CL2で特定された眼の位置を中
心とした顔画像の部分画像である微小画像を画像処理す
ることによって、上瞼、下瞼、眉毛、眼鏡の上フレー
ム、眼鏡の下フレームなど視線の基準となる円弧状ライ
ンの検出を行い、その中から円弧状ラインのピーク位置
を求める。
Peak position detecting means CL4 of the arc line
2 performs image processing of a minute image which is a partial image of a face image centered on the eye position specified by the eye position specifying means CL2, thereby making the upper eyelid, the lower eyelid, the eyebrow, the upper frame of the eyeglass, and the eyeglass The arc-shaped line that is the reference of the line of sight such as the lower frame is detected, and the peak position of the arc-shaped line is obtained from the detection.

【0016】本実施形態では上瞼での場合のみ説明する
が、他の部位についても同様の処理を行うことで検出す
ることができる。
In the present embodiment, only the case of the upper eyelid will be described, but other parts can be detected by performing similar processing.

【0017】本装置は、自動車、鉄道車両、船舶、プラ
ントのオペレータ等の視線方向検知に用いることができ
るが、本発明のすべての実施形態で自動車の運転手の眼
に適用した場合で説明する。
The present apparatus can be used to detect the line-of-sight direction of an operator of a car, a railroad car, a ship, a plant, etc., but will be described when it is applied to the eyes of a driver of a car in all the embodiments of the present invention. .

【0018】[機器の配置]図2は、本発明の機器の配
置図である。顔画像撮像手段CL1としてTVカメラ1
が自動車のインストルメントパネル上で運転者を略正面
で撮像できる位置に設置され、運転者の顔部分を撮影す
る。TVカメラ1の入力画像は、本実施形態では、例え
ば横方向(X)640画素、縦方向(Y)480画素か
らなる白黒画像である。TVカメラ1で撮像された入力
画像は、インストルメントパネル裏側など車体内部に設
置されたマイクロコンピュータ2に画像データとして入
力される。
[Arrangement of Equipment] FIG. 2 is a layout of the equipment of the present invention. TV camera 1 as face image capturing means CL1
Is installed on the instrument panel of the automobile at a position where the driver can be imaged substantially in front, and the driver's face is photographed. In the present embodiment, the input image of the TV camera 1 is a black-and-white image including, for example, 640 pixels in the horizontal direction (X) and 480 pixels in the vertical direction (Y). An input image captured by the TV camera 1 is input as image data to the microcomputer 2 installed inside the vehicle body such as the back side of the instrument panel.

【0019】マイクロコンピュータ2は、TVカメラ1
から入力された画像データを記憶する画像メモリを備え
ている。さらにマイクロコンピュータ2には、この画像
データを処理して視線方向を検出するために、眼位置特
定手段CL2と、顔の向き検出手段CL3と、眼球回転
角検出手段CL4と、視線方向算出手段CL5とを実現
するためのロジックがプログラミングされている。
The microcomputer 2 is a TV camera 1
An image memory for storing the image data input from is provided. Further, in the microcomputer 2, in order to process the image data and detect the line-of-sight direction, the eye position specifying unit CL2, the face direction detecting unit CL3, the eyeball rotation angle detecting unit CL4, and the line-of-sight direction calculating unit CL5. The logic to realize and is programmed.

【0020】次にシステムの処理内容について説明す
る。
Next, the processing contents of the system will be described.

【0021】[システム全体の処理]図3はシステムの
全体の処理の流れを説明する概略フローチャートであ
る。まず、処理が開始されると、ステップS1(以下、
「ステップS」は単に「S」と表す)で、「初期値入
力」の処理が実行され、マイクロコンピュータの作業エ
リアの初期化や各種パラメータの初期値の設定が行われ
る。
[Processing of Entire System] FIG. 3 is a schematic flowchart for explaining the flow of the entire processing of the system. First, when the process is started, step S1 (hereinafter,
"Step S" is simply referred to as "S"), and the process of "initial value input" is executed to initialize the work area of the microcomputer and set the initial values of various parameters.

【0022】S2の「顔画像の撮像処理」ではTVカメ
ラ1で顔画像を撮像し、マイクロコンピュータ2に画像
データとして入力する。
In the "face image pickup process" of S2, the TV camera 1 picks up a face image and inputs it to the microcomputer 2 as image data.

【0023】S3の「眼の位置特定処理」ではマイクロ
コンピュータ2に入力された画像データを画像処理する
ことによって顔画像上の眼の位置を特定する。
In the "eye position specifying process" of S3, the position of the eye on the face image is specified by image-processing the image data input to the microcomputer 2.

【0024】S4ではS3の出力結果をもとに顔画像上
に眼が特定できればS4YES、S5へ処理を進め、顔
画像上に眼が特定できなければS4NO、S2へ処理を
戻し、眼が特定できるまでS2からS4までの処理を繰
り返す。
In S4, if the eyes can be identified on the face image based on the output result of S3, the process proceeds to S4 YES and S5. If the eyes cannot be identified on the face image, the process returns to S4 NO and S2 to identify the eyes. The processes from S2 to S4 are repeated until it is possible.

【0025】S5の「顔の向き検出処理」では、マイク
ロコンピュータ2に入力された画像データを画像処理す
ることによって、顔画像撮像手段の光軸方向に対する画
像上の顔の向きを検出する。
In the "face orientation detection process" in S5, the orientation of the face on the image with respect to the optical axis direction of the face image capturing means is detected by image processing the image data input to the microcomputer 2.

【0026】S6の「円弧状ラインピーク位置検出処
理」では、S3で特定された眼の位置を中心とする顔画
像の部分画像である微小画像(以下、微小エリアとも呼
ぶ)を画像処理することで微小画像上の円弧状ライン及
びそのピーク位置を検出する。
In the "arc-shaped line peak position detection process" in S6, a minute image (hereinafter also referred to as a minute area) which is a partial image of a face image centered on the eye position specified in S3 is subjected to image processing. Detects the arc-shaped line and its peak position on the micro image.

【0027】S7の「瞳位置の検出処理」では、S3で
特定された眼の位置を中心とする微小エリアを画像処理
することで画像上の瞳の位置を検出する。
In the "pupil position detection process" of S7, the position of the pupil on the image is detected by image-processing the micro area centered on the eye position specified in S3.

【0028】S8の「眼球の回転角検出処理I」では、
S6で検出した円弧状ラインのピーク位置と、S7で検
出した瞳の位置とから、眼球の回転角を検出する。
In the "eyeball rotation angle detection process I" of S8,
The rotation angle of the eyeball is detected from the peak position of the arc-shaped line detected in S6 and the position of the pupil detected in S7.

【0029】S9の「視線方向の算出処理」では、S5
で検出した顔の向きと、S8で検出した眼球の回転角と
から、視線方向を算出し、処理を終了する。
In the "line-of-sight direction calculation process" of S9, S5
The line-of-sight direction is calculated from the face orientation detected in S8 and the rotation angle of the eyeball detected in S8, and the process ends.

【0030】[眼の位置特定処理](S3)図3の「眼
の位置特定処理」S3を図4の詳細フローチャートを用
いて説明する。まず、図4のS31では、顔画像から眼
の候補の位置を特定する「眼の候補の位置の特定処理」
を実行する。S32では、特定されたそれぞれの眼の候
補の位置から眼であるか否かを判定する「眼判定処理」
を行う。
[Eye Position Specifying Process] (S3) The "eye position specifying process" S3 of FIG. 3 will be described with reference to the detailed flowchart of FIG. First, in S31 of FIG. 4, "eye candidate position specifying processing" for specifying the eye candidate position from the face image.
To execute. In S32, an "eye determination process" for determining whether or not it is an eye from the position of each identified eye candidate
I do.

【0031】S33ではS31で眼の候補の位置の特定
の処理で検出した眼の候補点すべてを判定したかどうか
を判定する。眼の候補点すべてを判定した場合とした場
合S33YESはメインルーチンのS4に処理が移る。
眼の候補点すべてを判定し終わっていない場合S33N
Oは、S32の眼判定処理に戻る。
In S33, it is determined whether or not all the eye candidate points detected in the process of specifying the eye candidate positions in S31 have been determined. If it is determined that all the eye candidate points have been determined, the process proceeds to S4 of the main routine if YES in S33.
If all the eye candidate points have not been determined, S33N
O returns to the eye determination process of S32.

【0032】[眼の候補の位置の特定処理](S31) 「眼の候補の位置の特定処理」S31の流れを、図5の
詳細フローチャートと、図6〜図10を用いて説明す
る。
[Eye Candidate Position Specifying Process] (S31) The flow of the "eye candidate position specifying process" S31 will be described with reference to the detailed flowchart of FIG. 5 and FIGS.

【0033】まず、図5のS311は、「顔画像の撮像
処理」S2で撮像しマイクロコンピュータ2に入力した
顔画像データ全体を全体画像Gとして画像メモリに保存
する。
First, in step S311 of FIG. 5, the entire face image data captured in the "face image capturing process" S2 and input to the microcomputer 2 is stored as an entire image G in the image memory.

【0034】次いで、S312からS316の処理で、
全体画像GをY方向にスキャンして特徴点を抽出する。
S312では、縦方向に1ライン終了後に、一つ隣のラ
インの処理に移して行き、縦方向の全ラインでの特徴点
抽出が終了したか否かを判断する。S312で全ライン
において特徴点抽出が終了していないと判断された場合
は、S313に移行する。
Then, in steps S312 to S316,
The whole image G is scanned in the Y direction to extract characteristic points.
In S312, after the completion of one line in the vertical direction, the process proceeds to the processing of the next adjacent line, and it is determined whether or not the feature point extraction on all the vertical lines is completed. If it is determined in S312 that the feature point extraction has not been completed for all lines, the process proceeds to S313.

【0035】S313では、縦方向(Y軸方向)の1ラ
インの濃度値(輝度値)の縦方向(Y軸方向)のスムー
ジング処理を相加平均演算によって行う。この処理は、
画像データ撮影時の濃度値の変化の小さなバラツキを無
くすことを目的としており、濃度値の大局的な変化を捉
えるためである。
In S313, the smoothing processing of the density value (luminance value) of one line in the vertical direction (Y-axis direction) in the vertical direction (Y-axis direction) is performed by arithmetic average calculation. This process
The purpose is to eliminate small variations in changes in the density value when capturing image data, and to capture global changes in the density value.

【0036】例えば、画像を2次元配列の画素の集まり
として、処理前の画像の各画素の濃度値をA(i,j)と
し、この画素自身とその前後n個づつの画素を用いてス
ムージングすれば、スムージング処理後の各画素の濃度
値B(i,j)は、式(1)の相加平均値で示される。
For example, the image is a collection of pixels in a two-dimensional array, the density value of each pixel of the image before processing is A (i, j), and this pixel itself and n pixels before and after the smoothing are used for smoothing. Then, the density value B (i, j) of each pixel after the smoothing process is represented by the arithmetic mean value of the equation (1).

【0037】[0037]

【数1】 B(i,j)=〔1/(2n+1)〕〔A(i-n,j)+…+A(i-1,j)+A(i,j) +A(i+1,j)+…+A(i+n,j)〕 …(1) S314では、S313の演算結果である相加平均値に
おける画像の縦方向(Y軸方向)の微分演算(差分演
算)を行う。S314では、S314の演算結果である
微分値による特徴点抽出を行う。ここで、微分値が負か
ら正に変化する点を特徴点として抽出する。言い換えれ
ば、1ライン中の縦方向の濃度変化の極小値を特徴点と
して抽出する。この処理が1ライン終了した後、S31
6で、次のラインの処理に切り替えて行く。
## EQU1 ## B (i, j) = [1 / (2n + 1)] [A (in, j) + ... + A (i-1, j) + A (i, j) + A (i + 1, j) + + A (i + n, j)] (1) In S314, a differential operation (difference operation) in the vertical direction (Y-axis direction) of the image at the arithmetic mean value as the operation result of S313 is performed. In S314, feature point extraction is performed using the differential value that is the calculation result of S314. Here, points where the differential value changes from negative to positive are extracted as feature points. In other words, the minimum value of the vertical density change in one line is extracted as the feature point. After this processing is completed for one line, S31
At 6, the process is switched to the next line.

【0038】S312で全ラインの特徴点抽出が終了し
たと判断されると、S317へ移行し、隣合う各ライン
の抽出特徴点のY座標値を比較し、Y座標値が所定値以
内の場合、連続データとして、連続データのグループ
番号、連続開始ライン番号、連続データ数、連続
データを構成する各抽出特徴点の縦方向位置の平均値
(その連続データの代表Y座標値)、連続開始ライン
と終了ラインの横方向位置の平均値(その連続データの
代表X座標値)をメモリする。
If it is determined in S312 that the characteristic points of all the lines have been extracted, the process proceeds to S317, in which the Y coordinate values of the extracted characteristic points of the adjacent lines are compared, and if the Y coordinate values are within a predetermined value. , As continuous data, group number of continuous data, continuous start line number, number of continuous data, average value of vertical position of each extracted feature point forming continuous data (representative Y coordinate value of the continuous data), continuous start line And the average value of the horizontal position of the end line (representative X coordinate value of the continuous data) is stored.

【0039】ここでの検出対象は眼としているため、そ
の特徴パターンは横に比較的長く続くデータであるとい
えるので、横方向に所定値以上続くことを条件に連続デ
ータを選択することができる。
Since the detection target here is the eye, it can be said that the characteristic pattern is data that continues in the horizontal direction for a relatively long time, so continuous data can be selected on the condition that it continues for a predetermined value or more in the horizontal direction. .

【0040】このようにして選択した顔の特徴パターン
を連続データgとして表したものを図6に示す。以上、
連続データgの抽出方法を簡単に説明したが、処理状態
の詳細については、「特開平10−40361号」、
「特開平10−143669号」などにも記載されてい
る。連続データgがいわば眼の候補となり、この連続デ
ータgの代表座標値Cが眼の候補の位置となる。
FIG. 6 shows the feature pattern of the face thus selected as continuous data g. that's all,
The method of extracting the continuous data g has been briefly described. For details of the processing state, see Japanese Patent Laid-Open No. 10-40361.
It is also described in "JP-A-10-143669". The continuous data g is, so to speak, an eye candidate, and the representative coordinate value C of this continuous data g is the position of the eye candidate.

【0041】次いでS318において、図6に示すよう
な各連続データgの代表座標値Cを基準に各連続データ
gを含む存在領域EAを設定する。この存在領域EA
は、次のようにして決定する。
Next, in S318, the existence area EA including each continuous data g is set with the representative coordinate value C of each continuous data g as shown in FIG. 6 as a reference. This existence area EA
Is determined as follows.

【0042】(存在領域EAの大きさの決め方)存在領
域EAの大きさは、図7〜図10のようにして決めてい
る。図7は存在領域EAの大きさを示し、図8,図9は
数人の眼の大きさを調べて得られた眼の横、縦の長さの
統計データを示している。ここで存在領域EAの大きさ
はノイズ(顔の皺や明暗などを抽出してしまう)の低減
や処理速度を落とさないためにも、可能な限り小さい領
域が良い。現在の居眠り検出などの処理で使っている大
きさは数人の眼の大きさを調べ、それに余裕分(例えば
×1.5倍)を加味した大きさにしている。
(How to Determine Size of Presence Area EA) The size of the presence area EA is determined as shown in FIGS. FIG. 7 shows the size of the existence area EA, and FIGS. 8 and 9 show the statistical data of the horizontal and vertical lengths of the eyes obtained by examining the sizes of the eyes of several people. Here, the size of the existing area EA is preferably as small as possible in order to reduce noise (extract facial wrinkles, light and shade, etc.) and not reduce the processing speed. The size currently used in processing such as drowsiness detection is set to a size in which the size of the eyes of several people is examined and a margin (for example, × 1.5 times) is added.

【0043】眼の大きさを統計的に求める方法として
は、図8,図9のように、眼の縦横寸法のデータを集
め、その分布の例えば95%をカバーする寸法に余裕分
をみて決定する方法が考えられる。そしてこの95%を
カバーする寸法、すなわち横寸法xa´,縦寸法ya´
に図6のように余裕分(×1.5)をみて決定してい
る。尚、画像処理により眼の幅や高さを推定し、縦横の
大きさに余裕分を加える方法も考えられる。
As a method of statistically obtaining the size of the eye, as shown in FIGS. 8 and 9, the data of the vertical and horizontal dimensions of the eye are collected, and the size is determined, for example, by considering the margin for the size that covers 95% of the distribution. There are possible ways to do this. And the dimension that covers this 95%, that is, the horizontal dimension xa ', the vertical dimension ya'
As shown in FIG. 6, the margin (× 1.5) is taken into consideration for the determination. A method of estimating the width and height of the eye by image processing and adding a margin to the vertical and horizontal sizes is also conceivable.

【0044】(存在領域EAの位置の決め方)図10
は、例えば右眼の存在領域EAを位置決めする方法につ
いて示している。眼の座標値(x1,y1)を基準に、
距離x2,y2の位置に存在領域EAを描く基準点Pを
決め、P点から予め決めておいた存在領域EAの寸法x
3,y3を描画し、位置を決める。x2及びy2はx
3,y3の1/2で予め存在領域EAが眼の中心にくる
ような長さとしている。
(How to Determine Position of Presence Area EA) FIG. 10
Shows a method of positioning the presence area EA of the right eye, for example. Based on the eye coordinate values (x1, y1),
A reference point P that draws the existing area EA is determined at the positions of the distances x2 and y2, and the predetermined size x of the existing area EA is determined from the point P.
3 and y3 are drawn and the position is determined. x2 and y2 are x
The length is set such that the existing area EA comes to the center of the eye in advance by 1/2 of 3, y3.

【0045】存在領域EAを画像全体で見つかった連続
データgすべてについて設定する。
The existence area EA is set for all the continuous data g found in the entire image.

【0046】[眼判定処理](S32) 次に、「眼判定処理」S32を図11の詳細フローチャ
ートと、図12〜図14を用いて説明する。
[Eye determination process] (S32) Next, the "eye determination process" S32 will be described with reference to the detailed flowchart of FIG. 11 and FIGS.

【0047】まず、図11のS3201は、眼の候補点
の存在領域EAの画像データを全体画像Gの部分画像で
ある微小画像IGとして画像メモリに保存する。全体画
像Gと保存される微小画像IGの状態を図12に示す。
「顔画像の撮像処理」S2で撮像しマイクロコンピュー
タ2に入力された画像データは、全体画像Gとして既に
画像メモリに保存されている。
First, in step S3201 of FIG. 11, the image data of the existence area EA of the eye candidate point is stored in the image memory as a minute image IG which is a partial image of the entire image G. FIG. 12 shows the states of the entire image G and the stored minute image IG.
The image data captured in the “face image capturing process” S2 and input to the microcomputer 2 is already stored in the image memory as the entire image G.

【0048】次いでS3202では、全体画像Gの代表
座標値Cに相当する微小画像IGの代表座標値ICを基
準とした範囲ARの濃度情報をもとに二値化閾値を設定
する。この範囲ARは、前記存在領域EAより小さく、
二値化閾値を正確に設定できるようにしている。
Next, in S3202, a binarization threshold value is set based on the density information of the range AR with the representative coordinate value IC of the minute image IG corresponding to the representative coordinate value C of the whole image G as a reference. This range AR is smaller than the existing area EA,
The binarization threshold can be set accurately.

【0049】各範囲ARでの二値化閾値の算出方法の一
例を、図13を用いて説明する。範囲ARにおいて縦方
向に数ラインの濃度値の読み出しを行う。図13では、
この縦方向へのラインが4本あることを示している。こ
の各ラインにおいて濃度値の最も高い(明るい)濃度値
と、最も低い(暗い)濃度値をメモリして行き、全ライ
ンのメモリが終了したら、各ラインの最も高い(明る
い)濃度値の中で、一番低い濃度値(皮膚の部分)と、
各ラインの最も低い(暗い)濃度値の中で、一番低い濃
度値(眼の部分)とを求め、その中央値を二値化閾値と
する。
An example of the method of calculating the binarization threshold value in each range AR will be described with reference to FIG. In the range AR, the density values of several lines are read out in the vertical direction. In FIG.
This indicates that there are four lines in the vertical direction. The highest (bright) density value and the lowest (dark) density value of each line are stored in memory, and when the memory of all lines is completed, the highest (bright) density value of each line , The lowest concentration value (on the skin),
Among the lowest (darkest) density values of each line, the lowest density value (eye part) is obtained, and the median value thereof is used as the binarization threshold value.

【0050】この二値化閾値のための範囲ARは、眼の
黒い部分と眼の周囲の皮膚の白い部分が入るように設定
し、また、画像の明るさのバラツキによる影響を少なく
するために必要最小限の大きさにしている。また、二値
化閾値は、その領域内の眼の一番低い(暗い)濃度値
と、皮膚の部分の一番低い(暗い)濃度値の中央値とす
ることで、顔画像の皮膚の部分から眼の部分を切り出す
のに適した値になる。
The range AR for the binarization threshold is set so that the black part of the eye and the white part of the skin around the eye are included, and in order to reduce the influence of the variation in the brightness of the image. The minimum size required. In addition, the binarization threshold is set to the median value of the lowest (dark) density value of the eye and the lowest (dark) density value of the skin part in the area, and the skin part of the face image is determined. It is a value suitable for cutting out the eye part from.

【0051】さらに、二値化閾値を決定するのに皮膚の
部分の濃度値の一番低い(暗い)濃度値を用いている理
由は、次の通りである。前述したように眼の周囲の明る
さのバラツキによる影響を少なくするために、濃度値を
読み出す範囲ARを極力小さくしていても、該範囲AR
の一部に直射光が当たっているような部分が外乱として
入ることがあり、この部分を二値化閾値の決定に用いな
いようにするためである。
Further, the reason why the lowest (dark) density value of the density value of the skin portion is used to determine the binarization threshold value is as follows. As described above, in order to reduce the influence of the variation in the brightness around the eyes, even if the range AR for reading the density value is made as small as possible, the range AR
This is because a portion where a direct light is shining on a part of the above may enter as a disturbance, and this portion is not used for determining the binarization threshold.

【0052】S3203では、こうして決定した二値化
閾値を用いて微小画像IGを二値化処理して、二値画像
bGとして画像メモリに保存する。
In S3203, the minute image IG is binarized using the binarization threshold value thus determined, and is stored in the image memory as a binary image bG.

【0053】このような二値化閾値を用いて二値化した
候補オブジェクトを検出することにより、眼を正確に捉
えて候補オブジェクトの幾何形状を用いた判定をより正
確に行うことができ、眼の位置検出精度をより向上する
ことができる。
By detecting the binarized candidate object using such a binarization threshold value, the eye can be accurately captured and the determination using the geometrical shape of the candidate object can be performed more accurately. The position detection accuracy of can be further improved.

【0054】次にS3204に移行し、全体画像Gの代
表座標値Cに相当する二値画像bGの位置bCを初期位
置に設定する。
Next, the flow shifts to S3204, where the position bC of the binary image bG corresponding to the representative coordinate value C of the whole image G is set to the initial position.

【0055】設定位置の画素が黒画素か否かを判定S3
205し、設定位置が黒画素と判定されればS3205
YES、処理をS3206に移行する。設定位置が黒画
素と判定されなければ(この場合、白画素)S3205
NOとして設定位置を上下左右に1画素ずつずらして、
再度、設定位置が黒画素か否かを判定S3205を行
い、設定位置が黒画素になるまで処理を行う。
It is determined whether or not the pixel at the set position is a black pixel S3
205, and if it is determined that the set position is a black pixel, S3205
YES, the process proceeds to S3206. If the set position is not determined to be a black pixel (in this case, a white pixel) S3205
As NO, shift the set position vertically and horizontally by one pixel,
The determination step S3205 is performed again to determine whether the set position is a black pixel, and the processing is performed until the set position becomes a black pixel.

【0056】S3206ではその黒画素を包括する連結
成分を候補オブジェクトとして設定する。S3207で
は候補オブジェクトの幾何形状を算出し、S3208で
特定したい眼テンプレートの幾何形状と候補オブジェク
トの幾何形状を比較する。
In step S3206, a connected component that includes the black pixel is set as a candidate object. In step S3207, the geometrical shape of the candidate object is calculated, and in step S3208, the geometrical shape of the eye template to be identified is compared with the geometrical shape of the candidate object.

【0057】S3208の候補オブジェクトと眼テンプ
レートの幾何形状の比較方法の一例を眼の場合について
図14を用いて説明する。
An example of the method of comparing the geometric shapes of the candidate object and the eye template in S3208 will be described with reference to FIG.

【0058】眼の二値化した形状は光環境が良く安定し
た画像であれば図14の(a)に示すようなものになる
が、車室内に直射日光が一側から当たる等して光環境が
悪化した時は、図14の(b)や(c)のような形状に
なることもある。
The binarized shape of the eye is as shown in FIG. 14 (a) if the image is a stable environment with a good light environment, but the sunlight is exposed to direct sunlight from one side. When the environment deteriorates, the shape may be as shown in FIGS. 14B and 14C.

【0059】眼のテンプレートは、横幅が眼の平均値の
2/3以上あり、且つ上に凸の所定範囲の曲率を持って
いるという条件と、黒眼の左側に凹み形状を有する条
件と、黒眼の右側に凹み形状を有する条件とからな
る組み合わせにより設定している。そして、図14の
(b),(c)の例を許容するためにと、または
との条件を満たすものであっても良いものとする。
The eye template has a width of ⅔ or more of the average value of the eye and has a curvature in a predetermined range of upward convexity, and a condition of having a concave shape on the left side of the black eye. It is set by a combination of a condition having a concave shape on the right side of the black eye. Then, in order to allow the examples of (b) and (c) of FIG. 14, the conditions of and or may be satisfied.

【0060】S3209ではS3208の結果、候補オ
ブジェクトと眼テンプレートの幾何形状が一致するか否
かを判定する。候補オブジェクトと眼テンプレートの幾
何形状が一致する場合S3209YESには、S321
0でその候補オブジェクトを眼と判定しする。候補オブ
ジェクトと眼テンプレートの幾何形状が一致しない場合
S3209NOにはS3214でその候補オブジェクト
を眼ではないと判定しする。
In step S3209, as a result of step S3208, it is determined whether the geometric shapes of the candidate object and the eye template match. If the candidate object and the eye template have the same geometrical shape, S3209 returns YES to S321.
At 0, the candidate object is determined to be an eye. If the geometrical shapes of the candidate object and the eye template do not match, in S3209 NO, it is determined in S3214 that the candidate object is not an eye.

【0061】S3211では眼と判定された候補オブジ
ェクトの全体画像Gでの代表座標値Cをこの画像フレー
ムでの眼の座標としてメモリする。
In step S3211, the representative coordinate value C in the whole image G of the candidate object determined to be an eye is stored as the coordinate of the eye in this image frame.

【0062】S3212では眼だと判定された代表候補
点を含む微小画像IGを眼画像MGiとして画像メモリ
に保存する。
In S3212, the minute image IG including the representative candidate point determined to be the eye is stored in the image memory as the eye image MGi.

【0063】[顔の向きの検出処理](S5) 図15は、「顔の向き検出処理」S5を説明する概略フ
ローチャートである。まず、「眼判定処理」S32で眼
と判定した微小画像から、S51で眼の外周輪郭を検出
する。次いでS52で眼の目頭及び目尻の位置を検出す
る。S53で微小画像から円弧状ラインのピーク位置を
検出する。そして、S54で、目頭位置、目尻位置、ピ
ーク位置から顔の向きを示す顔の方向角θfを検出す
る。なお、本説明での処理対象は画像上の右側の目(運
転者の左目)とする。
[Face Orientation Detection Processing] (S5) FIG. 15 is a schematic flow chart for explaining the "face orientation detection processing" S5. First, in step S51, the outer contour of the eye is detected from the minute image that has been determined to be the eye in the "eye determination process" S32. Next, in S52, the positions of the inner and outer corners of the eye are detected. In S53, the peak position of the arc-shaped line is detected from the minute image. Then, in S54, the face direction angle θf indicating the face direction is detected from the inner corner of the eye, the outer corner of the eye, and the peak position. Note that the processing target in this description is the right eye on the image (the driver's left eye).

【0064】[眼の外周輪郭の検出](S51) 図18(a)は眼位置特定処理によって特定された眼位
置を中心とした微小画像MGiを示している。ここでの
微小画像は眼判定処理のS3212で画像メモリの保管
された微小画像MGiを用いるのが通常であるが、状況
に応じて、画像メモリに保管されている全体画像Gから
サイズの位置を再定義した微小画像を抽出して用いても
よい。
[Detection of Outer Edge Contour] (S51) FIG. 18A shows a minute image MGi centered on the eye position specified by the eye position specifying process. For the micro image here, the micro image MGi stored in the image memory in S3212 of the eye determination process is normally used, but depending on the situation, the size position from the whole image G stored in the image memory may be changed. The redefined micro image may be extracted and used.

【0065】図18(a)の微小画像を二値化閾値より
小さい画像を黒(濃度値0)、二値化閾値よりも大きい
ところを白(濃度値255)となるように二値化するこ
とによって、図18(b)の二値化画像bMGiを得る
ことができる。ここで行う二値化処理の二値化閾値は眼
判定処理で行った二値化処理に用いた二値化閾値と同じ
としてもよい。
The minute image of FIG. 18A is binarized so that an image smaller than the binarization threshold becomes black (density value 0) and a portion larger than the binarization threshold becomes white (density value 255). Thus, the binarized image bMGi of FIG. 18B can be obtained. The binarization threshold of the binarization process performed here may be the same as the binarization threshold used in the binarization process performed in the eye determination process.

【0066】図18(c)では得られた二値化画像の左
上から下向きに向かって画素値0の黒画素を検索する。
一番下の画素まで検索し終わったら一つ右の画素列を検
索していく。その画素列で最初に見つかった黒画素と最
後に見つかった黒画素をそれぞれの画素列について求め
ていくと図18(d)の様に眼の外周輪郭を得ることが
できる。
In FIG. 18C, a black pixel having a pixel value of 0 is searched downward from the upper left of the obtained binarized image.
When the search for the bottom pixel is completed, the pixel row on the right is searched. If the black pixel found first in the pixel row and the black pixel found last in the pixel row are obtained for each pixel row, the outer peripheral contour of the eye can be obtained as shown in FIG. 18D.

【0067】図16(a)は、図15の「眼の外周輪郭
の検出処理」S51を説明するフローチャートである。
まずS5101で、先に「眼判定処理」(図11のS3
212)で眼と判定した微小画像MGiを二値化して、
二値画像bMGiを画像メモリに保存する。次いで、S
5102で二値画像bMGiの左上に初期位置を設定す
る。S5103でY方向に二値画像bMGiのラインを
検索して、黒領域のライン上両端部の位置を検出して記
憶する。S5104で全ラインを終了したか否かを判定
し、全ライン終了していなければ、S5105でライン
を右へ(X方向)1つずらし、ライン内位置を最上部へ
設定し、S5103へ戻る。S5104で全ライン終了
していれば、眼の外周輪郭の検出処理は終了である。
FIG. 16A is a flow chart for explaining the "processing for detecting the outer peripheral contour of the eye" S51 in FIG.
First, in S5101, the “eye determination process” (S3 in FIG. 11 is performed first).
212) binarizes the minute image MGi determined to be the eye in
The binary image bMGi is saved in the image memory. Then S
At 5102, the initial position is set at the upper left of the binary image bMGi. In step S5103, the line of the binary image bMGi is searched in the Y direction, and the positions of both ends on the line of the black region are detected and stored. In S5104, it is determined whether or not all lines have been completed. If all lines have not been completed, in S5105, the line is shifted to the right (X direction) by one, the in-line position is set to the uppermost position, and the process returns to S5103. If all the lines have been completed in S5104, the detection processing of the outer peripheral contour of the eye is completed.

【0068】[眼の目頭・目尻の検出](S52) 眼の目頭・目尻の位置は、図19のように画像上の右側
の目の場合では外周輪郭線の左端が目頭、右端が目尻位
置となる。なお、平面座標として目頭、目尻位置を特定
する場合、図18(d)に示すように下側ラインの左右
端を目頭位置、目尻位置として、その座標を使う方法の
ほかに上側ラインの左右端を目頭位置、目尻位置とし
て、その座標を使う方法や上側ラインと下側ラインの左
右端の中点を目頭位置、目尻位置として、その座標を使
う方法もある。
[Detection of the inner and outer corners of the eye] (S52) Regarding the inner and outer corners of the eye, in the case of the right eye on the image as shown in FIG. 19, the left end of the outer contour line is the inner corner and the right end is the outer corner position. Becomes When the inner corner and the outer corner of the eye are specified as the plane coordinates, the left and right ends of the lower line are used as the inner corner and the outer corner of the eye as shown in FIG. There is also a method of using the coordinates as the eye inside and outside corner positions and a method of using the coordinates between the middle points of the left and right ends of the upper line and the lower line as the inside and outside corner positions.

【0069】図16(b)は、図15の「眼の目頭・目
尻の検出処理」S52を説明するフローチャートであ
る。まずS5201で、処理対象の微小画像が運転者の
左目か右目かを判定する。S5201で左目であれば、
眼の外周輪郭線の画像上の左端を目頭位置、眼の外周輪
郭線の画像上の右端を目尻位置とする。S5201で右
目であれば、眼の外周輪郭線の画像上の右端を目頭位
置、眼の外周輪郭線の画像上の左端を目尻位置とする。
FIG. 16 (b) is a flow chart for explaining the "eye inner / outer eye detection processing" S52 of FIG. First, in S5201, it is determined whether the micro image to be processed is the driver's left eye or right eye. If it is the left eye in S5201,
The left end on the image of the outer peripheral contour of the eye is the inner canthus position, and the right end on the image of the outer peripheral contour of the eye is the outer canthus position. If it is the right eye in S5201, the right end on the image of the outer peripheral contour line of the eye is the inner canthus position, and the left end on the image of the outer peripheral contour line of the eye is the outer canthus position.

【0070】[円弧状ラインのピーク位置検出](S5
3) 円弧状ラインとして上瞼を用いる場合、図19に示すよ
うに眼の外周輪郭のラインで上側ラインの最も高い位置
をピーク位置とすることができる。また図20のように
顔がカメラに対して正面を向いていないような場合、図
21に示すように画像上眼が傾き、必ずしも上側ライン
の高さ方向で最も高い位置がピーク位置とはならない。
このような場合も想定して目頭位置と目尻位置を結んだ
線分と眼の外周輪郭のラインで上側ラインの距離が最も
大きいところをピーク位置とすることもできる。
[Detection of peak position of arcuate line] (S5
3) When the upper eyelid is used as the arc-shaped line, the highest position of the upper line in the line of the outer peripheral contour of the eye can be set as the peak position as shown in FIG. When the face does not face the front of the camera as shown in FIG. 20, the eyes in the image are inclined as shown in FIG. 21, and the highest position in the height direction of the upper line does not necessarily become the peak position. .
In such a case as well, the peak position may be the position where the distance between the line segment connecting the inner and outer canthus position and the outer peripheral line of the eye and the upper line is the largest.

【0071】図17(a)は、図15の「円弧状ライン
のピーク位置検出処理」S53を説明するフローチャー
トである。まずS5301で、微小画像上の目頭位置と
目尻位置を通る直線HPを算出する。次いでS5302
で、円弧状ラインから直線HPまでの垂線の長さを算出
する。S5303で、垂線の長さが最大となる円弧状ラ
イン上の点の位置をピーク位置とする。
FIG. 17A is a flow chart for explaining the "peak position detection process for arcuate line" S53 of FIG. First, in step S5301, a straight line HP passing through the inner and outer canthus positions on the minute image is calculated. Then S5302
Then, the length of the perpendicular line from the arcuate line to the straight line HP is calculated. In S5303, the position of the point on the arc-shaped line where the length of the perpendicular is maximum is set as the peak position.

【0072】[顔の方向角θfの検出処理](S54) 図12,図19に示すように顔を正面に向けている場
合、円弧状ラインのピーク位置は眼のほぼ中心位置にあ
り、ピーク位置から目頭位置までの距離L2とピーク位
置から目尻位置までの距離L1はほぼ等しくなる。
[Face Direction Angle θf Detection Processing] (S54) When the face is directed to the front as shown in FIGS. 12 and 19, the peak position of the arc-shaped line is almost at the center position of the eye, and the peak The distance L2 from the position to the inner corner of the eye and the distance L1 from the peak position to the outer corner of the eye are almost equal.

【0073】次いで、図20に示すように顔が左(画像
中右)を向いている場合には、図21に示すように、左
目(画像中右側の眼)の円弧状ラインのピーク位置から
目頭位置までの距離L2は大きくなり、ピーク位置から
目尻位置までの距離L1は小さくなる。L1とL2の関
係をL2/L1というパラメータで表すと正面に顔があ
る場合はL2/L1は1となる。顔を右側に向けていく
とL2/L1は次第に小さくなっていき、顔がカメラに
対して真横を向いた時(顔が90度右向いたとき)に円
弧状ラインのピーク位置は目尻側に寄り、L2の長さは
0となるのでL2/L1は0となる。
Next, when the face is facing left (right in the image) as shown in FIG. 20, from the peak position of the arc-shaped line of the left eye (right eye in the image) as shown in FIG. The distance L2 to the inner corner of the eye increases, and the distance L1 from the peak position to the outer corner of the eye decreases. When the relationship between L1 and L2 is represented by a parameter L2 / L1, L2 / L1 becomes 1 when the face is in front. L2 / L1 becomes gradually smaller when the face is turned to the right, and the peak position of the arc-shaped line is toward the corner of the eye when the face is facing the side of the camera (when the face is facing 90 degrees to the right). On the other hand, since the length of L2 becomes 0, L2 / L1 becomes 0.

【0074】ただし、実際は顔の向きが右45度程度を
越えた後は右目は顔の陰に隠れてカメラには写らなくな
るため、本来の処理においては両目を監視する。眼に斜
視などの異常がなければ、左右両眼とも眼球は同様に動
くので、顔画像データである全体画像G上で一方の眼が
見えないときは、他方の眼のデータで処理を行う。
However, in reality, after the direction of the face exceeds about 45 degrees to the right, the right eye is hidden behind the face and does not appear in the camera. Therefore, both eyes are monitored in the original process. If there is no abnormality such as strabismus in the eyes, the eyeballs move in the same way for both the left and right eyes. Therefore, when one eye cannot be seen on the whole image G which is face image data, processing is performed using the data of the other eye.

【0075】反対に顔が左側を向いていくとL2/L1
は次第に大きくなっていき、顔がカメラに対して真横を
向いた時(顔が90度左向いたとき)に円弧状ラインの
ピーク位置は目頭側に寄りL1の長さは0となるのでL
2/L1は無限大となる。
On the contrary, when the face turns to the left side, L2 / L1
Becomes gradually larger, and the peak position of the arc-shaped line is closer to the inner canthus when the face is facing directly to the camera (when the face is facing 90 degrees to the left).
2 / L1 is infinite.

【0076】この関係を示したグラフを図22に示す。
このグラフを参照することにより、L2/L1から顔の
向き(顔の方向角)θfを求めることができる。ここ
で、顔の向きは、正面を向いた時を0度とし、右向き
(画像上左向き)を正、左向き(画像上右向き)を負の
角度としている。
A graph showing this relationship is shown in FIG.
By referring to this graph, the face direction (face direction angle) θf can be obtained from L2 / L1. Here, the direction of the face is 0 degrees when facing the front, the right direction (left direction on the image) is positive, and the left direction (right direction on the image) is negative angle.

【0077】図17(b)は、図15の「顔の方向角θ
fの検出処理」S54を示すフローチャートである。ま
ずS5401で、目頭から円弧状ラインのピーク位置ま
でのX方向の距離L2を算出する。S5402で、目尻
から円弧状ラインのピーク位置までのX方向の距離L1
を算出する。5403で、L2/L1を算出し、L2/
L1から図22のようなマップを検索して、顔の方向角
θfを求める。
FIG. 17B shows "face direction angle θ" of FIG.
15 is a flowchart showing "f detection processing" S54. First, in S5401, the distance L2 in the X direction from the inner corner of the eye to the peak position of the arcuate line is calculated. In S5402, the distance L1 in the X direction from the outer corner of the eye to the peak position of the arc-shaped line
To calculate. At 5403, L2 / L1 is calculated and L2 / L1 is calculated.
A map as shown in FIG. 22 is searched from L1 to obtain the direction angle θf of the face.

【0078】ここで例示した顔の向き検出処理は一例で
あり、この方法のほかにも両目の間隔から顔の向きを検
出する方法などが公知である。
The face orientation detection processing illustrated here is an example, and in addition to this method, a method of detecting the face orientation from the distance between both eyes is known.

【0079】[円弧状ラインのピーク位置検出処理]
(S6) 図3の「円弧状ラインのピーク位置検出処理」S6は、
「顔の向きの検出処理」S5中の「円弧状ラインのピー
ク位置検出処理」S53と同様にして行う。「顔の向き
検出処理」を本実施形態で説明した方法で処理した場合
は、「顔の向き検出処理」S5で検出された結果をメモ
リ上に残しておき、それを呼び出すことで円弧状ライン
のピーク位置を得ることができる。
[Peak position detection processing of arcuate line]
(S6) The "peak position detection process of arcuate line" S6 of FIG.
The processing is performed in the same manner as the "peak position detection processing of arcuate line" S53 in the "face orientation detection processing" S5. When the "face direction detection process" is processed by the method described in the present embodiment, the result detected in the "face direction detection process" S5 is left in the memory and is called to generate an arc line. The peak position of can be obtained.

【0080】[瞳位置の検出処理I](S7a) 図3の「瞳位置の検出処理」S7の第1の方法について
図23(a)のフローチャートと図25(a)とを用い
て説明する。
[Pupil position detection process I] (S7a) The first method of the "pupil position detection process" S7 of FIG. 3 will be described with reference to the flowchart of FIG. 23 (a) and FIG. 25 (a). .

【0081】図18(d)で説明したように、眼の外周
輪郭ラインの下凸となった部分が瞳であるので、図25
(a)に示すように、眼全体でみると上側ラインと下側
ラインの最も間隔が広い部分の中点(2等分点)を瞳位
置とする。なお、平面座標として瞳位置を検出する場合
は横方向の瞳位置の座標位置を上記方法で求めた後、そ
の位置での上側ラインと下側ラインの中点を縦方向の瞳
位置の座標を用いることができる。
As described with reference to FIG. 18D, the downward convex portion of the outer peripheral contour line of the eye is the pupil.
As shown in (a), the pupil position is the midpoint (bisecting point) of the portion where the upper line and the lower line have the widest distance when viewed from the entire eye. When detecting the pupil position as a plane coordinate, after obtaining the coordinate position of the lateral pupil position by the above method, the midpoint of the upper line and the lower line at that position is set to the coordinate of the vertical pupil position. Can be used.

【0082】まず、S71において、先の「眼の位置特
定処理」S3によって特定された眼位置を中心とした微
小画像である眼画像MGiを呼び出す。次いでS72で
眼の外周輪郭のラインを検出する。次いで、S73で、
眼の外周輪郭の上側ラインと下側ラインの最も間隔が広
い部分の中点(2等分点)を瞳位置とする。
First, in S71, the eye image MGi, which is a minute image centered on the eye position specified in the above "eye position specifying process" S3, is called. Next, in S72, the line of the outer peripheral contour of the eye is detected. Then, in S73,
The pupil position is the midpoint (bisecting point) of the portion with the widest distance between the upper line and the lower line of the outer peripheral contour of the eye.

【0083】「顔の向き検出処理」を本実施形態で説明
した方法で処理した場合は、「顔の向き検出処理」S5
で検出された結果をメモリ上に残しておき、それを呼び
出すことで外周輪郭のラインを得ることができる。ま
た、顔の向き検出処理を本実施形態で説明した方法以外
の公知の方法で行った場合は「顔の向き検出処理」S5
中の「眼の外周輪郭の検出処理」S51で説明した方法
を行うことで、外周輪郭のラインを新たに得ることがで
きる。
When the "face orientation detection process" is processed by the method described in this embodiment, the "face orientation detection process" S5
By leaving the result detected in step 3 on the memory and calling it, the line of the outer peripheral contour can be obtained. If the face orientation detection processing is performed by a known method other than the method described in the present embodiment, "face orientation detection processing" S5
By performing the method described in the "processing for detecting the outer peripheral contour of the eye" S51, a line of the outer peripheral contour can be newly obtained.

【0084】なお、平面座標として瞳位置を検出する場
合は横方向の瞳位置の座標位置を上記方法で求めた後、
その位置での上側ラインと下側ラインの中点を縦方向の
瞳位置の座標を用いることができる。
When the pupil position is detected as plane coordinates, after the coordinate position of the pupil position in the lateral direction is obtained by the above method,
The coordinates of the pupil position in the vertical direction can be used as the midpoint between the upper line and the lower line at that position.

【0085】[瞳位置の検出処理II](S7b) 図3の「瞳位置の検出処理」S7の第2の方法について
図23(b)のフローチャートと図25(b)を用いて
説明する。
[Pupil Position Detection Processing II] (S7b) The second method of the "pupil position detection processing" S7 of FIG. 3 will be described with reference to the flowchart of FIG. 23 (b) and FIG. 25 (b).

【0086】検出された眼の外周輪郭のラインで上側ラ
インは上凸形状のラインとなり、下側ラインは上凸のラ
インと下凸のラインの組み合わせによって構成されてい
る。通常は眼の両側では上凸となり、ラインの真ん中で
大きく下凸となる。第2の方法では、図25(b)に示
すように下側ラインの上凸ラインから下凸ラインへと変
化する変曲点を2つ検出し、これら検出した2つの変曲
点を結んだ線分の中点位置を瞳位置とする。
In the line of the detected outer peripheral contour of the eye, the upper line is an upward convex line, and the lower line is a combination of an upward convex line and a downward convex line. Usually, it is convex on both sides of the eye and largely convex in the middle of the line. In the second method, as shown in FIG. 25 (b), two inflection points that change from an upward convex line to a downward convex line on the lower line are detected, and these detected inflection points are connected. The midpoint position of the line segment is the pupil position.

【0087】図23(b)において、まず第1の方法と
同様にS71,S72で眼の外周輪郭の検出を行う。次
いでS75で、眼の外周輪郭ラインの下側ラインの上凸
ラインから下凸ラインへと変化する変曲点を2つ検出す
る。次いで、S76で、これら2つの変曲点を結んだ線
分の中点位置を瞳位置とする。
In FIG. 23B, first, similarly to the first method, the outer peripheral contour of the eye is detected in S71 and S72. Next, in S75, two inflection points that change from the upward convex line to the downward convex line on the lower side of the outer peripheral contour line of the eye are detected. Next, in S76, the midpoint position of the line segment connecting these two inflection points is set as the pupil position.

【0088】ただし、瞳が大きく左右のどちら側かによ
っている場合や画像の状態がよくなく目頭側もしくは目
尻側のどちら側が二値化処理の段階で欠損するような場
合もある。この場合は目頭側もしくは目尻側のいずれか
の上凸ラインが消えて、消えた方の上凸ラインの変曲点
が抽出できない場合がある。その場合は片側の変曲点
と、変曲点が抽出できなかった側の端部を結んだ線分の
中点位置を瞳位置とすることができる。なお、平面座標
として瞳位置を検出する場合は横方向の瞳位置の座標位
置を上記方法で求めた後、その位置での上側ラインと下
側ラインの中点を縦方向の瞳位置の座標を用いることが
できる。
However, there are cases in which the pupil is large depending on which side, left or right, or the state of the image is not good, and either side of the inner corner of the eye or the outer corner of the eye is lost during the binarization process. In this case, the upward convex line on either the inner or outer side of the eye may disappear, and the inflection point of the disappearing upper convex line may not be extracted. In that case, the pupil position can be the midpoint position of the line segment connecting the inflection point on one side and the end on the side where the inflection point could not be extracted. When detecting the pupil position as a plane coordinate, after obtaining the coordinate position of the lateral pupil position by the above method, the midpoint of the upper line and the lower line at that position is set to the coordinate of the vertical pupil position. Can be used.

【0089】[瞳位置の検出処理III ](S7c) 図3の「瞳位置の検出処理」S7の第3の方法について
図24(a)のフローチャートと図25(c)とを用い
て説明する。
[Pupil Position Detection Processing III] (S7c) The third method of "pupil position detection processing" S7 in FIG. 3 will be described with reference to the flowchart of FIG. 24 (a) and FIG. 25 (c). .

【0090】第3の方法では、図25(c)に示すよう
に微小画像の中から楕円成分を抽出して、その楕円の中
心を瞳位置として検出する。
In the third method, an ellipse component is extracted from the minute image as shown in FIG. 25 (c), and the center of the ellipse is detected as the pupil position.

【0091】図24(a)において、まず第1の方法と
同様にS71,S72で眼の外周輪郭の検出を行う。次
いで、S77で眼の外周輪郭から楕円成分を抽出する。
S78で楕円の中心を瞳位置とする。S77の楕円成分
の抽出方法には、ハフ変換や画像処理による領域分割や
最小二乗法による楕円方程式への近似などがある(参考
「マルチカメラによる視線検出のための顔部品抽出」第
6回画像センシングシンポジウム講演論文集P347の
瞳抽出方法)。
In FIG. 24A, first, similarly to the first method, the outer peripheral contour of the eye is detected in S71 and S72. Next, in S77, an elliptical component is extracted from the outer peripheral contour of the eye.
In S78, the center of the ellipse is set as the pupil position. The method of extracting the ellipse component in S77 includes region division by Hough transform and image processing, approximation to the elliptic equation by the least squares method, etc. Sensing Symposium Proceedings P347 Pupil Extraction Method).

【0092】[眼球の回転角検出処理I](S8) 次に、図3の「眼球の回転角検出処理I」S8を説明す
る。この眼球の回転角検出処理は、「円弧状ラインのピ
ーク位置検出処理」S6で求めたピーク位置と、「瞳位
置の検出処理」S7で求めた瞳位置とを使用して、眼球
の回転角θpを検出する。
[Eyeball Rotation Angle Detection Process I] (S8) Next, the "eyeball rotation angle detection process I" S8 of FIG. 3 will be described. In this eyeball rotation angle detection processing, the eyeball rotation angle is calculated using the peak position obtained in "arc line peak position detection processing" S6 and the pupil position obtained in "pupil position detection processing" S7. θp is detected.

【0093】ここで、円弧状ラインのピーク位置から瞳
の中心までの距離をL3とする。図19に示すように瞳
が顔の正面方向を向いている場合は、瞳中心と円弧状ラ
インのピーク位置はほぼ一致するためL3は0となる。
図26のように眼球を動かし顔の正面方向を見ていない
ときは図27(a)のように、L3の値(絶対値)は大
きくなる。また、図20のように顔がカメラに対して正
面を向いていない場合でも図21に示すように瞳が顔の
正面方向を向いている場合は、瞳中心と円弧のピーク位
置はほぼ一致するためL3は0となる。眼球を動かし顔
の正面方向を見ていないときは図27(b)のように、
L3の値(絶対値)は大きくなる。
Here, the distance from the peak position of the arcuate line to the center of the pupil is L3. When the pupil faces the front direction of the face as shown in FIG. 19, L3 is 0 because the center of the pupil and the peak position of the arc-shaped line substantially coincide with each other.
When the eyeball is moved and the front direction of the face is not seen as shown in FIG. 26, the value (absolute value) of L3 becomes large as shown in FIG. Further, even when the face is not facing the front of the camera as shown in FIG. 20, when the pupil is facing the front of the face as shown in FIG. 21, the center of the pupil and the peak position of the arc substantially coincide with each other. Therefore, L3 becomes 0. When the eyeball is moved and the front direction of the face is not seen, as shown in FIG. 27 (b),
The value (absolute value) of L3 becomes large.

【0094】画像上顔の正面より右側に眼球を向けた時
のL3の値を正とすると、L3と眼球の回転角θpとの
関係は、L2/L1をパラメータとして、図28のよう
になる。従って、L3と、先に「顔の方向角θfの検出
処理」S54で求めたL2/L1とから、図28に示し
たようなマップを参照することにより、眼球の回転角θ
pを求めることができる。なお、眼球の回転移動範囲は
正面から左右約43度までの範囲である。
When the value of L3 when the eyeball is directed to the right side from the front of the face on the image is positive, the relationship between L3 and the rotation angle θp of the eyeball is as shown in FIG. 28 with L2 / L1 as a parameter. . Therefore, by referring to the map as shown in FIG. 28 from L3 and L2 / L1 previously obtained in the “detection process of the face direction angle θf” S54, the eye rotation angle θ
p can be obtained. In addition, the rotational movement range of the eyeball is a range from the front to the left and right about 43 degrees.

【0095】図24(b)は、図3の「眼球の回転角検
出処理」S8を説明するフローチャートである。まずS
81で円弧状ラインのピーク位置から瞳の中心位置まで
の距離L3を算出する。次いで図28に示したようなマ
ップを参照して、L2/L1とL3から眼球の回転角θ
pを求める。
FIG. 24B is a flow chart for explaining the "eyeball rotation angle detection process" S8 of FIG. First S
At 81, the distance L3 from the peak position of the arc-shaped line to the center position of the pupil is calculated. Next, referring to the map as shown in FIG. 28, the rotation angle θ of the eyeball is calculated from L2 / L1 and L3.
Find p.

【0096】[視線方向の算出処理](S9) 次に、図3の「視線方向の算出処理」S9を図24
(c)のフローチャートを参照して説明する。視線方向
は、「顔の向き検出処理」S5で求めた顔の方向角θf
と、「眼球の回転角検出処理I」S8で求めた眼球の回
転角θpとを合成した方向であるので、S91で眼球の
回転角θpと顔の方向角θfとを加算して視線方向とす
る。
[Gaze Direction Calculation Processing] (S9) Next, the “gaze direction calculation processing” S9 of FIG.
This will be described with reference to the flowchart of (c). The line-of-sight direction is the direction angle θf of the face obtained in the “face direction detection process” S5.
And the rotation angle θp of the eyeball obtained in “Eye rotation angle detection processing I” S8 are combined. Therefore, in S91, the rotation angle θp of the eyeball and the direction angle θf of the face are added to obtain the line-of-sight direction. To do.

【0097】次に、上記の第1実施形態の効果を説明す
る。
Next, the effect of the first embodiment will be described.

【0098】(イ)単に眼球の方向だけで視線方向を検
出するのではなく、顔の向きと眼球の回転角から視線方
向を検出しているので、視線方向を検出できるようにな
り、検出精度を一層向上させることができる。
(A) The line-of-sight direction can be detected because the line-of-sight direction is detected not only by the direction of the eyeball but by the direction of the face and the angle of rotation of the eyeball. Can be further improved.

【0099】(ロ)眼球回転角検出手段として、顔画像
の円弧状ラインを見つけそのピーク位置を検出する円弧
状ラインピーク位置検出手段と、瞳の位置を検出する瞳
位置検出手段とを備えて、瞳位置とピーク位置との距離
から眼球回転角を検出しているため、視線位置の基本と
なる瞳を基準にして視線角度を検出できるようになり、
検出精度を一層向上させることができる。また、円弧状
ラインピーク位置から眼の中心位置を検出しているた
め、人間の顔の特徴を捉えてより正確な検出を行うこと
ができる。
(B) As the eyeball rotation angle detecting means, arc-shaped line peak position detecting means for detecting an arc-shaped line of the face image and detecting the peak position thereof, and pupil position detecting means for detecting the position of the pupil are provided. Since the eyeball rotation angle is detected from the distance between the pupil position and the peak position, it becomes possible to detect the line-of-sight angle based on the pupil that is the basis of the line-of-sight position.
The detection accuracy can be further improved. Further, since the center position of the eye is detected from the arc-shaped line peak position, it is possible to capture the features of the human face and perform more accurate detection.

【0100】(ハ)顔画像から眼の位置を特定する際
に、顔画像から眼の候補位置を特定する眼の候補位置特
定処理を行い、この部分を中心とした微小画像から眼か
否かを判定しているため、演算処理量を少なくすること
ができ、処理を迅速に行うことができる。
(C) When the eye position is specified from the face image, the eye candidate position specifying process for specifying the candidate position of the eye from the face image is performed, and whether or not it is the eye from the micro image centering on this part Since it is determined that the calculation processing amount can be reduced, the processing can be performed quickly.

【0101】(ニ)目頭・目尻位置を検出する際に、眼
の輪郭を検出し、輪郭から目頭・目尻位置を特定してい
るため、眼の形状に合わせた正確な検出を行うことがで
き、視線方向検出精度を一層向上させることができる。
(D) When detecting the inner and outer corners of the eye, the contour of the eye is detected, and the inner and outer corners of the eye are specified from the contour. Therefore, accurate detection can be performed according to the shape of the eye. Therefore, the accuracy of detecting the line-of-sight direction can be further improved.

【0102】(ホ)瞳位置を検出する際に、眼の輪郭の
縦方向に最も広い位置の中心を瞳の中心としたため、人
体の眼の特徴に合わせて瞳位置の正確な検出を行うこと
ができ、視線方向検出精度を一層向上させることができ
る。
(E) Since the center of the widest position in the vertical direction of the contour of the eye is the center of the pupil when detecting the pupil position, accurate detection of the pupil position should be performed according to the characteristics of the human eye. Therefore, it is possible to further improve the gaze direction detection accuracy.

【0103】(へ)瞳位置を検出する際に、眼の輪郭の
下側ラインの変曲点を2箇所検出し、その中心位置を瞳
の中心位置としているため、単に眼の輪郭から決めるの
でなく、黒目の要素も考慮して瞳位置の正確な検出を行
うことができ、視線方向検出精度を一層向上させること
ができる。
(V) When detecting the pupil position, two inflection points on the lower line of the eye contour are detected, and the center position is set as the center position of the pupil. Therefore, the inflection point is simply determined from the eye contour. In addition, the pupil position can be accurately detected in consideration of the black eye element, and the gaze direction detection accuracy can be further improved.

【0104】(ト)瞳位置を検出する際に、微小画像の
楕円形状のオブジェクトの中心位置から瞳位置を決定し
ているため、眼の位置を正確に推定することができ、視
線方向検出精度を一層向上させることができる。
(G) When detecting the pupil position, since the pupil position is determined from the center position of the elliptical object in the minute image, the eye position can be accurately estimated, and the eye-gaze direction detection accuracy can be improved. Can be further improved.

【0105】(チ)円弧状ラインのピーク位置検出にお
いて、円弧状ラインの高さが最も高い位置をピーク位置
としているため、人体の特性に合わせた正確な眼の位置
検出を行うことができ、視線方向検出精度を一層向上さ
せることができる。
(H) In detecting the peak position of the arcuate line, since the position where the height of the arcuate line is the highest is the peak position, it is possible to accurately detect the eye position according to the characteristics of the human body. The gaze direction detection accuracy can be further improved.

【0106】(リ)円弧状ラインのピーク位置検出にお
いて、円弧状ラインの両端を結ぶ線分に対する円弧状ラ
インからの垂線の長さが最も長い位置をピーク位置とし
ているため、ピーク位置の検出を正確に行うことがで
き、視線方向検出精度を一層向上させることができる。
(B) In detecting the peak position of the arc-shaped line, the peak position is the position where the length of the perpendicular line from the arc-shaped line to the line segment connecting both ends of the arc-shaped line is the longest. This can be performed accurately, and the gaze direction detection accuracy can be further improved.

【0107】(ヌ)円弧状ラインを検出する顔部位とし
て、上下の瞼、上下眼鏡フレーム、眉の何れかを用いた
ため、人体や装着品として特徴的な項目を用いることが
でき、円弧状ラインの検出を確実に行うことができ、視
線方向検出精度を一層向上させることができる。
(V) Since any of the upper and lower eyelids, the upper and lower eyeglass frames, and the eyebrows is used as the face part for detecting the arcuate line, it is possible to use a characteristic item as a human body or a wearable item. Can be reliably detected, and the gaze direction detection accuracy can be further improved.

【0108】(ル)瞳径検出において、微小画像から楕
円状のオブジェクトを検出し、この楕円状オブジェクト
の横径と縦径とを瞳の横径と縦径に見立てたため、瞳自
体の径を計測する必要が無く、より簡易な構成で検出す
ることができる。
(L) In the pupil diameter detection, an elliptical object is detected from a minute image, and the horizontal and vertical diameters of this elliptical object are regarded as the horizontal and vertical diameters of the pupil. There is no need to measure, and detection can be performed with a simpler configuration.

【0109】〔第2実施形態〕図29は、本発明に係る
視線方向検出装置の第2実施形態の構成を説明するブロ
ック図である。同図において、視線方向検出装置は、顔
画像を撮像する顔画像撮像手段CL1と、顔画像撮像手
段CL1によって撮像された顔画像から画像上の眼の位
置を特定する眼位置特定手段CL2と、顔画像撮像手段
CL1によって撮像された顔画像から眼球の回転角を検
出する眼球回転角検出手段CL4と、顔画像撮像手段C
L1によって撮像された顔画像から顔の向きを検出する
顔の向き検出手段CL3と、眼球回転角検出手段CL4
によって検出された眼球の回転角と顔の向き検出手段C
L3によって検出された顔の向きから視線方向を算出す
る視線方向算出手段CL5とを備えている。
[Second Embodiment] FIG. 29 is a block diagram for explaining the configuration of the second embodiment of the gaze direction detecting device according to the present invention. In the figure, the line-of-sight direction detecting device includes a face image capturing unit CL1 that captures a face image, and an eye position identifying unit CL2 that identifies the position of an eye on the image from the face image captured by the face image capturing unit CL1. Eye rotation angle detection means CL4 for detecting the rotation angle of the eyeball from the face image captured by the face image capturing means CL1, and face image capturing means C
Face orientation detecting means CL3 for detecting the orientation of the face from the face image captured by L1, and eyeball rotation angle detecting means CL4.
Rotation angle of eyeball and face orientation detection means C detected by
And a line-of-sight direction calculating means CL5 for calculating the line-of-sight direction from the face direction detected by L3.

【0110】顔画像撮像手段CL1は、運転者またはオ
ペレータ等の顔を撮像して顔画像データを出力するTV
カメラ等の撮像手段である。眼位置特定手段CL2は、
顔画像撮像手段CL1から出力された顔画像データを処
理して、画像上の眼の位置を特定する。
The face image pickup means CL1 is a TV for picking up a face of a driver or an operator and outputting face image data.
It is an imaging means such as a camera. The eye position specifying means CL2 is
The face image data output from the face image capturing means CL1 is processed to identify the position of the eye on the image.

【0111】顔の向き検出手段CL3は、顔画像撮像手
段CL1から出力された顔画像データを処理して顔画像
撮像手段CL1の光軸ラインを正面とした顔の向きを検
出する。
The face orientation detecting means CL3 processes the face image data output from the face image capturing means CL1 to detect the face orientation with the optical axis line of the face image capturing means CL1 as the front.

【0112】眼球回転角検出手段CL4は、さらに瞳位
置検出手段CL41と、円弧状ラインのピーク位置検出
手段CL42と、瞳径検出手段CL43とを備えて構成
されている。
The eyeball rotation angle detecting means CL4 is further provided with a pupil position detecting means CL41, a peak position detecting means CL42 of an arcuate line, and a pupil diameter detecting means CL43.

【0113】瞳位置検出手段CL41は、眼位置特定手
段CL2で特定された眼の位置を中心とした微小画像を
画像処理することによって瞳の位置を検出する。
The pupil position detecting means CL41 detects the position of the pupil by image-processing the micro image centered on the eye position specified by the eye position specifying means CL2.

【0114】円弧状ラインのピーク位置検出手段CL4
2は、上瞼、下瞼、眉毛、眼鏡の上フレーム、眼鏡の下
フレームなど視線の基準となる円弧状ラインの検出を行
い、その中から円弧状ラインのピーク位置を求める。本
実施形態では上瞼での場合のみ説明するが他の部位につ
いても同様の処理を行うことで検出することができる。
Peak position detecting means CL4 for arcuate line
Reference numeral 2 detects an arc-shaped line that serves as a reference line of sight such as the upper eyelid, the lower eyelid, the eyebrow, the upper frame of the spectacles, the lower frame of the spectacles, and obtains the peak position of the arc-shaped line from them. In the present embodiment, only the case of the upper eyelid will be described, but other parts can be detected by performing similar processing.

【0115】瞳径検出手段CL43は眼位置特定手段C
L2で特定された眼の位置を中心とした微小画像を画像
処理することによって画像上の瞳の横径および縦径を検
出する。
The pupil diameter detecting means CL43 is the eye position specifying means C.
The lateral and longitudinal diameters of the pupil on the image are detected by performing image processing on the minute image centered on the eye position specified by L2.

【0116】眼球回転角検出手段CL4は、瞳位置検出
手段CL41で検出された瞳の位置と円弧状ラインのピ
ーク位置検出手段CL42の円弧状ラインのピーク位置
から瞳がピーク位置に対して左右どちら側にあるかを検
出し、瞳のピーク位置に対する位置と瞳径検出手段CL
43で検出された画像上の瞳の横径および縦径から眼球
の回転角を検出する。
The eyeball rotation angle detecting means CL4 determines whether the position of the pupil detected by the pupil position detecting means CL41 or the peak position of the arc-shaped line of the arc-shaped line peak position detecting means CL42 is the left or right of the pupil relative to the peak position. It is detected whether or not it is on the side, and the position with respect to the peak position of the pupil and the pupil diameter detection means CL
The rotation angle of the eyeball is detected from the horizontal and vertical diameters of the pupil on the image detected at 43.

【0117】[機器の配置]本発明の機器の配置、顔画
像撮像手段CL1としてTVカメラ1は第1実施形態と
同じであるので省略する。
[Arrangement of Equipment] The arrangement of equipment according to the present invention and the TV camera 1 as the face image pickup means CL1 are the same as those in the first embodiment, and therefore the description thereof will be omitted.

【0118】マイクロコンピュータ2は、TVカメラ1
から入力された画像データを記憶する画像メモリを備え
ている。さらにマイクロコンピュータ2には、この画像
データを処理して視線方向を検出するために、眼位置特
定手段CL2と、顔の向き検出手段CL3と、瞳位置検
出手段CL41と、円弧状ラインピーク位置検出手段C
L42と、瞳径検出手段CL43と、視線方向算出手段
CL5とを実現するロジックがプログラミングされてい
る。
The microcomputer 2 is the TV camera 1
An image memory for storing the image data input from is provided. Further, the microcomputer 2 processes the image data to detect the line-of-sight direction, the eye position specifying means CL2, the face direction detecting means CL3, the pupil position detecting means CL41, and the arc-shaped line peak position detection. Means C
Logic for implementing L42, pupil diameter detection means CL43, and line-of-sight direction calculation means CL5 is programmed.

【0119】[システム全体の処理]図30は、システ
ムの全体の処理の流れを説明する概略フローチャートで
ある。まず、処理が開始されると、S1で、「初期値入
力」の処理が実行され、マイクロコンピュータの作業エ
リアの初期化や各種パラメータの初期値の設定が行われ
る。
[Processing of Entire System] FIG. 30 is a schematic flowchart for explaining the flow of the entire processing of the system. First, when the process is started, the process of "initial value input" is executed in S1, and the work area of the microcomputer is initialized and the initial values of various parameters are set.

【0120】S2の「顔画像の撮像処理」ではTVカメ
ラ1で顔画像を撮像し、マイクロコンピュータ2に画像
データとして入力する。
In the "face image pickup process" in S2, the TV camera 1 picks up a face image and inputs it to the microcomputer 2 as image data.

【0121】S3の「眼の位置特定処理」ではマイクロ
コンピュータ2に入力された画像データを画像処理する
ことによって顔画像上の眼の位置を特定する。
In the "eye position specifying process" of S3, the position of the eye on the face image is specified by performing image processing on the image data input to the microcomputer 2.

【0122】S4ではS3の出力結果をもとに顔画像上
に眼が特定できればS4YES、S5へ処理を進め、顔
画像上に眼が特定できなければS4NO、S2へ処理を
戻し、眼が特定できるまでS2からS4までの処理を繰
り返す。
In S4, if the eyes can be identified on the face image based on the output result of S3, the process proceeds to S4 YES and S5. If the eyes cannot be identified on the face image, the process returns to S4 NO and S2 to identify the eyes. The processes from S2 to S4 are repeated until it is possible.

【0123】S6の「円弧状ラインピーク位置検出処
理」では、S3で特定された眼の位置を中心とする顔画
像の部分画像である微小画像(微小エリアとも呼ぶ)を
画像処理することで微小画像上の円弧状ライン及びその
ピーク位置を検出する。
In the "arc-shaped line peak position detection processing" in S6, a minute image (also called a minute area) which is a partial image of the face image centered on the eye position specified in S3 is subjected to image processing to obtain a minute image. The arc line and its peak position on the image are detected.

【0124】S7の「瞳位置の検出処理」では、S3で
特定された眼の位置を中心とする微小エリアを画像処理
することで画像上の瞳の位置を検出する。
In the "pupil position detection process" of S7, the position of the pupil on the image is detected by image-processing the micro area centered on the eye position specified in S3.

【0125】S5の「顔の向き検出処理」では、マイク
ロコンピュータ2に入力された画像データを画像処理す
ることによって、顔画像撮像手段の光軸方向に対する画
像上の顔の向きを検出する。
In the "face orientation detection process" of S5, the orientation of the face on the image with respect to the optical axis direction of the face image capturing means is detected by image processing the image data input to the microcomputer 2.

【0126】S10の「瞳径の検出処理」では、S3で
特定された眼の位置を中心とする微小エリアを画像処理
することで画像上の瞳の横径と縦径を検出する。
In the "pupil diameter detection process" of S10, the lateral and vertical diameters of the pupil on the image are detected by image-processing the micro area centered on the eye position specified in S3.

【0127】S11の「眼球の回転角検出処理II」で
は、S10で検出した画像上の瞳の横径と縦径とから眼
球の回転角θpを検出する。
In the "eyeball rotation angle detection process II" of S11, the rotation angle θp of the eyeball is detected from the horizontal and vertical diameters of the pupil on the image detected in S10.

【0128】S9の「視線方向の算出処理」では、S5
で検出した顔の向きとS11で検出した眼球の回転角か
ら視線方向を算出して処理を終了する。
In the "line-of-sight direction calculation process" in S9, S5
The line-of-sight direction is calculated from the face orientation detected in S11 and the rotation angle of the eyeball detected in S11, and the process ends.

【0129】[眼の位置特定処理](S3) 第1実施形態の「眼の位置特定処理」S3と同じなので
説明は省略する。
[Eye Position Specifying Process] (S3) Since it is the same as the “eye position specifying process” S3 of the first embodiment, description thereof will be omitted.

【0130】[瞳位置の検出処理](S7) 第1実施形態の「瞳位置の検出処理」S7と同じなので
説明は省略する。
[Pupil Position Detection Processing] (S7) Since it is the same as the "pupil position detection processing" S7 of the first embodiment, description thereof will be omitted.

【0131】[円弧状ラインのピーク位置検出処理]
(S6) 第1実施形態の「円弧状ラインのピーク位置検出処理」
S6、及び「顔の向き検出処理」中の「円弧状ラインの
ピーク位置検出処理」S53と同じなので説明は省略す
る。
[Peak position detection processing of arcuate line]
(S6) "Peak position detection process of arcuate line" of the first embodiment
Since it is the same as S6 and "Peak position detection process of arcuate line" in "Face orientation detection process" S53, description thereof will be omitted.

【0132】[顔の向き検出処理](S5) 第1実施形態の「顔の向き検出処理」S5と同じなので
説明は省略する。
[Face Orientation Detecting Process] (S5) Since it is the same as the "face direction detecting process" S5 of the first embodiment, description thereof will be omitted.

【0133】[瞳径の検出処理](S10) 瞳径の検出処理方法について説明する。まず微小画像の
中から楕円成分を抽出する。瞳位置の検出処理で第3の
方法を用いている場合はそのときの検出結果をメモリに
保存しておき、保存されている結果を呼び出すことで処
理を簡素化することができる。瞳位置の検出処理で第3
の方法以外の方法を用いている場合は、瞳位置検出処理
で第3の方法と同様に、ハフ変換や画像処理による領域
分割や最小二乗法による楕円方程式への近似などで楕円
成分を微小画像の中から抽出する。次に抽出された楕円
成分の縦径および横径を瞳の縦径と横径とする。
[Pupil Diameter Detection Processing] (S10) The pupil diameter detection processing method will be described. First, the ellipse component is extracted from the minute image. When the third method is used in the pupil position detection process, the detection result at that time is stored in the memory, and the stored result is called to simplify the process. Third in the pupil position detection process
When a method other than the above method is used, the ellipse component is subjected to the micro image by the Hough transform, the area division by the image processing, the approximation to the elliptic equation by the least square method, or the like as in the third method in the pupil position detection processing. Extract from inside. Next, the vertical and horizontal diameters of the extracted ellipse component are the vertical and horizontal diameters of the pupil.

【0134】図31(a)は、瞳径の検出処理を説明す
るフローチャートである。まずS71で眼画像MGiを
呼び出す。次いでS72で眼の外周輪郭を検出する。S
77で眼の外周輪郭から楕円成分を抽出する。S78で
楕円の中心を瞳位置とする。S101で、楕円の縦径、
横径の長さを求め、楕円の縦径を瞳の縦径、楕円の横径
を瞳の横径とする。
FIG. 31A is a flow chart for explaining the pupil diameter detection processing. First, in S71, the eye image MGi is called. Next, in S72, the outer peripheral contour of the eye is detected. S
At 77, an ellipse component is extracted from the outer peripheral contour of the eye. In S78, the center of the ellipse is set as the pupil position. In S101, the vertical diameter of the ellipse,
The length of the horizontal diameter is obtained, and the vertical diameter of the ellipse is the vertical diameter of the pupil, and the horizontal diameter of the ellipse is the horizontal diameter of the pupil.

【0135】[眼球の回転角検出処理II](S11) 図32(a)、図32(b)はそれぞれ図20のような
顔をカメラの光軸正面から画像内の方向で右方向に顔を
向けた場合で瞳が顔の正面を見ている場合と瞳が顔の正
面に対して画像上で左方向を見ている場合を示してい
る。
[Eye Rotation Angle Detection Processing II] (S11) FIGS. 32 (a) and 32 (b) respectively show a face as shown in FIG. 20 facing the right side in the direction from the front of the optical axis of the camera. 3 shows a case where the pupil is looking at the front of the face and a case where the pupil is looking leftward on the image with respect to the front of the face.

【0136】この図からわかるように、瞳がカメラ正面
にある場合が横径が最も広くなり、カメラ正面から左右
に離れるに従って横径が小さくなり、画像上の瞳の形状
は縦長になっていく。この傾向は顔がカメラ正面を見て
いる場合よりカメラの光軸正面に対して左右方向に大き
く向けるほど大きくなっていく。顔の向きがある程度カ
メラの光軸正面に対して大きく左右に向けられると、顔
を向けた方向と同じ方向に眼球を動かしていくと瞳の画
像上の横径は細くなっていき、最後はカメラの視界から
消えてしまう。
As can be seen from this figure, the lateral diameter is widest when the pupil is in front of the camera, becomes smaller as the distance from the camera front to the left and right, and the shape of the pupil on the image becomes vertically long. . This tendency becomes larger as the face is facing the front of the camera optical axis than when the face is looking at the front of the camera. When the face is oriented to the left and right with respect to the front of the optical axis of the camera to some extent, the horizontal diameter on the pupil image becomes narrower as the eyeball is moved in the same direction as the face, and finally, It disappears from the view of the camera.

【0137】瞳の横径をLH、瞳の縦径をLVとし、瞳
の画像上の形状を縦長比LV/LHで表すと縦長比LV
/LHと眼球の回転角θpとの間には図33のような関
係が得られる。これにより眼のピーク位置に対する瞳の
位置と瞳の画像上の形状を縦長比LV/LHから眼球の
回転角θpを求めることができる。
If the horizontal diameter of the pupil is LH and the vertical diameter of the pupil is LV, and the shape of the pupil on the image is represented by the vertical ratio LV / LV, then the vertical ratio LV.
A relationship as shown in FIG. 33 is obtained between / LH and the rotation angle θp of the eyeball. Thereby, the rotation angle θp of the eyeball can be obtained from the aspect ratio LV / LH of the position of the pupil with respect to the peak position of the eye and the shape of the pupil on the image.

【0138】図31(b)は、「眼球の回転角検出処理
II」S11を説明する詳細フローチャートである。まず
S111で瞳の縦径LV、瞳の横径LHから、縦横比L
V/LHを算出する。次いでS112で縦横比LV/L
Hと、顔の向き検出処理で求めたL2/L1とから図3
3のようなマップを参照して、眼球の回転角θpを求め
る。
FIG. 31B shows "Eyeball rotation angle detection processing".
II ”S11 is a detailed flowchart for explaining S11. First, in step S111, the aspect ratio L is calculated from the pupil vertical diameter LV and the pupil lateral diameter LH.
Calculate V / LH. Next, in S112, the aspect ratio LV / L
3 from H and L2 / L1 obtained by the face orientation detection process.
The rotation angle θp of the eyeball is obtained with reference to a map such as 3.

【0139】[視線方向の算出処理](S9) 第1実施形態の「視線方向の算出処理」S9と同じなの
で説明は省略する。
[Line-of-sight direction calculation process] (S9) Since it is the same as the "line-of-sight direction calculation process" S9 of the first embodiment, description thereof will be omitted.

【0140】次に、上記の第2実施形態の効果を説明す
る。
Next, the effect of the second embodiment will be described.

【0141】眼球回転角検出手段として、瞳の横径と縦
径を検出する瞳径検出手段を備え、瞳の横径と縦径との
比に基づき眼球の回転角を検出しているため、瞳の動き
に忠実に視線変化を検出することができ、この点で精度
をより向上することができる。
As the eyeball rotation angle detecting means, a pupil diameter detecting means for detecting the lateral diameter and the longitudinal diameter of the pupil is provided, and the rotational angle of the eyeball is detected based on the ratio between the lateral diameter and the longitudinal diameter of the pupil. The change in the line of sight can be detected faithfully with the movement of the pupil, and the accuracy can be further improved in this respect.

【0142】〔第3実施形態〕 [システムブロック図]図34は、本発明に係る視線方
向検出装置の第3実施形態の構成を説明するブロック図
である。同図において、視線方向検出装置は、顔画像を
撮像する顔画像撮像手段CL1と、顔画像撮像手段CL
1によって撮像された顔画像から画像上の眼の位置を特
定する眼位置特定手段CL2と、顔画像撮像手段CL1
によって撮像された顔画像から眼球の回転角を検出する
第1の眼球回転角検出手段CL4Aと、顔画像撮像手段
CL1によって撮像された顔画像から眼球の回転角を検
出する第2の眼球回転角検出手段CL4Bと、顔画像撮
像手段CL1によって撮像された顔画像から顔の向きを
検出する顔の向き検出手段CL3と、眼球回転角検出手
段CL4AまたはCL4Bによって検出された眼球の回
転角と顔の向き検出手段CL3によって検出された顔の
向きから視線方向を算出する視線方向算出手段CL5と
を備えている。
[Third Embodiment] [System Block Diagram] FIG. 34 is a block diagram illustrating the configuration of a third embodiment of the gaze direction detecting device according to the present invention. In the figure, the line-of-sight direction detecting device includes a face image capturing means CL1 for capturing a face image and a face image capturing means CL
Eye position specifying means CL2 for specifying the position of the eye on the image from the face image picked up by No. 1 and face image pick-up means CL1
First eyeball rotation angle detection means CL4A for detecting the rotation angle of the eyeball from the face image captured by the, and second eyeball rotation angle for detecting the rotation angle of the eyeball from the face image captured by the face image capturing means CL1. Detecting means CL4B, face orientation detecting means CL3 for detecting the orientation of the face from the face image captured by the face image capturing means CL1, eyeball rotation angle detected by the eyeball rotation angle detecting means CL4A or CL4B, and face detection. The line-of-sight direction calculation unit CL5 calculates the line-of-sight direction from the face direction detected by the direction detection unit CL3.

【0143】顔画像撮像手段CL1は、運転者またはオ
ペレータ等の顔を撮像して顔画像データを出力するTV
カメラ等の撮像手段である。眼位置特定手段CL2は、
顔画像撮像手段CL1から出力された顔画像データを処
理して、画像上の眼の位置を特定する。
The face image pickup means CL1 is a TV for picking up a face of a driver or an operator and outputting face image data.
It is an imaging means such as a camera. The eye position specifying means CL2 is
The face image data output from the face image capturing means CL1 is processed to identify the position of the eye on the image.

【0144】顔の向き検出手段CL3は、顔画像撮像手
段CL1から出力された顔画像データを処理して顔画像
撮像手段CL1の光軸ラインを正面とした顔の向きを検
出する。
The face orientation detecting means CL3 processes the face image data output from the face image capturing means CL1 to detect the face orientation with the optical axis line of the face image capturing means CL1 as the front.

【0145】第1の眼球回転角検出手段CL4Aは、瞳
位置検出手段CL41と円弧状ラインのピーク位置検出
手段CL42とを備えて構成されている。
The first eyeball rotation angle detecting means CL4A comprises a pupil position detecting means CL41 and an arc line peak position detecting means CL42.

【0146】第2の眼球回転角検出手段CL4Bは、瞳
位置検出手段CL41と、目頭・目尻位置検出手段CL
44とを備えて構成されている。
The second eyeball rotation angle detecting means CL4B is composed of a pupil position detecting means CL41 and an inner / outer eye / extremity position detecting means CL.
And 44.

【0147】言い換えれば、第1、第2の眼球回転角検
出手段CL4A及びCL4Bは、瞳位置検出手段CL4
1を共有している。
In other words, the first and second eyeball rotation angle detecting means CL4A and CL4B are the pupil position detecting means CL4.
Share one.

【0148】なお、第1、第2の眼球回転角検出手段C
L4A、CL4Bのいずれを用いるかは、顔の向き検出
手段CL3の検出結果により、顔が正面を向いていれば
第2の眼球回転角検出手段CL4Bを用い、正面を向い
ていなければ第1の眼球回転角検出手段CL4Aを用い
る。
Incidentally, the first and second eyeball rotation angle detecting means C
Which of L4A and CL4B is used depends on the detection result of the face orientation detection means CL3, and the second eyeball rotation angle detection means CL4B is used if the face is facing the front, and the first eye rotation angle detecting means CL4B is used if the face is not facing the front. The eyeball rotation angle detecting means CL4A is used.

【0149】瞳位置検出手段CL41は、眼位置特定手
段CL2で特定された眼の位置を中心とした微小画像を
画像処理することによって瞳の位置を検出する。
The pupil position detecting means CL41 detects the position of the pupil by image-processing the micro image centered on the eye position specified by the eye position specifying means CL2.

【0150】円弧状ラインのピーク位置検出手段CL4
2は、上瞼、下瞼、眉毛、眼鏡の上フレーム、眼鏡の下
フレームなど視線の基準となる円弧状ラインの検出を行
い、その中から円弧状ラインのピーク位置を求める。本
実施形態では上瞼での場合のみ説明するが他の部分につ
いても同様の処理を行うことで検出することができる。
Peak position detecting means CL4 of arcuate line
Reference numeral 2 detects an arc-shaped line that serves as a reference line of sight such as the upper eyelid, the lower eyelid, the eyebrow, the upper frame of the spectacles, the lower frame of the spectacles, and obtains the peak position of the arc-shaped line from them. In the present embodiment, only the case of the upper eyelid will be described, but other portions can be detected by performing similar processing.

【0151】目頭・目尻位置検出手段CL44は、眼位
置特定手段CL2で特定された眼の位置を中心とした微
小画像を画像処理することによって目尻と目頭の位置を
検出する。
The eye inside and outside corner position detecting means CL44 detects the outside of the eye and the inside of the eye by performing image processing on a minute image centered on the eye position specified by the eye position specifying means CL2.

【0152】[機器の配置]本発明の機器の配置、顔画
像撮像手段CL1としてTVカメラ1は第1実施形態と
同じであるので省略する。
[Arrangement of Equipment] The arrangement of equipment of the present invention and the TV camera 1 as the face image pickup means CL1 are the same as those in the first embodiment, and therefore the description thereof will be omitted.

【0153】マイクロコンピュータ2は、TVカメラ1
から入力された画像データを記憶する画像メモリを備え
ている。さらにマイクロコンピュータ2には、眼位置特
定手段CL2と、顔の向き検出手段CL3と、瞳位置検
出手段CL41と、円弧状ラインのピーク位置検出手段
CL42と、目頭・目尻位置検出手段CL44と、視線
方向算出手段CL5とを実現するロジックがプログラミ
ングされている。
The microcomputer 2 is the TV camera 1
An image memory for storing the image data input from is provided. Further, in the microcomputer 2, the eye position specifying means CL2, the face direction detecting means CL3, the pupil position detecting means CL41, the arc line peak position detecting means CL42, the inner and outer canthus and outer corner position detecting means CL44, and the line of sight. Logic for implementing the direction calculation means CL5 is programmed.

【0154】[システム全体の処理]図35は、システ
ムの全体の処理の流れを説明する概略フローチャートで
ある。まず、処理が開始されると、S1で、「初期値入
力」の処理が実行され、マイクロコンピュータの作業エ
リアの初期化や各種パラメータの初期値の設定が行われ
る。
[Processing of Entire System] FIG. 35 is a schematic flowchart for explaining the flow of the entire processing of the system. First, when the process is started, the process of "initial value input" is executed in S1, and the work area of the microcomputer is initialized and the initial values of various parameters are set.

【0155】S2の「顔画像の撮像処理」ではTVカメ
ラ1で顔画像を撮像し、マイクロコンピュータ2に画像
データとして入力する。
In the "face image pickup process" in S2, the TV camera 1 picks up a face image and inputs it to the microcomputer 2 as image data.

【0156】S3の「眼の位置特定処理」ではマイクロ
コンピュータ2に入力された画像データを画像処理する
ことによって顔画像上の眼の位置を特定する。
In the "eye position specifying process" of S3, the position of the eye on the face image is specified by performing image processing on the image data input to the microcomputer 2.

【0157】S4ではS3の出力結果をもとに顔画像上
に眼が特定できればS4YES、S5へ処理を進め、顔
画像上に眼が特定できなければS4NO、S2へ処理を
戻し、眼が特定できるまでS2からS4までの処理を繰
り返す。
In S4, if the eyes can be specified on the face image based on the output result of S3, the process proceeds to S4 YES and S5. If the eyes cannot be specified on the face image, the process returns to S4 NO and S2 to specify the eyes. The processes from S2 to S4 are repeated until it is possible.

【0158】S5の「顔の向き検出処理」では、マイク
ロコンピュータ2に入力された画像データを画像処理す
ることによって、顔画像撮像手段の光軸方向に対する画
像上の顔の向きを検出する。
In the "face orientation detection process" in S5, the orientation of the face on the image with respect to the optical axis direction of the face image capturing means is detected by image processing the image data input to the microcomputer 2.

【0159】S7の「瞳位置の検出処理」では、S3で
特定された眼の位置を中心とする微小エリアを画像処理
することで画像上の瞳の位置を検出する。
In the "pupil position detection process" of S7, the position of the pupil on the image is detected by image-processing the micro area centered on the eye position specified in S3.

【0160】S12では、S5の結果をもとに顔が画像
上の正面を向いているか否かを判定する。顔が画像上の
正面を向いている場合S12YESは、S13に処理を
進め、顔が画像上の正面を向いていない場合S12NO
は、S6に処理を進める。
In S12, it is determined based on the result of S5 whether or not the face is facing the front of the image. If the face is facing the front of the image, the process proceeds to S12 YES, and if the face is not facing the front of the image, the process proceeds to S12 NO.
Advances the processing to S6.

【0161】S13の「目頭・目尻位置の検出処理」で
は、S3で特定された眼の位置を中心とする微小エリア
を画像処理することで画像上の目頭・目尻位置を検出す
る。
In S13, "inner eye / extremity position detection processing", the inner eye area / extremity position on the image is detected by image-processing the micro area centered on the eye position specified in S3.

【0162】S14の「眼球の回転角検出処理」では、
S7で検出された瞳の位置とS13で検出された目尻・
目頭位置から眼球の回転角(=視線方向)を算出し、処
理を終了する。
In the "eyeball rotation angle detection process" in S14,
The position of the pupil detected in S7 and the corner of the eye detected in S13
The rotation angle (= viewing direction) of the eyeball is calculated from the eye inside corner position, and the process ends.

【0163】S6の「円弧状ラインのピーク位置検出処
理」では、S3で特定された眼の位置を中心とする微小
エリアを画像処理することで画像上の円弧状ラインのピ
ーク位置を検出する。
In the "arc-shaped line peak position detection process" in S6, the peak position of the arc-shaped line on the image is detected by image-processing the micro area centered on the eye position specified in S3.

【0164】S8の「眼球の回転角検出処理I」では、
S6で検出された円弧状ラインのピーク位置とS7で検
出された瞳の位置から眼球の回転角θpを検出する。
In the "eyeball rotation angle detection process I" in S8,
The rotation angle θp of the eyeball is detected from the peak position of the arc-shaped line detected in S6 and the position of the pupil detected in S7.

【0165】S9の「視線方向の算出処理」では、S5
で検出された顔の向きθfとS8で検出された眼球の回
転角θpとを加算したものを視線方向として処理を終了
する。
In the "line-of-sight direction calculation process" in S9, S5
The process is terminated by setting the sum of the face direction θf detected in step S8 and the rotation angle θp of the eyeball detected in step S8 as the line-of-sight direction.

【0166】[眼の位置特定処理](S3) 第1実施形態の「眼の位置特定処理」S3と同じなので
説明は省略する。
[Eye Position Specifying Process] (S3) Since it is the same as the “eye position specifying process” S3 of the first embodiment, description thereof will be omitted.

【0167】[顔の向き検出処理](S5) 第1実施形態の「顔の向き検出処理」S5と同じなので
説明は省略する。
[Face Orientation Detecting Process] (S5) Since it is the same as the "face direction detecting process" S5 of the first embodiment, a description thereof will be omitted.

【0168】[瞳位置の検出処理](S7) 第1実施形態の「瞳位置の検出処理」S7と同じなので
説明は省略する。
[Pupil Position Detection Processing] (S7) Since it is the same as the “pupil position detection processing” S7 of the first embodiment, description thereof will be omitted.

【0169】[目頭・目尻位置の検出処理](S13) 第1実施形態の「眼の目頭・目尻の検出」S52と同じ
なので説明は省略する。
[Inner / Extreme Eye Position Detection Processing] (S13) Since it is the same as the “detection of inner / outer eye corners” S52 of the first embodiment, description thereof will be omitted.

【0170】[眼球の回転角(=視線方向)の検出処
理](S14) 図36は、眼球の左右回転運動を模式的に示す平面図で
ある。眼球の回転中心は角膜頂点から約13.6mm後
方にあり、移動範囲は正面から左右約43度である。こ
のことから瞳が左右端位置にある場合、正面から12.
6mm動いていることになる。
[Eyeball Rotation Angle (= Gaze Direction) Detection Processing] (S14) FIG. 36 is a plan view schematically showing the horizontal rotational movement of the eyeball. The center of rotation of the eyeball is approximately 13.6 mm posterior to the apex of the cornea, and the range of movement is approximately 43 degrees to the left and right from the front. From this, when the pupils are located at the left and right end positions, it is possible to use the 12.
It is moving 6 mm.

【0171】図37(a)、図37(b)に示すように
目頭位置から瞳位置までの距離をLS、瞳位置から目尻
位置までの距離をLEとしたときに、眼球の回転角θp
とすると、
As shown in FIGS. 37 (a) and 37 (b), when the distance from the inner canthus position to the pupil position is LS and the distance from the pupil position to the outer canthus position is LE, the rotation angle θp of the eyeball.
Then,

【数2】 θp=tan-1 {12.6/13.6*(LS+LE)(LS-LE)} …(2) 式(2)で眼球の回転角θpを求めることができる。こ
の場合顔の向きが正面であるので、この眼球の回転角θ
pそのものが視線方向となる。
## EQU2 ## θp = tan −1 {12.6 / 13.6 * (LS + LE) (LS-LE)} (2) The rotation angle θp of the eyeball can be calculated by the equation (2). In this case, since the face is facing forward, the rotation angle θ of this eyeball is
p is the line-of-sight direction.

【0172】[円弧状ラインのピーク位置検出処理]
(S6) 第1実施形態の[円弧状ラインのピーク位置の検出処
理]と同じなので説明は省略する。
[Peak position detection processing of arcuate line]
(S6) Since it is the same as the [peak position detection process of arcuate line] of the first embodiment, description thereof will be omitted.

【0173】[眼球の回転角検出処理I](S8) 第1実施形態の「眼球の回転角検出処理I」S8と同じ
なので説明は省略する。
[Eyeball Rotation Angle Detection Process I] (S8) Since it is the same as the "eyeball rotation angle detection process I" S8 of the first embodiment, description thereof will be omitted.

【0174】[視線方向の算出処理](S9) 第1実施形態の「視線方向の算出処理」S9と同じなの
で説明は省略する。
[Line-of-sight direction calculation process] (S9) Since it is the same as the "line-of-sight direction calculation process" S9 of the first embodiment, description thereof will be omitted.

【0175】次に、上記の第3実施形態の効果を説明す
る。
Next, the effect of the third embodiment will be described.

【0176】(イ)顔の向き検出において、顔画像から
円弧状ラインのピーク位置を検出する円弧状ライン検出
手段と顔画像から目頭位置と目尻位置とを検出する目頭
・目尻位置検出手段とを備え、目尻と目頭のピーク位置
からの距離の比を算出しているため、複数の情報を取り
込んだ分より精度を向上させることができる。
(A) In the face direction detection, an arcuate line detecting means for detecting the peak position of the arcuate line from the face image and an eye inside / outside corner position detecting means for detecting the inner canthus and outer corner positions of the face image are provided. In addition, since the ratio of the distance from the peak position of the inner corner of the eye to the peak position of the inner corner of the eye is calculated, the accuracy can be improved more than the amount of information that is captured.

【0177】(ロ)眼球回転角検出において、画像上の
目頭位置と画像上の目尻位置を検出する目頭・目尻位置
検出手段と、画像上の瞳の位置とを検出する瞳位置検出
手段と、を備え、顔の撮像画像が正面を向いているとき
に、画像上の目頭位置と目尻位置と瞳位置から眼球の回
転角を検出し、この眼球の回転角を視線方向とするよう
にしたので、目頭位置と目尻位置を正確に検出すること
ができ、これにより視線方向の検出精度を一層向上させ
ることができる。
(B) In the eyeball rotation angle detection, the inner and outer corners of the eye and the outer corner of the eye for detecting the inner and outer corners of the eye on the image, and the pupil position detecting means for detecting the position of the pupil on the image. When the captured image of the face is facing the front, the rotation angle of the eyeball is detected from the inner canthus position, the outer canthus position, and the pupil position on the image, and the rotation angle of this eyeball is set as the line-of-sight direction. It is possible to accurately detect the inner canthus position and the outer canthus position, thereby further improving the detection accuracy in the line-of-sight direction.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る視線方向検出装置の第1実施形態
の構成を説明するブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a first embodiment of a gaze direction detecting device according to the present invention.

【図2】本発明に係る視線方向検出装置を車両の運転者
に適用した場合の配置図である。
FIG. 2 is a layout diagram when the line-of-sight direction detection device according to the present invention is applied to a driver of a vehicle.

【図3】第1実施形態における視線方向検出処理の全体
を示す概略フローチャートである。
FIG. 3 is a schematic flowchart showing an entire gaze direction detection process in the first embodiment.

【図4】眼の位置特定処理を示す詳細フローチャートで
ある。
FIG. 4 is a detailed flowchart showing eye position specifying processing.

【図5】眼の候補の位置の特定処理を示す詳細フローチ
ャートである。
FIG. 5 is a detailed flowchart showing a process of identifying positions of eye candidates.

【図6】眼のテンプレートを用いた眼の位置検出の説明
図である。
FIG. 6 is an explanatory diagram of eye position detection using an eye template.

【図7】眼の存在領域の大きさを示す説明図である。FIG. 7 is an explanatory diagram showing the size of a region where an eye is present.

【図8】眼の横方向の長さの統計図である。FIG. 8 is a statistical diagram of the lateral length of the eye.

【図9】眼の縦方向の長さの統計図である。FIG. 9 is a statistical diagram of the length of the eye in the vertical direction.

【図10】眼の存在領域の位置を決める説明図である。FIG. 10 is an explanatory diagram for deciding the position of an eye existence region.

【図11】眼判定処理を示す詳細フローチャートであ
る。
FIG. 11 is a detailed flowchart showing an eye determination process.

【図12】微小画像IG抽出の説明図である。FIG. 12 is an explanatory diagram of minute image IG extraction.

【図13】二値化閾値の求め方の説明図である。FIG. 13 is an explanatory diagram of how to obtain a binarization threshold.

【図14】眼のテンプレートを用いた眼の位置検出の説
明図である。
FIG. 14 is an explanatory diagram of eye position detection using an eye template.

【図15】顔の向き検出処理を示すフローチャートであ
る。
FIG. 15 is a flowchart showing face orientation detection processing.

【図16】(a)眼の外周輪郭の検出処理を示す詳細フ
ローチャートである。 (b)眼の目頭・目尻の検出処理を示す詳細フローチャ
ートである。
FIG. 16A is a detailed flowchart showing a process of detecting an outer peripheral contour of an eye. (B) It is a detailed flowchart showing the process of detecting the inner and outer corners of the eye.

【図17】(a)円弧状ラインのピーク位置検出処理を
示す詳細フローチャートである。 (b)顔の方向角θfの検出処理を示す詳細フローチャ
ートである。
FIG. 17 (a) is a detailed flowchart showing a peak position detection process for an arc line. 6B is a detailed flowchart showing a process of detecting a direction angle θf of a face.

【図18】眼の輪郭線を画像処理によって抽出する方法
の概略説明図である。
FIG. 18 is a schematic explanatory diagram of a method of extracting a contour line of an eye by image processing.

【図19】目頭・目尻、円弧状ラインのピーク位置、及
び瞳位置の相互位置関係を示す説明図である。
FIG. 19 is an explanatory diagram showing the mutual positional relationship between the inner and outer corners of the eye, the peak positions of arc-shaped lines, and the pupil position.

【図20】顔が画像上右側を向いた時の説明図である。FIG. 20 is an explanatory diagram when a face faces the right side on the image.

【図21】顔が画像上右側を向いた時の円弧状ラインの
ピーク位置、目頭・目尻位置、瞳の位置の相互関係の説
明図である。
FIG. 21 is an explanatory diagram of the mutual relationship among the peak position of the arc-shaped line, the inner and outer corners of the eyes, and the positions of the pupils when the face faces the right side of the image.

【図22】顔の向きθfと、円弧状ラインのピーク位置
と目頭・目尻位置の距離の比L2/L1の関係を示す図
である。
FIG. 22 is a diagram showing the relationship between the face orientation θf and the ratio L2 / L1 of the distance between the peak position of the arcuate line and the inner and outer corners of the eye.

【図23】(a)瞳位置の検出処理Iを示す詳細フロー
チャートである。 (b)瞳位置の検出処理IIを示す詳細フローチャートで
ある。
23 (a) is a detailed flowchart showing a pupil position detection process I. FIG. 7B is a detailed flowchart showing a pupil position detection process II.

【図24】(a)瞳位置の検出処理IIIを示す詳細フロ
ーチャートである。 (b)眼球の回転角検出処理Iを示す詳細フローチャー
トである。 (c)視線方向の算出処理を示す詳細フローチャートで
ある。
FIG. 24 (a) is a detailed flowchart showing a pupil position detection process III. (B) It is a detailed flowchart which shows the rotation angle detection process I of an eyeball. (C) It is a detailed flowchart showing the calculation process of the line-of-sight direction.

【図25】瞳の中心位置を求める方法の説明図である。FIG. 25 is an explanatory diagram of a method of obtaining the center position of the pupil.

【図26】眼球を動かしたときの顔画像の説明図であ
る。
FIG. 26 is an explanatory diagram of a face image when an eyeball is moved.

【図27】眼球を動かしたときの微小画像上の円弧状ラ
インのピーク位置の変化を説明する図である。
FIG. 27 is a diagram illustrating changes in the peak positions of arc-shaped lines on a minute image when the eyeball is moved.

【図28】円弧状ラインのピーク位置と瞳の位置との距
離と、眼球の回転角θpとの関係を示す図である。
FIG. 28 is a diagram showing the relationship between the distance between the peak position of the arcuate line and the position of the pupil and the rotation angle θp of the eyeball.

【図29】本発明に係る視線方向検出装置の第2実施形
態の構成を説明するブロック図である。
FIG. 29 is a block diagram illustrating a configuration of a second embodiment of a visual line direction detection device according to the present invention.

【図30】第2実施形態における視線方向検出処理の全
体を示す概略フローチャートである。
FIG. 30 is a schematic flowchart showing an entire gaze direction detection process in the second embodiment.

【図31】(a)瞳径の検出処理を示す詳細フローチャ
ートである。 (b)眼球の回転角検出処理IIを示す詳細フローチャー
トである。
FIG. 31 (a) is a detailed flowchart showing a pupil diameter detection process. 6B is a detailed flowchart showing the eyeball rotation angle detection processing II.

【図32】瞳径を求める説明図である。FIG. 32 is an explanatory diagram for obtaining a pupil diameter.

【図33】瞳の縦径と横径の比LV/LHと眼球の回転
角θpとの関係を示す図である。
FIG. 33 is a diagram showing a relationship between the ratio LV / LH of the pupil diameter to the pupil diameter and the rotation angle θp of the eyeball.

【図34】本発明に係る視線方向検出装置の第3実施形
態の構成を説明するブロック図である。
FIG. 34 is a block diagram illustrating a configuration of a third embodiment of a gaze direction detecting device according to the present invention.

【図35】第3実施形態における視線方向検出処理の全
体を示す概略フローチャートである。
FIG. 35 is a schematic flowchart showing an entire gaze direction detecting process in the third embodiment.

【図36】眼球の左右の動きを説明する平面図である。FIG. 36 is a plan view for explaining left and right movements of the eyeball.

【図37】瞳位置と目尻・目頭位置の説明図である。FIG. 37 is an explanatory diagram of the pupil position and the outer and inner corners of the eye.

【符号の説明】[Explanation of symbols]

CL1…顔画像撮像手段 CL2…眼位置特定手段 CL3…顔の向き検出手段 CL4…眼球回転角検出手段 CL41…瞳位置検出手段 CL42…円弧状ラインピーク位置検出手段 CL5…視線方向算出手段 CL1 ... Face image capturing means CL2 ... Eye position specifying means CL3 ... Face orientation detecting means CL4 ... Eyeball rotation angle detection means CL41 ... Pupil position detecting means CL42 ... Arc line peak position detecting means CL5 ... Gaze direction calculating means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 上野 裕史 神奈川県横浜市神奈川区宝町2番地 日産 自動車株式会社内 Fターム(参考) 5B057 AA16 BA02 CC01 CE12 DA07 DA08 DA20 DB02 DB05 DB09 DC08 DC16 5L096 AA06 CA02 DA02 EA06 EA27 EA43 FA04 FA06 FA08 FA12 FA13 FA14 FA32 FA36 FA62 FA64 FA66 FA67 FA69 GA02 GA51 JA09    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroshi Ueno             Nissan, Takaracho, Kanagawa-ku, Yokohama-shi, Kanagawa Nissan             Inside the automobile corporation F term (reference) 5B057 AA16 BA02 CC01 CE12 DA07                       DA08 DA20 DB02 DB05 DB09                       DC08 DC16                 5L096 AA06 CA02 DA02 EA06 EA27                       EA43 FA04 FA06 FA08 FA12                       FA13 FA14 FA32 FA36 FA62                       FA64 FA66 FA67 FA69 GA02                       GA51 JA09

Claims (15)

【特許請求の範囲】[Claims] 【請求項1】 顔画像撮像手段によって撮像された顔画
像から目の位置を特定し、該眼位置特定手段により特定
された画像から眼球の回転角を検出するとともに、顔画
像撮像手段によって撮像された顔画像から顔の向きを検
出し、これら眼球回転角と顔の向きから視線方向を検出
することを特徴とする視線方向検出装置。
1. A position of an eye is specified from a face image picked up by a face image pick-up means, a rotation angle of an eyeball is detected from the image specified by the eye position specifying means, and an image is picked up by the face image pick-up means. A line-of-sight direction detecting device which detects the direction of the face from the face image and detects the direction of the line of sight from the eyeball rotation angle and the direction of the face.
【請求項2】 顔画像を撮像する顔画像撮像手段と、 顔画像撮像手段によって撮像された顔画像から画像上の
眼の位置を特定する眼位置特定手段と、 顔画像撮像手段によって撮像された顔画像及び前記特定
された眼の位置から眼球の回転角を検出する眼球回転角
検出手段と、 顔画像撮像手段によって撮像された顔画像から顔の向き
を検出する顔の向き検出手段と、 眼球回転角検出手段によって検出された眼球の回転角と
顔の向き検出手段によって検出された顔の向きから視線
方向を算出する視線方向算出手段と、 を備えたことを特徴とする視線方向検出装置。
2. A face image capturing means for capturing a face image, an eye position identifying means for identifying an eye position on the image from the face image captured by the face image capturing means, and an image captured by the face image capturing means. An eyeball rotation angle detecting means for detecting an eyeball rotation angle from the face image and the specified eye position; a face orientation detecting means for detecting a face orientation from the face image captured by the face image capturing means; A line-of-sight direction detection device comprising: a line-of-sight direction calculation unit that calculates a line-of-sight direction from the rotation angle of the eyeball detected by the rotation angle detection unit and the face direction detected by the face direction detection unit.
【請求項3】 前記眼球回転角検出手段は、前記眼位置
特定手段によって特定された位置を中心とした前記顔画
像の部分画像である微小画像を処理することによって、
該微小画像中に上凸もしくは下凸の円弧状のラインを見
つけ、その円弧状ラインの画像上の上凸もしくは下凸の
ピーク位置を検出する円弧状ラインピーク位置検出手段
と、 前記微小画像の中で画像上の目頭位置と画像上の瞳の位
置とを検出する瞳位置検出手段と、を備え、 前記円弧状ラインピーク位置検出手段が検出した前記ピ
ーク位置と、前記瞳位置検出手段が検出した前記瞳の位
置に基づいて、瞳位置とピーク位置との距離を算出し、
その距離から眼球の回転角を検出することを特徴とする
請求項2に記載の視線方向検出装置。
3. The eyeball rotation angle detecting means processes a minute image which is a partial image of the face image centered on the position specified by the eye position specifying means,
Arc-shaped line peak position detection means for finding an upward convex or downward convex arc-shaped line in the minute image and detecting an upward convex or downward convex peak position on the image of the arc-shaped line; And a pupil position detecting means for detecting the inner canthus position on the image and the position of the pupil on the image, wherein the peak position detected by the arc-shaped line peak position detecting means and the pupil position detecting means are detected. Based on the position of the pupil, the distance between the pupil position and the peak position is calculated,
The gaze direction detecting device according to claim 2, wherein the rotation angle of the eyeball is detected from the distance.
【請求項4】 前記眼球回転角検出手段は、 前記微小画像の中で画像上の瞳の横径と縦径を検出する
瞳径検出手段を備え、 該瞳径検出手段によって検出された画像上の瞳の横径と
縦径との比に基づいて眼球の回転角を検出することを特
徴とする請求項2に記載の視線方向検出装置。
4. The eyeball rotation angle detecting means includes a pupil diameter detecting means for detecting a lateral diameter and a longitudinal diameter of a pupil on the image in the micro image, and an image on the image detected by the pupil diameter detecting means. The eye gaze direction detecting device according to claim 2, wherein the rotation angle of the eyeball is detected based on the ratio of the horizontal diameter to the vertical diameter of the pupil.
【請求項5】 前記顔の向き検出手段は、 前記眼位置特定手段によって特定された位置を中心とし
た前記顔画像の部分画像である微小画像を処理すること
によって、該微小画像中に上凸もしくは下凸の円弧状の
ラインを見つけ、その円弧状ラインの画像上の上凸もし
くは下凸のピーク位置を検出する円弧状ラインピーク位
置検出手段と、 前記微小画像の中で画像上の目頭位置と画像上の目尻位
置を検出する目頭・目尻位置検出手段と、を備え、 前記円弧状ラインピーク位置検出手段が検出した前記ピ
ーク位置と、前記目頭・目尻位置検出手段が検出した前
記目頭位置及び前記目尻位置に基づいて、目頭位置から
ピーク位置までの距離と目尻位置からピーク位置までの
距離とをそれぞれ算出し、 算出された目頭位置からピーク位置までの距離と目尻位
置からピーク位置までの距離との比から顔の向きを算出
することを特徴とする請求項2に記載の視線方向検出装
置。
5. The face orientation detecting means processes a micro image which is a partial image of the face image centered on the position specified by the eye position specifying means, thereby upwardly convexing in the micro image. Or, an arc line peak position detecting means for finding a downward convex arc line and detecting an upward convex or downward convex peak position on the image of the arc line, and an inner canthus position on the image in the minute image And an inner and outer corner of the eye position detecting means for detecting the outer corner of the eye on the image, the peak position detected by the arc-shaped line peak position detecting means, and the inner corner of the eye detected by the inner corner of the eye and outer corner position detecting means, and The distance from the inner canthus position to the peak position and the distance from the outer canthus position to the peak position are respectively calculated based on the outer canthus position, and the calculated distance from the inner canthus position to the peak position. Gaze direction detecting apparatus according to claim 2, characterized in that to calculate the orientation of the face from the ratio of the distance from the corner position to the peak position.
【請求項6】 前記眼球回転角検出手段は、 前記眼位置特定手段によって特定された位置を中心とし
た前記顔画像の部分画像である微小画像を処理すること
によって、前記微小画像の中で画像上の目頭位置と画像
上の目尻位置を検出する目頭・目尻位置検出手段と、 前記微小画像の中で画像上の目頭位置と画像上の瞳の位
置とを検出する瞳位置検出手段と、を備え、 前記顔の向き検出手段が検出した顔の向きが前記顔画像
撮像手段の光軸正面方向になっている場合には、 前記眼球回転角検出手段は、目頭・目尻位置検出手段が
検出した画像上の目頭位置と目尻位置と瞳位置検出手段
が検出した画像上の瞳位置から眼球の回転角を検出し、 前記視線方向算出手段は、前記眼球回転角検出手段が検
出した眼球の回転角を前記視線方向とすることを特徴と
する請求項2に記載の視線方向検出装置。
6. The eyeball rotation angle detecting means processes an image in the minute image by processing a minute image which is a partial image of the face image centered on the position specified by the eye position specifying means. An eye inside / outside corner position detecting means for detecting an upper inside corner position and an outside corner area on the image; and a pupil position detecting means for detecting the inside corner area on the image and the position of the pupil on the image in the minute image, When the face orientation detected by the face orientation detecting means is in the front direction of the optical axis of the face image capturing means, the eyeball rotation angle detecting means detects the inner or inner corner of the eye / extremity position detecting means. The rotation angle of the eyeball is detected from the position of the inner and outer corners of the eye, the position of the outer corner of the eye, and the pupil position on the image detected by the pupil position detection means, and the gaze direction calculation means is the rotation angle of the eyeball detected by the eyeball rotation angle detection means. To be the line-of-sight direction Gaze direction detecting apparatus according to claim 2, characterized.
【請求項7】 前記眼位置特定手段は、 前記顔画像撮像手段によって撮像された顔画像から眼の
候補の位置を特定する眼の候補の位置の特定処理と、 該眼の候補の位置の特定処理によって特定された眼の候
補の位置を中心とした微小画像を画像処理することによ
って、その眼の候補の位置が眼か否かを判断する眼判定
処理と、 を備えたことを特徴とする請求項2に記載の視線方向検
出装置。
7. The eye position specifying means specifies the position of an eye candidate from the face image captured by the face image capturing means, and specifies the position of the eye candidate. An eye determination process of determining whether or not the position of the eye candidate is an eye by performing image processing on a micro image centered on the position of the eye candidate specified by the process, The line-of-sight direction detection device according to claim 2.
【請求項8】 前記目頭・目尻位置検出手段は、 前記微小画像を画像処理することによって眼の輪郭を検
出し、検出した眼の輪郭の両端位置を目頭位置および目
尻位置とすることを特徴とする請求項5に記載の視線方
向検出装置。
8. The eye inside and outside corner position detecting means detects the outline of the eye by performing image processing on the minute image, and sets both end positions of the detected outline of the eye as the inside and outside eye position. The line-of-sight direction detection device according to claim 5.
【請求項9】 前記瞳位置検出手段は、 前記微小画像を画像処理することによって眼の輪郭を検
出し、検出した眼の輪郭の縦方向に最も広い位置の中心
を瞳の中心位置とすることを特徴とする請求項3に記載
の視線方向検出装置。
9. The pupil position detecting means detects the contour of the eye by performing image processing on the minute image, and sets the center of the widest position of the detected contour of the eye in the vertical direction as the center position of the pupil. The gaze direction detecting device according to claim 3.
【請求項10】 前記瞳位置検出手段は、 前記微小画像を画像処理することによって眼の輪郭を検
出し、 検出した眼の輪郭のうち下側のラインにおいて上凸から
下凸へと変化する変曲点を2カ所検出し、 検出された2カ所の変曲点の中点位置を瞳の中心位置と
することを特徴とする請求項3に記載の視線方向検出装
置。
10. The pupil position detecting means detects an eye contour by performing image processing on the minute image, and a change in the lower line of the detected eye contour is changed from upward convex to downward convex. The line-of-sight direction detecting device according to claim 3, wherein two inflection points are detected, and a midpoint position of the detected two inflection points is set as a center position of the pupil.
【請求項11】 前記瞳位置検出手段は、 前記微小画像を画像処理することによって該微小画像か
ら楕円状のオブジェクトを抽出し、該楕円状オブジェク
トの中心位置を瞳の中心位置とすることを特徴とする請
求項3に記載の視線方向検出装置。
11. The pupil position detecting means extracts an elliptical object from the minute image by performing image processing on the minute image, and sets the center position of the elliptical object as the center position of the pupil. The line-of-sight direction detection device according to claim 3.
【請求項12】 前記円弧状ラインピーク位置検出手段
は、 円弧状ラインの高さが最も高い場所を円弧状ラインピー
ク位置とすることを特徴とする請求項3または請求項5
に記載の視線方向検出装置。
12. The arc-shaped line peak position detecting means sets a position where the height of the arc-shaped line is highest as the arc-shaped line peak position.
The line-of-sight direction detection device according to.
【請求項13】 前記円弧状ラインピーク位置検出手段
は、 前記円弧状ラインの両端点を結んだ線分に対して該円弧
状ライン上のある点からへ降ろした垂線の長さが最も長
い点を円弧状ラインピーク位置とすることを特徴とする
請求項3または請求項5に記載の視線方向検出装置。
13. The arc-shaped line peak position detecting means has a longest vertical line descended from a point on the arc-shaped line with respect to a line segment connecting both end points of the arc-shaped line. Is the arc-shaped line peak position, and the line-of-sight direction detection device according to claim 3 or claim 5 is characterized in that.
【請求項14】 前記円弧状ラインピーク位置検出手段
は、 円弧状のラインとして検出する顔部位として、上瞼また
は下瞼または眼鏡フレームの上側または眼鏡フレームの
下側または眉とすることを特徴とする請求項3または請
求項5に記載の視線方向検出装置。
14. The arc-shaped line peak position detection means sets the upper eyelid, the lower eyelid, the upper side of the spectacle frame, the lower side of the spectacle frame, or the eyebrow as the face part detected as the arc-shaped line. The line-of-sight direction detection device according to claim 3 or 5.
【請求項15】 前記瞳径検出手段は、 前記微小画像を画像処理することによって該微小画像か
ら楕円状のオブジェクトを抽出し、該楕円状オブジェク
トの横径と縦径とを画像上の瞳のそれぞれ横径と縦径と
することを特徴とする請求項4に記載の視線方向検出装
置。
15. The pupil diameter detecting means extracts an elliptical object from the minute image by performing image processing on the minute image, and determines a lateral diameter and a longitudinal diameter of the elliptical object of a pupil on the image. The line-of-sight direction detection device according to claim 4, wherein the horizontal diameter and the vertical diameter are respectively set.
JP2002070187A 2002-03-14 2002-03-14 Gaze direction detection device Expired - Fee Related JP3797253B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002070187A JP3797253B2 (en) 2002-03-14 2002-03-14 Gaze direction detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002070187A JP3797253B2 (en) 2002-03-14 2002-03-14 Gaze direction detection device

Publications (2)

Publication Number Publication Date
JP2003271932A true JP2003271932A (en) 2003-09-26
JP3797253B2 JP3797253B2 (en) 2006-07-12

Family

ID=29200828

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002070187A Expired - Fee Related JP3797253B2 (en) 2002-03-14 2002-03-14 Gaze direction detection device

Country Status (1)

Country Link
JP (1) JP3797253B2 (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059147A (en) * 2004-08-20 2006-03-02 Kiyomi Nakamura Computer input method and device
JP2007268164A (en) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ Visual axis movement detecting method and apparatus
JP2008210239A (en) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd Line-of-sight estimation device
JP2009266086A (en) * 2008-04-28 2009-11-12 Omron Corp Line of sight detecting device and method and program
JP2010020594A (en) * 2008-07-11 2010-01-28 Kddi Corp Pupil image recognition device
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2010102504A (en) * 2008-10-23 2010-05-06 Toyota Central R&D Labs Inc Eye region detection device and program
JP2010134489A (en) * 2008-12-02 2010-06-17 Omron Corp Visual line detection device and method, and program
JP2012196328A (en) * 2011-03-22 2012-10-18 Panasonic Corp Both eyes pupil testing apparatus
WO2017221555A1 (en) * 2016-06-23 2017-12-28 株式会社ガイア・システム・ソリューション Engagement value processing system and engagement value processing device
KR20190131645A (en) * 2018-05-17 2019-11-27 고려대학교 산학협력단 User device and method for providing a gaze data of patients using application installed in the user device
KR20200027210A (en) * 2018-09-04 2020-03-12 한양대학교 산학협력단 System and method for analyzing movement of eyeball
CN111767820A (en) * 2020-06-23 2020-10-13 京东数字科技控股有限公司 Method, device, equipment and storage medium for identifying object concerned
JP2021019943A (en) * 2019-07-29 2021-02-18 株式会社デンソー Saccade detection device, saccade detection method, and saccade detection program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249197A (en) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp Detecting device for state of person
JPH08145644A (en) * 1994-11-28 1996-06-07 Agency Of Ind Science & Technol Elliptic approximation measuring system strong against noise
JPH0981732A (en) * 1995-09-19 1997-03-28 Sharp Corp Area extracting device and direction detecting device using same
JPH10236181A (en) * 1997-02-24 1998-09-08 Nissan Motor Co Ltd Dozing condition detection device
JPH11183127A (en) * 1997-12-25 1999-07-09 Nissan Motor Co Ltd Eye position detector
JP2000137792A (en) * 1998-10-30 2000-05-16 Toyota Motor Corp Eye part detecting device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07249197A (en) * 1994-03-10 1995-09-26 Mitsubishi Electric Corp Detecting device for state of person
JPH08145644A (en) * 1994-11-28 1996-06-07 Agency Of Ind Science & Technol Elliptic approximation measuring system strong against noise
JPH0981732A (en) * 1995-09-19 1997-03-28 Sharp Corp Area extracting device and direction detecting device using same
JPH10236181A (en) * 1997-02-24 1998-09-08 Nissan Motor Co Ltd Dozing condition detection device
JPH11183127A (en) * 1997-12-25 1999-07-09 Nissan Motor Co Ltd Eye position detector
JP2000137792A (en) * 1998-10-30 2000-05-16 Toyota Motor Corp Eye part detecting device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006059147A (en) * 2004-08-20 2006-03-02 Kiyomi Nakamura Computer input method and device
JP2007268164A (en) * 2006-03-31 2007-10-18 National Univ Corp Shizuoka Univ Visual axis movement detecting method and apparatus
JP2008210239A (en) * 2007-02-27 2008-09-11 Nissan Motor Co Ltd Line-of-sight estimation device
JP2009266086A (en) * 2008-04-28 2009-11-12 Omron Corp Line of sight detecting device and method and program
US8285004B2 (en) 2008-04-28 2012-10-09 Omron Corporation Line of sight detecting device and method
JP2010020594A (en) * 2008-07-11 2010-01-28 Kddi Corp Pupil image recognition device
JP2010033305A (en) * 2008-07-29 2010-02-12 Hitachi Ltd Image information processing method and device
JP2010102504A (en) * 2008-10-23 2010-05-06 Toyota Central R&D Labs Inc Eye region detection device and program
JP2010134489A (en) * 2008-12-02 2010-06-17 Omron Corp Visual line detection device and method, and program
JP2012196328A (en) * 2011-03-22 2012-10-18 Panasonic Corp Both eyes pupil testing apparatus
WO2017221555A1 (en) * 2016-06-23 2017-12-28 株式会社ガイア・システム・ソリューション Engagement value processing system and engagement value processing device
JP2018005892A (en) * 2016-06-23 2018-01-11 株式会社ガイア・システム・ソリューション Engagement value processing system and engagement value processing device
US20190340780A1 (en) * 2016-06-23 2019-11-07 Gaia System Solutions Inc. Engagement value processing system and engagement value processing apparatus
KR20190131645A (en) * 2018-05-17 2019-11-27 고려대학교 산학협력단 User device and method for providing a gaze data of patients using application installed in the user device
KR102114763B1 (en) * 2018-05-17 2020-05-25 고려대학교산학협력단 User device and method for providing a gaze data of patients using application installed in the user device
KR20200027210A (en) * 2018-09-04 2020-03-12 한양대학교 산학협력단 System and method for analyzing movement of eyeball
KR102112408B1 (en) 2018-09-04 2020-05-18 한양대학교 산학협력단 System and method for analyzing movement of eyeball
US11164322B2 (en) 2018-09-04 2021-11-02 Iucf-Hyu (Industry-University Cooperation Foundation Hanyang University) Eyeball movement analysis system and eyeball movement analysis method
JP2021019943A (en) * 2019-07-29 2021-02-18 株式会社デンソー Saccade detection device, saccade detection method, and saccade detection program
CN111767820A (en) * 2020-06-23 2020-10-13 京东数字科技控股有限公司 Method, device, equipment and storage medium for identifying object concerned

Also Published As

Publication number Publication date
JP3797253B2 (en) 2006-07-12

Similar Documents

Publication Publication Date Title
JP6930223B2 (en) Pupil detection computer program, pupil detection device and pupil detection method
Vezhnevets et al. Robust and accurate eye contour extraction
JP4307496B2 (en) Facial part detection device and program
JP2017182739A (en) Gaze detection device, gaze detection method and computer program for gaze detection
JP3797253B2 (en) Gaze direction detection device
JP4912206B2 (en) Image processing method, image processing apparatus, image processing system, and computer program
JP3143819B2 (en) Eyelid opening detector
JP4445454B2 (en) Face center position detection device, face center position detection method, and program
CN110889355B (en) Face recognition verification method, face recognition verification system and storage medium
JPH0944685A (en) Face image processor
JP4774818B2 (en) Image processing apparatus and image processing method
US10311583B2 (en) Eye motion detection method, program, program storage medium, and eye motion detection device
JP2003150942A (en) Eye position tracing method
CN109840484A (en) A kind of pupil detection method based on edge filter, oval evaluation and pupil verifying
JP2018205819A (en) Gazing position detection computer program, gazing position detection device, and gazing position detection method
CN111738241B (en) Pupil detection method and device based on double cameras
JP4151341B2 (en) Face condition detection device
EP3961495A1 (en) System and method for finding an area of an eye from a facial image
JP2023503781A (en) Ocular fundus image recognition method, device and equipment
JP2018088236A (en) Image processing device, image processing method, and image processing program
JP4996943B2 (en) Facial feature point detection apparatus, facial feature point detection method, and program
CN110310235B (en) Fundus image processing method, device and equipment and storage medium
KR101276792B1 (en) Eye detecting device and method thereof
KR20020065248A (en) Preprocessing of Human Iris Verification
KR20020060271A (en) Realtime pupil detecting method for iris recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040326

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060328

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060410

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090428

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100428

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110428

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees