JPH11183127A - Eye position detector - Google Patents

Eye position detector

Info

Publication number
JPH11183127A
JPH11183127A JP9357980A JP35798097A JPH11183127A JP H11183127 A JPH11183127 A JP H11183127A JP 9357980 A JP9357980 A JP 9357980A JP 35798097 A JP35798097 A JP 35798097A JP H11183127 A JPH11183127 A JP H11183127A
Authority
JP
Japan
Prior art keywords
eye position
curve data
search area
data
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9357980A
Other languages
Japanese (ja)
Other versions
JP3465566B2 (en
Inventor
Masayuki Kaneda
雅之 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP35798097A priority Critical patent/JP3465566B2/en
Publication of JPH11183127A publication Critical patent/JPH11183127A/en
Application granted granted Critical
Publication of JP3465566B2 publication Critical patent/JP3465566B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To keep precision in eye position detection even when a curtain rail, etc., is present on a background of a person whose eye position is to be detected. SOLUTION: In the detector, there are provided with an image input means CL1 for inputting an image data comprising a face, a point extraction means CL3 wherein pixel concentration is read along a vertical pixel column of an inputted image data and the pixel of peak in one direction of a concentration value is specified to be an extraction point under the condition where a differential value of concentration change before peak, in one direction, of the concentration value on the pixel column exceeds a given value, and a curved line data extraction means CL4 wherein close extraction points are connected in pixel column direction of adjoining pixel column to extract a curved line data extending in lateral direction of a face, movement state judging means CL8 for judging movement state of the curved line data, and an eye position detecting means CL11 for detecting eye position, based on a curved lien data when the curved line data is judged to be dynamic.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ミラー、シートを
自動制御するためや、ドライバの眼の開閉状態から居眠
り運転状態を検出するために必要な眼の位置の特定等に
用いることができる眼位置検出装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye which can be used for automatically controlling a mirror and a seat, and for specifying an eye position necessary for detecting a drowsy driving state from a driver's eye open / closed state. It relates to a position detecting device.

【0002】[0002]

【従来の技術】顔の画像データを演算処理して顔の特徴
量を抽出することにより、人物を特定したり、視線の方
向を検知したり、居眠り/覚醒の区別を判定したりする
種々の装置が開発されている。画像データは、画素ごと
の明るさを多数の階調段階(濃度値、輝度)で表現した
膨大なデータであるから、このような装置では、画像デ
ータを早期に絞り込んでデータ数を削減し、演算数を節
約して処理速度を確保している。
2. Description of the Related Art Various types of processing are performed on image data of a face to extract a feature amount of the face, thereby identifying a person, detecting the direction of a line of sight, and judging a drowsiness / wakefulness. Equipment is being developed. Since image data is a huge amount of data expressing the brightness of each pixel in a number of gradation levels (density values, luminances), such a device narrows down the image data early to reduce the number of data, The processing speed is secured by saving the number of operations.

【0003】例えば、特開平7−181012号公報に
示される居眠り警報装置では、顔の画像データから顔の
特徴量の1つである眼の開度指標を求めているが、その
処理過程では、画像データの濃度値を白黒で二値化す
る、画面の不必要な部分に黒いマスク領域を設定して黒
部分の個数を減じる、個々の島状の黒部分をそれぞれひ
とかたまりに扱ってラベリングする等によりデータ数を
削減している。
For example, in the dozing alarm device disclosed in Japanese Patent Application Laid-Open No. Hei 7-181012, an eye opening index, which is one of the feature values of a face, is obtained from face image data. Binarize the density value of image data in black and white, set a black mask area in unnecessary parts of the screen to reduce the number of black parts, label each island-like black part as a unit, etc. Reduces the number of data.

【0004】[0004]

【発明が解決しようとする課題】特開平7−18101
2号公報に示される処理では、眼の位置検出を行なうた
めに以下の3つのステップを踏む必要があるため、画像
処理や演算にかなりの時間を要する。
Problems to be Solved by the Invention Japanese Patent Laid-Open No. 7-18101
In the processing disclosed in Japanese Patent Laid-Open No. 2 (1994), the following three steps need to be performed in order to detect the position of the eye, so that considerable time is required for image processing and calculation.

【0005】(1)濃度値の二値化やノイズ除去を主と
した画像データの前処理 (2)眼の横方向の位置を特定するための顔幅検出(ラ
ベリング、粒子除去、白画素の連続性の判定等) (3)眼の縦方向の位置検出(各ラベルの重心座標と面
積値とフィレ径の判定等)
[0005] (1) Preprocessing of image data mainly on binarization of density values and noise removal (2) Face width detection (labeling, particle removal, white pixel (3) Vertical eye position detection (judgment of barycentric coordinates, area value and fillet diameter of each label)

【0006】つまり、濃度値が二値化されているとは言
え、個々の島状の黒部分ごとに数100〜数万の画素を
含んでいるため、これらの処理の1つ1つの演算にかな
りの時間がかかる。従って、処理の周期を短縮して判定
の追従性や信頼性を高めることが困難であり、演算装置
の小型化や他の演算処理の割り込み処理も困難であっ
た。
That is, although the density value is binarized, each of the island-shaped black portions includes several hundreds to several tens of thousands of pixels, so that each of these processes requires one operation. Takes a considerable amount of time. Therefore, it is difficult to shorten the processing cycle to increase the follow-up performance and reliability of the determination, and it is also difficult to reduce the size of the arithmetic unit and interrupt processing of other arithmetic processing.

【0007】また、顔面上の黒部分を個々に分離した状
態でラベリングを行なうため、眼に該当する黒部分に他
の黒部分が連続した状態、例えば、長髪が眼尻にかかっ
た場合には、白黒に二値化された画像上で眼に該当する
黒部分が他の黒部分と一体化して眼に該当する黒部分を
特定できなくなる。
In addition, since labeling is performed in a state where the black portions on the face are individually separated, when a black portion corresponding to the eye is connected to another black portion, for example, when long hair is applied to the outer corner of the eye, On the black and white binarized image, the black portion corresponding to the eye is integrated with other black portions, and the black portion corresponding to the eye cannot be specified.

【0008】そこで本願出願人は、演算されるデータ量
が削減されて処理速度が高まるとともに、長髪が眼尻に
かかった場合でも眼に対応する特徴量を正確に特定でき
る眼位置検出装置として、例えば特願平8−10190
4号に記載されたようなものを提案している。
Accordingly, the applicant of the present application has developed an eye position detecting device that can reduce the amount of data to be calculated, increase the processing speed, and accurately specify the feature amount corresponding to the eye even when the long hair hangs on the outside of the eye. For example, Japanese Patent Application No. 8-10190
No. 4 is proposed.

【0009】この眼位置検出装置は、顔の縦方向の画素
列に沿って画素の濃度を検出し、前記画素列における濃
度の局所的な高まりごとに1個づつの画素を定めて抽出
点とし、隣接する画素列の画素列方向に近接した抽出点
を連結して顔の横方向に伸びる曲線データから眼の位置
を検出する構成としたものである。
The eye position detecting device detects the density of pixels along a vertical pixel row of the face, and determines one pixel for each local increase in density in the pixel row to determine an extraction point. In addition, extraction points adjacent to each other in the pixel column direction of adjacent pixel columns are connected to detect the position of the eye from curve data extending in the horizontal direction of the face.

【0010】この発明は、上記眼位置検出装置をさらに
改良したもので、眼の位置検出対象者の背景の部分にノ
イズとなるカーテンレールやサンルーフなどが存在して
も眼の位置の検出精度が保てる眼位置検出装置を提供す
ることを課題としている。
The present invention is a further improvement of the above-mentioned eye position detecting device, and the detection accuracy of the eye position can be improved even if there is a curtain rail or sunroof which becomes noise in the background portion of the eye position detection target person. An object of the present invention is to provide an eye position detecting device that can be maintained.

【0011】[0011]

【課題を解決するための手段】請求項1の発明は、顔を
含んだ画像データを入力する画像入力手段と、入力され
た画像データの縦方向の画素列に沿って画素の濃度を読
み出し、該画素列上の濃度値の片方向のピークの前の濃
度変化の微分値が所定値を越えることを条件に、濃度値
の片方向のピークの画素を特定して抽出点とするポイン
ト抽出手段と、隣接する画素列の画素列方向に近接した
前記抽出点を連続して顔の横方向に伸びる曲線データを
抽出する曲線データ抽出手段と、前記曲線データの移動
状態を判定する移動状態判定手段と、前記曲線データが
動的であると判定された場合に該曲線データに基づいて
眼の位置を検出する眼の位置検出手段とからなることを
特徴とする。
According to the first aspect of the present invention, there is provided image input means for inputting image data including a face, and reading out the density of pixels along a vertical pixel row of the input image data. Point extraction means for specifying the pixel of the one-way peak of the density value as an extraction point on the condition that the differential value of the density change before the one-way peak of the density value on the pixel row exceeds a predetermined value. And curve data extracting means for continuously extracting the curve data extending in the horizontal direction of the face at the extraction points adjacent to each other in the pixel row direction of the adjacent pixel row, and moving state determining means for determining the moving state of the curve data And eye position detecting means for detecting an eye position based on the curve data when the curve data is determined to be dynamic.

【0012】従って、動きの判定対象とする曲線データ
を曲線データ抽出手段によって絞り込み、該当する曲線
データの移動状態を移動状態判定手段によって判定し、
曲線データが動的であると判定された場合に、該曲線デ
ータに基づいて眼の位置検出手段によって眼の位置を検
出することができる。
Accordingly, the curve data to be determined as the movement is narrowed down by the curve data extracting means, and the moving state of the corresponding curve data is determined by the moving state determining means.
When it is determined that the curve data is dynamic, the position of the eye can be detected by the eye position detecting means based on the curve data.

【0013】請求項2の発明は、請求項1記載の眼位置
検出装置であって、前記曲線データ抽出手段で抽出され
た曲線データを含む眼の位置検索領域1を設定する眼の
位置検索領域1設定手段と、前記眼の位置検索領域1に
おいて最上端に出現する曲線データを検出する最上端曲
線データ検出手段と、前記最上端の曲線データを基準と
して眼の位置検索領域2を設定する眼の位置検索領域2
設定手段と、前記眼の位置検索領域2に出現する曲線デ
ータの移動状態を判定する曲線データの移動状態判定手
段と、前記対象となる曲線データが動的であると判定さ
れた場合に眼の位置検索領域3を設定する眼の位置検索
領域3設定手段と、前記対象となる曲線データが静的な
曲線データであると判定された場合に眼の位置検索領域
1の設定に戻し、該当する前記曲線データの位置情報を
基に眼の位置検索領域1の範囲を上下方向に縮小する眼
の位置検索領域1の縮小手段と、前記眼の位置検索領域
3内に出現する曲線データの相対位置関係より眼の位置
を検出する眼の位置検出手段からなることを特徴とす
る。
According to a second aspect of the present invention, there is provided the eye position detecting device according to the first aspect, wherein an eye position search area 1 for setting an eye position search area 1 including the curve data extracted by the curve data extracting means. 1 setting means, uppermost curve data detecting means for detecting curve data appearing at the uppermost end in the eye position search area 1, and an eye for setting an eye position search area 2 based on the uppermost curve data Location search area 2
Setting means; moving state determining means for curve data for determining the moving state of curve data appearing in the eye position search area 2; and eye moving when the target curve data is determined to be dynamic. An eye position search area 3 setting means for setting the position search area 3; and returning to the setting of the eye position search area 1 when the target curve data is determined to be static curve data. A means for reducing the eye position search area 1 to reduce the range of the eye position search area 1 vertically based on the position information of the curve data, and a relative position of the curve data appearing in the eye position search area 3 It is characterized by comprising eye position detecting means for detecting the position of the eye from the relationship.

【0014】従って、請求項1の発明の作用に加え、ま
ず眼の位置検索領域1設定手段によって、曲線データ抽
出手段で抽出された曲線データを含む眼の位置検索領域
1を設定し、次いで最上端曲線データ検出手段によって
眼の位置検索領域1において最上端に出現する曲線デー
タを検出し、眼の位置検索領域2設定手段によって最上
端の曲線データを基準とした眼の位置検索領域2を設定
する。こうして、曲線データを絞り込み、移動状態判定
手段によって眼の位置検索領域2に出現する曲線データ
の移動状態を判定し、曲線データが動的であると判定さ
れた場合に、眼の位置検索領域3設定手段によって眼の
位置検索領域3を設定する。対象となる曲線データが静
的な曲線データであると判定された場合には、眼の位置
検索領域1の設定に戻し、該当する曲線データの位置情
報を基に、眼の位置検索領域1の縮小手段によって眼の
位置検索領域1の範囲を上下方向に縮小する。眼の位置
検出手段は、前記眼の位置検索領域3内に出現した曲線
データの相対位置関係より眼の位置を検出する。従っ
て、眼の位置検索領域1、眼の位置検索領域2、眼の位
置検索領域3と曲線データを絞り込むことによって、眼
の位置を検出することができる。
Therefore, in addition to the operation of the first aspect of the present invention, first, the eye position search area 1 including the curve data extracted by the curve data extraction means is set by the eye position search area 1 setting means. The uppermost curve data detecting means detects the uppermost curve data appearing in the eye position search area 1, and the eye position search area 2 setting means sets the eye position search area 2 based on the uppermost curve data. I do. In this way, the curve data is narrowed down, the moving state of the curve data appearing in the eye position search area 2 is determined by the moving state determination means, and when the curve data is determined to be dynamic, the eye position search area 3 is determined. The eye position search area 3 is set by the setting means. If it is determined that the target curve data is static curve data, the setting is returned to the eye position search area 1 and the eye position search area 1 is set based on the position information of the corresponding curve data. The range of the eye position search area 1 is reduced vertically by the reducing means. The eye position detecting means detects the position of the eye from the relative positional relationship of the curve data appearing in the eye position search area 3. Therefore, the eye position can be detected by narrowing the curve data to the eye position search area 1, the eye position search area 2, and the eye position search area 3.

【0015】請求項3の発明は、請求項1又は2記載の
眼位置検出装置であって、前記移動状態判定手段は、前
記曲線データの移動状態を曲線データの上下方向の移動
量で判定することを特徴とする。
According to a third aspect of the present invention, in the eye position detecting apparatus according to the first or second aspect, the moving state determining means determines the moving state of the curve data based on a vertical movement amount of the curve data. It is characterized by the following.

【0016】従って、請求項1又は2の発明の作用に加
え、移動状態判定手段により曲線データの上下方向の移
動量で曲線データが動的であるか否かを判定することが
できる。このため、運転中の乗員の動きに応じた判定を
行なうことができる。
Therefore, in addition to the operation of the first or second aspect of the present invention, it is possible to determine whether or not the curve data is dynamic based on the amount of vertical movement of the curve data by the movement state determination means. Therefore, it is possible to make a determination according to the movement of the occupant during driving.

【0017】請求項4の発明は、請求項3記載の眼位置
検出装置であって、前記移動状態判定手段には、前記曲
線データの移動状態を曲線データを構成する各抽出点の
上下方向位置の平均値で判定することを特徴とする。
According to a fourth aspect of the present invention, in the eye position detecting apparatus according to the third aspect, the moving state determining means determines a moving state of the curve data in a vertical position of each extraction point constituting the curve data. Is characterized by the average value of

【0018】従って、請求項3の発明の作用に加え、移
動状態判定手段は曲線データの移動状態を曲線データを
構成する各抽出点の上下方向位置の平均値で判定するこ
とができる。
Therefore, in addition to the effect of the third aspect of the invention, the moving state determining means can determine the moving state of the curve data based on the average value of the vertical positions of the respective extraction points constituting the curve data.

【0019】請求項5の発明は、請求項1〜4のいずれ
かに記載の眼位置検出装置であって、前記移動状態判定
手段は、前記移動状態の判定を曲線データを構成する前
記抽出点の最上端位置のもので行なうことを特徴とす
る。
According to a fifth aspect of the present invention, there is provided the eye position detecting device according to any one of the first to fourth aspects, wherein the moving state determining means determines the moving state by extracting the extracted points forming curve data. Is performed at the uppermost position.

【0020】従って、請求項1〜4のいずれかの発明の
作用に加え、移動状態の判定を曲線データを構成する抽
出点の最上端位置のもので行なうことができる。
Therefore, in addition to the effect of any one of the first to fourth aspects of the present invention, the determination of the moving state can be made at the uppermost position of the extraction points constituting the curve data.

【0021】請求項6の発明は、請求項1〜4のいずれ
かに記載の眼位置検出装置であって、前記移動状態判定
手段は、前記眼の位置検索領域2内に出現する曲線デー
タの形状を判定する形状判定手段と、該形状判定手段の
出力結果により、前記曲線データの移動状態判定手段の
判定時間を変更する移動状態判定時間変更手段とを有す
ることを特徴とする。
According to a sixth aspect of the present invention, there is provided the eye position detecting device according to any one of the first to fourth aspects, wherein the moving state determining means determines a position of the curve data appearing in the eye position search area 2. It is characterized by comprising a shape judging means for judging a shape, and a moving state judgment time changing means for changing a judgment time of the moving state judging means of the curve data based on an output result of the shape judging means.

【0022】従って、請求項1〜4のいずれかの発明の
作用に加え、眼の位置検索領域2内に出現する曲線デー
タの形状を判定することにより、移動状態判定手段の判
定時間を変更することができ、例えば曲線データが上に
凸であれば眼である可能性が高く、判定時間を長くする
ことができる。
Therefore, in addition to the effect of any one of the first to fourth aspects of the present invention, the determination time of the moving state determination means is changed by determining the shape of the curve data appearing in the eye position search area 2. For example, if the curve data is convex upward, there is a high possibility that the eye is the eye, and the determination time can be lengthened.

【0023】請求項7の発明は、請求項1〜4のいずれ
かに記載の眼位置検出装置であって、前記移動状態判定
手段は、前記位置検索領域2内に出現する曲線データの
形状を判定する形状判定手段と、該形状判定手段の出力
結果により、前記曲線データの移動状態判定手段の判定
移動量を変更する移動状態判定移動量変更手段とを有す
ることを特徴とする。
According to a seventh aspect of the present invention, in the eye position detecting apparatus according to any one of the first to fourth aspects, the moving state determining means determines the shape of the curve data appearing in the position search area 2. It is characterized by comprising a shape determining means for determining, and a moving state determining movement amount changing means for changing a determining movement amount of the moving state determining means of the curve data based on an output result of the shape determining means.

【0024】従って、請求項1〜4のいずれかの発明の
作用に加え、曲線データの形状判定によって、移動状態
判定手段の判定移動量を変更することができる。このた
め、曲線データが上に凸であれば眼である可能性が高
く、判定移動量を小さくすることができる。
Therefore, in addition to the effect of any one of the first to fourth aspects of the present invention, the determination movement amount of the movement state determination means can be changed by determining the shape of the curve data. For this reason, if the curve data is convex upward, it is highly likely that the eye is the eye, and the determination movement amount can be reduced.

【0025】請求項8の発明は、請求項1〜4のいずれ
かに記載の眼位置検出装置であって、前記移動状態判定
手段は、前記眼の位置検索領域2内に出現する曲線デー
タの形状を判定する形状判定手段と、該形状判定手段の
出力結果により、前記眼の位置検索領域3の設定条件を
変更する領域3の設定条件変更手段とを有することを特
徴とする。
According to an eighth aspect of the present invention, in the eye position detecting device according to any one of the first to fourth aspects, the moving state determining means is configured to determine a position of the curve data appearing in the eye position search area 2. It is characterized by comprising a shape judging means for judging a shape, and a setting condition changing means for an area 3 for changing a setting condition of the eye position search area 3 based on an output result of the shape judging means.

【0026】従って、請求項1〜4のいずれかの発明の
作用に加え、曲線データの形状判定によって、眼の位置
検索領域3の設定条件を変更することができる。このた
め、曲線データが眼鏡フレームの下である場合にも眼の
位置検索領域3の設定条件の変更によって、眼に対応す
る曲線データを捉えることができる。
Therefore, in addition to the effect of any one of the first to fourth aspects of the present invention, the setting condition of the eye position search area 3 can be changed by determining the shape of the curve data. For this reason, even when the curve data is under the spectacle frame, the curve data corresponding to the eye can be captured by changing the setting condition of the eye position search area 3.

【0027】請求項9の発明は、請求項2記載の眼位置
検出装置であって、前記移動状態判定手段は、前記眼の
位置検索領域2内に出現する曲線データに基づいて顔の
画像データの左右に渡るように横長の眼の位置検索領域
4を設定する眼の位置検索領域4設定手段と、設定され
た眼の位置検索領域4内に左右2つ以上の曲線データが
あるか否かを判定する左右データ判定手段と、判定され
た左右データの上下段差の大小から曲線データを特定し
て前記眼の位置検索領域3の設定条件を変更する領域3
の設定条件変更手段とを備えたことを特徴とする。
According to a ninth aspect of the present invention, in the eye position detecting apparatus according to the second aspect, the moving state determining means is configured to detect face image data based on curve data appearing in the eye position search area 2. An eye position search area 4 setting means for setting a horizontally long eye position search area 4 so as to pass right and left, and whether or not there are two or more left and right curve data in the set eye position search area 4 Left and right data determination means for determining the position of the eye position search area 3 by specifying curve data based on the magnitude of the vertical step of the determined left and right data
And a setting condition changing means.

【0028】従って、請求項2の発明の作用に加え、眼
の位置検索領域2内に出現する曲線データから横長の眼
の位置検索領域4を設定する。設定された眼の位置検索
領域4内に左右2つ以上の曲線データがあるか否かを判
定し、判定された左右データの上下段差の大小から曲線
データを特定して、眼の位置検索領域3の設定条件を変
更することができる。従って、眉、眼、眼鏡のフレーム
の左右対称となる特徴を判定し、眼の位置を検出するこ
とができる。
Therefore, in addition to the effect of the second aspect of the present invention, a horizontally long eye position search area 4 is set from the curve data appearing in the eye position search area 2. It is determined whether or not there are two or more left and right curve data in the set eye position search area 4, and the curve data is specified based on the magnitude of the vertical step of the determined left and right data, and the eye position search area is determined. 3 setting conditions can be changed. Therefore, the position of the eye can be detected by determining the symmetrical feature of the eyebrow, eye, and eyeglass frames.

【0029】請求項10の発明は、請求項9記載の眼位
置検出装置であって、前記左右データ判定手段は、前記
眼の位置検索領域4内の上部より2つの曲線データを選
択することを特徴とする。
According to a tenth aspect of the present invention, there is provided the eye position detecting apparatus according to the ninth aspect, wherein the left and right data determining means selects two curve data from the upper part in the eye position search area 4. Features.

【0030】従って、請求項9の発明の作用に加え、眼
の位置検索領域4内の上部より2つの曲線データを選択
することができる。このため、眼の位置検索領域内にお
いて左右の眉、眼、眼鏡を捉えることができる。
Therefore, in addition to the operation of the ninth aspect, two curve data can be selected from the upper part in the eye position search area 4. Therefore, the left and right eyebrows, eyes, and glasses can be captured in the eye position search area.

【0031】請求項11の発明は、請求項9又は請求項
10に記載の眼位置検出装置であって、前記領域3の設
定条件変更手段は、前記左右データの段差が所定以下の
場合に前記眼の位置検索領域4内に出現する曲線データ
の形状を判定して前記曲線データの特定を行なう形状判
定手段を備えたことを特徴とする。
According to an eleventh aspect of the present invention, there is provided the eye position detecting apparatus according to the ninth or tenth aspect, wherein the setting condition changing means of the area 3 is configured to perform the setting when the level difference between the left and right data is less than a predetermined value. The image processing apparatus further includes a shape determining unit that determines the shape of the curve data appearing in the eye position search area 4 and specifies the curve data.

【0032】従って、請求項9又は請求項10の発明の
作用に加え、左右データの段差が所定以下の場合に、眼
の位置検索領域4内に出現する曲線データの形状を判定
して曲線データの特定を行なうことができる。このた
め、眼鏡フレームと眼との区別を行なうことが可能とな
る。
Therefore, in addition to the operation of the ninth or tenth aspect, when the level difference between the left and right data is equal to or less than a predetermined value, the shape of the curve data appearing in the eye position search area 4 is determined. Can be specified. For this reason, it becomes possible to distinguish between the eyeglass frame and the eye.

【0033】請求項12の発明は、請求項2又は請求項
6又は請求項7又は請求項8又は請求項11に記載の眼
位置検出装置であって、前記形状判定手段は、曲線デー
タの形状を曲線データを構成する各抽出点の最右点と最
左点とを直線で結び、前記直線に対する該曲線データの
中央にある抽出点の位置により形状を認識することを特
徴とする。
According to a twelfth aspect of the present invention, in the eye position detecting apparatus according to the second, sixth, seventh, eighth, or eleventh aspect, the shape determining means determines the shape of the curve data. Is characterized in that the rightmost point and the leftmost point of each extraction point constituting the curve data are connected by a straight line, and the shape is recognized based on the position of the extraction point at the center of the curve data with respect to the straight line.

【0034】従って、請求項2又は請求項6又は請求項
7又は請求項8又は請求項11に記載の発明の作用に加
え、抽出点の最右点と最左点とを直線で結び、直線に対
する曲線データの中央にある抽出点の位置により形状を
認識することができ、曲線データが上に凸であるか下に
凸であるかを認識することができる。
Therefore, in addition to the effect of the invention described in claim 2, claim 6, claim 7, claim 8, or claim 11, the rightmost point and the leftmost point of the extraction points are connected by a straight line, , The shape can be recognized based on the position of the extraction point at the center of the curve data, and whether the curve data is convex upward or downward can be recognized.

【0035】[0035]

【発明の効果】請求項1の発明では、該当する曲線デー
タの動きを判定することにより、眼の位置検出対象者の
背景の部分にノイズとなるカーテンレールやサンルーフ
等が存在しても、眼の位置の検出精度を保つことがで
き、正確な検出を行なうことができる。
According to the first aspect of the present invention, the movement of the corresponding curve data is determined, so that even if there is a curtain rail or sunroof which becomes noise in the background portion of the eye position detection target person, the eye position can be detected. The detection accuracy of the position can be maintained, and accurate detection can be performed.

【0036】請求項2の発明では、請求項1の発明の効
果に加え、眼の位置検索領域を3段階に絞り込むことに
よって、より正確な判定を行なうことができ、より正確
な眼の位置の検出を行なうことができる。
According to the second aspect of the present invention, in addition to the effect of the first aspect of the present invention, by narrowing the eye position search area to three levels, more accurate determination can be performed, and a more accurate eye position can be determined. Detection can be performed.

【0037】請求項3の発明では、請求項1又は2の発
明の効果に加え、移動状態の判定をより確実なデータを
用いることにより正確に行なうことができ、より正確な
眼の位置検出を行なうことができる。
According to the third aspect of the present invention, in addition to the effects of the first or second aspect of the present invention, the determination of the moving state can be accurately performed by using more reliable data, and more accurate eye position detection can be performed. Can do it.

【0038】請求項4の発明では、請求項3の発明の効
果に加え、曲線データの移動状態を曲線データを構成す
る各抽出点の上下方向位置の平均値で判定することによ
って、より正確な判定を行なうことができ、より正確な
眼の位置検出を行なうことができる。
According to the fourth aspect of the present invention, in addition to the effect of the third aspect of the present invention, the movement state of the curve data is determined by the average value of the vertical positions of the respective extraction points constituting the curve data, thereby providing more accurate. The determination can be performed, and more accurate eye position detection can be performed.

【0039】請求項5の発明では、請求項1〜4のいず
れかの発明の効果に加え、移動状態の判定を曲線データ
を構成する抽出点の最上端位置のもので行なうことがで
き、正確な判定を行なうことができ、正確な眼の位置検
出を行なうことができる。
According to the fifth aspect of the present invention, in addition to the effects of any one of the first to fourth aspects, the determination of the moving state can be made at the uppermost position of the extraction points constituting the curve data. And accurate eye position detection can be performed.

【0040】請求項6の発明では、請求項1〜4のいず
れかの発明の効果に加え、曲線データの形状判定によっ
て眼である可能性が高い場合には、長い時間判定するこ
とにより、より正確な判定を行なうことができ、より正
確な眼の位置検出を行なうことができる。
According to the sixth aspect of the present invention, in addition to the effects of any one of the first to fourth aspects, when the possibility of an eye is high due to the shape determination of the curve data, the determination is made for a long period of time. Accurate determination can be performed, and more accurate eye position detection can be performed.

【0041】請求項7の発明では、請求項1〜4のいず
れかの発明の効果に加え、形状判定によって眼である可
能性が高い場合には、判定移動量を小さくし、より正確
な判定を行なうことができ、より正確な眼の位置検出を
行なうことができる。
According to the seventh aspect of the invention, in addition to the effects of any one of the first to fourth aspects, when the possibility of the eye is high due to the shape determination, the moving amount of the determination is reduced, and more accurate determination is made. Can be performed, and more accurate eye position detection can be performed.

【0042】請求項8の発明では、請求項1〜4のいず
れかの発明の効果に加え、曲線データの形状判定によっ
て眼の位置検索領域3の設定条件を変更することによ
り、曲線データが例えば眼鏡フレームの下などであって
も、より正確な眼の位置検索領域3の設定を行なうこと
ができ、より正確な眼の位置検出を行なうことができ
る。
According to the eighth aspect of the present invention, in addition to the effect of any one of the first to fourth aspects, by changing the setting condition of the eye position search area 3 by judging the shape of the curve data, the curve data becomes, for example, Even under a spectacle frame or the like, more accurate eye position search area 3 can be set, and more accurate eye position detection can be performed.

【0043】請求項9の発明では、請求項2の発明の効
果に加え、横長の眼の位置検索領域4を設定することに
よって、左右対称に存在する眉、眼、眼鏡フレームの特
性に応じた判定を行なうことができ、より正確な判定に
よって、より正確な眼の位置検出を行なうことができ
る。
According to the ninth aspect of the present invention, in addition to the effect of the second aspect of the present invention, by setting the horizontally long eye position search area 4, the characteristics of the eyebrows, eyes, and eyeglass frames which exist symmetrically to the left and right are provided. The determination can be performed, and the more accurate determination enables more accurate eye position detection.

【0044】請求項10の発明では、請求項9の発明の
効果に加え、眼の位置検索領域4内の上部より2つの曲
線データを選択することによって、上部より順に選択
し、眼の位置検索領域4内での判定をより正確に行なう
ことができ、より正確な眼の位置検出を行なうことがで
きる。
According to the tenth aspect, in addition to the effect of the ninth aspect, by selecting two curve data from the upper part in the eye position search area 4, the selection is performed in order from the upper part, and the eye position search is performed. The determination in the area 4 can be performed more accurately, and more accurate eye position detection can be performed.

【0045】請求項11の発明では、請求項9又は10
の発明の効果に加え、眼の位置検索領域4内の曲線デー
タの形状判定によって、より正確な判定を行なうことが
でき、より正確な眼の位置検出を行なうことができる。
According to the eleventh aspect, in the ninth or tenth aspect,
In addition to the effects of the present invention, more accurate determination can be performed by determining the shape of the curve data in the eye position search area 4, and more accurate eye position detection can be performed.

【0046】請求項12の発明では、請求項2又は請求
項6又は請求項7又は請求項8又は請求項11の発明の
効果に加え、曲線データの形状を必要最小限の情報によ
り正確に認識することができ、より正確な眼の位置検出
を短時間で行なうことができる。
According to the twelfth aspect of the present invention, in addition to the effects of the second, sixth, seventh, eighth, or eleventh aspect, the shape of the curve data can be accurately recognized by the minimum necessary information. The eye position can be detected more accurately in a short time.

【0047】[0047]

【発明の実施の形態】図1は本発明の一実施形態の眼位
置検出装置の機能ブロック図に係り、該眼位置検出装置
は、画像入力手段CL1と濃度検出手段CL2とポイン
ト抽出手段CL3と曲線データの抽出手段CL4と所定
領域1の設定手段CL5と曲線データの検出手段CL6
と所定領域2の設定手段CL7と移動状態判定手段CL
8と所定領域3の設定手段CL9と所定領域1の縮小手
段CL10と眼の位置検出手段CL11とを備えてい
る。
FIG. 1 is a functional block diagram of an eye position detecting device according to an embodiment of the present invention. The eye position detecting device includes image input means CL1, density detecting means CL2, point extracting means CL3, Curve data extraction means CL4, predetermined area 1 setting means CL5, and curve data detection means CL6
, Predetermined area 2 setting means CL7 and moving state determination means CL
8, setting means CL9 for the predetermined area 3, reduction means CL10 for the predetermined area 1, and eye position detecting means CL11.

【0048】前記画像入力手段CL1は、運転者の顔を
含んだ画像データを入力する。前記濃度検出手段CL2
は、前記画像入力手段CL1から入力された画像データ
の縦方向の画素列の濃度を検出する。前記ポイント抽出
手段CL3は、前記画素列における濃度の高まりと、そ
の変化状態によりポイントを抽出する。前記曲線データ
の抽出手段CL4は、画素列上の濃度値の片方向のピー
クの前の濃度変化の微分値が所定値を越えることを条件
に、濃度値の片方向のピークの画素を特定して抽出点と
する。すなわち前記曲線データ抽出手段CL4は、隣接
する画素列の画素列方向に近接した抽出点を連続して、
顔の横方向に伸びる曲線データを抽出する。前記所定領
域1の設定手段CL5は、抽出された曲線データを含む
眼の位置検索領域1を設定する。前記最上端曲線データ
検出手段CL6は、眼の位置検索領域1において最上端
に出現する曲線データを検出する。前記所定領域2の設
定手段CL7は、最上端の曲線データを基準とした眼の
位置検索領域2を設定する。前記移動状態判定手段CL
8は、眼の位置検索領域2に出現する曲線データの移動
状態を判定する。前記所定領域3の設定手段CL9は、
前記対象となる曲線データが動的であると判定された場
合に、眼の位置検索領域3を設定する。前記所定領域1
の縮小手段CL10は、対象となる曲線データが静的な
曲線データであると判定された場合に、眼の位置検索領
域1の設定に戻し、該当する前記曲線データの位置情報
を基に眼の位置検索領域1の範囲を上下方向に縮小す
る。前記眼の位置検出手段CL11は、眼の位置検索領
域3内に出現する曲線データの相対位置関係より眼の位
置を検出する。
The image input means CL1 inputs image data including the driver's face. The density detecting means CL2
Detects the density of the pixel row in the vertical direction of the image data input from the image input means CL1. The point extracting means CL3 extracts points based on the increase in the density in the pixel row and its change state. The curve data extracting means CL4 specifies the pixel of the one-way peak of the density value on the condition that the differential value of the density change before the one-way peak of the density value on the pixel row exceeds a predetermined value. As an extraction point. That is, the curve data extraction means CL4 continuously extracts the extraction points adjacent to each other in the pixel column direction,
Extract the curve data extending in the horizontal direction of the face. The setting means CL5 for the predetermined area 1 sets the eye position search area 1 including the extracted curve data. The uppermost curve data detecting means CL6 detects curve data appearing at the uppermost end in the eye position search area 1. The predetermined area 2 setting means CL7 sets the eye position search area 2 based on the uppermost curve data. The moving state determining means CL
8 determines the moving state of the curve data appearing in the eye position search area 2. The setting means CL9 of the predetermined area 3 includes:
When it is determined that the target curve data is dynamic, an eye position search area 3 is set. The predetermined area 1
When it is determined that the target curve data is static curve data, the reduction means CL10 returns to the setting of the eye position search area 1 and sets the eye position based on the corresponding curve data position information. The range of the position search area 1 is reduced vertically. The eye position detecting means CL11 detects the position of the eye from the relative positional relationship of the curve data appearing in the eye position search area 3.

【0049】図2は、本発明の一実施形態に係る構成ブ
ロック図である。図2のようにインストルメントに設置
され、ドライバの顔部分を正面から撮影する画像入力手
段CL1として、カメラ21が備えられ、カメラ21に
よる入力画像は本実施形態では、図6に示すように、横
(X)方向512画素、縦(Y)方向480画素からな
る。前記カメラ21で撮影された入力画像は、A−D変
換器22を介してデジタル量の入力画像データとして、
画像メモリ23に格納される。前記画像メモリ23には
画像データ演算回路24が接続されている。該画像デー
タ演算回路24は、前記濃度検出手段CL2、ポイント
抽出手段CL3、曲線データの抽出手段CL4、所定領
域1の設定手段CL5、曲線データの検出手段CL6、
所定領域2の設定手段CL7、曲線データの移動状態判
定手段CL8、所定領域3の設定手段CL9、所定領域
1の縮小手段CL10からなる。
FIG. 2 is a configuration block diagram according to an embodiment of the present invention. As shown in FIG. 2, the camera 21 is provided as an image input unit CL1 that is installed on the instrument and captures the face of the driver from the front, and the input image from the camera 21 is, as shown in FIG. It consists of 512 pixels in the horizontal (X) direction and 480 pixels in the vertical (Y) direction. An input image captured by the camera 21 is converted into a digital amount of input image data via an AD converter 22.
It is stored in the image memory 23. An image data operation circuit 24 is connected to the image memory 23. The image data calculation circuit 24 includes the density detecting means CL2, point extracting means CL3, curve data extracting means CL4, predetermined area 1 setting means CL5, curve data detecting means CL6,
It comprises a predetermined area 2 setting means CL7, a curve data moving state determination means CL8, a predetermined area 3 setting means CL9, and a predetermined area 1 reduction means CL10.

【0050】該画像データ演算回路24には、眼の位置
検索領域3内において眼の位置を検出する眼の位置検出
手段CL11としての眼の位置検出回路25が接続され
ている。
The image data calculation circuit 24 is connected to an eye position detection circuit 25 as eye position detection means CL11 for detecting an eye position in the eye position search area 3.

【0051】次に、上記構成における動作の流れを、図
3〜図5のフローチャートと、図6〜図14の説明図を
用いて説明する。
Next, the flow of operation in the above configuration will be described with reference to the flowcharts of FIGS. 3 to 5 and the explanatory diagrams of FIGS. 6 to 14.

【0052】まず、ステップS301において、眼の位
置検索領域1の設定を行なう。この眼の位置検索領域1
は、図6に示すように画像全体がカバーできる領域とし
ている。これは、体格の違い等により眼の位置が変化し
ても許容するためである。
First, in step S301, an eye position search area 1 is set. This eye position search area 1
Is an area that can cover the entire image as shown in FIG. This is to allow a change in the eye position due to a difference in physique or the like.

【0053】ステップS302では、眼の検索領域内の
画素データを読みだし、ステップS303で、曲線デー
タとなる眼の候補データ(移行ステップでは、曲線デー
タのことを連続データと呼ぶ)を抽出する。ステップS
302とS303での処理内容を、図5のフローチャー
トと図6〜図9の説明図を用いて説明する。
In step S302, pixel data in the eye search area is read out, and in step S303, eye candidate data serving as curve data (in the transition step, the curve data is referred to as continuous data). Step S
The processing contents of 302 and S303 will be described with reference to the flowchart of FIG. 5 and the explanatory diagrams of FIGS.

【0054】まずステップS501においてカメラによ
ってドライバの顔部分を撮影し、1フレーム分の入力画
像がデジタル信号によって変換されたうえ画像メモリに
格納される。ステップS502では図6に示すように眼
の位置検索領域に対してポイント抽出の処理を行ない1
ライン終了後に、一つ隣のラインの処理に移して行き、
所定方向の全ラインでのポイント抽出が終了したか否か
を判断する。ステップS502で全ラインにおいてポイ
ント抽出が行なわれていないと判断された場合は、ステ
ップS503に移行する。
First, in step S501, the face of the driver is photographed by the camera, and the input image for one frame is converted by a digital signal and stored in the image memory. In step S502, point extraction processing is performed on the eye position search area as shown in FIG.
After the end of the line, move on to the processing of the next line,
It is determined whether or not point extraction has been completed for all lines in a predetermined direction. If it is determined in step S502 that point extraction has not been performed on all lines, the process proceeds to step S503.

【0055】ステップS503では、所定方向、例えば
上から下への1ラインの濃度値の相加平均演算を行な
う。この処理は、画像データ撮影時の濃度値の変化の小
さなばらつきを無くすことを目的としており、濃度値の
大局的な変化を捉えるためである。図7(a)に、図6
のXaのラインデータの相加平均演算の処理結果を示
す。
In step S503, arithmetic operations are performed on the density values of one line in a predetermined direction, for example, from top to bottom. This processing is intended to eliminate small variations in the change in density value at the time of capturing image data, and to capture a global change in density value. FIG.
3 shows the processing result of the arithmetic averaging operation of the line data of Xa.

【0056】図5のステップS504では、ステップS
503の演算結果である相加平均値における微分演算を
行なう。この処理結果を図7(b)に示す。図5のステ
ップS505では、ステップS504の演算結果である
微分値によるポイント抽出を行なう。そのポイントの抽
出方法は、微分値が負から正に変化するポイント(p1
〜p3)、図7(a)でいうと、グラフが下向きに凸に
なるポイントを抽出する。
In step S504 of FIG.
A differential operation is performed on the arithmetic mean value that is the operation result of step 503. FIG. 7B shows the processing result. In step S505 in FIG. 5, point extraction is performed using the differential value that is the result of the operation in step S504. The method of extracting the point is a point (p1) where the differential value changes from negative to positive.
~ P3), referring to FIG. 7 (a), extract points where the graph becomes convex downward.

【0057】次にそのポイントに達するまでの濃度値の
変化(q1〜q3)が所定値以下であるか否か、図7
(b)の微分値の安定基準値以下であるか否かを判定
し、所定値以下の濃度値の変化を持つポイントを対象と
してY座標値(A1〜A3)を抽出する。この処理が1
ライン終了後、ステップS506で、次のラインの処理
に切り換えていく。
Next, whether or not the change in the density value (q1 to q3) until the point is reached is equal to or less than a predetermined value.
It is determined whether or not the differential value of (b) is equal to or less than a stable reference value, and Y coordinates (A1 to A3) are extracted for points having a change in density value equal to or less than a predetermined value. This process is 1
After the end of the line, the process is switched to the processing of the next line in step S506.

【0058】ステップS502で全ラインのポイント抽
出が終了したと判断されると、図8に示すようなポイン
トが抽出される。つまり図6のXaライン上では、A
1,A2,A3の3つのポイントが抽出されていること
になる。
If it is determined in step S502 that point extraction for all lines has been completed, points as shown in FIG. 8 are extracted. That is, on the Xa line in FIG.
This means that three points 1, 1, and A3 have been extracted.

【0059】その後、ステップS507へ移行し、隣合
う各ラインの抽出ポイント(A1,A2,A3…)のY
座標値を比較し、Y座標値が所定値以内の場合、連続デ
ータとして、連続データのグループ番号、連続開始
ライン番号、連続データ数をメモリする。
Thereafter, the flow shifts to step S507, where Y of the extraction points (A1, A2, A3,.
The coordinate values are compared, and if the Y coordinate value is within a predetermined value, the continuous data group number, continuous start line number, and continuous data number are stored as continuous data.

【0060】ここでは検出対象を眼としているため、そ
の特徴量としては横に比較的長く続くデータであるとす
ることができるため、横方向に所定値以上続くというこ
とを条件に連続データを抽出する。よってステップS5
07での処理結果として図9に示すようなG1〜G6の
連続データを曲線データとして認識できる。
In this case, since the detection target is an eye, the feature amount thereof can be data that continues relatively long in the horizontal direction. Therefore, continuous data is extracted on the condition that the data continues for a predetermined value or more in the horizontal direction. I do. Therefore, step S5
As a result of processing at 07, continuous data of G1 to G6 as shown in FIG. 9 can be recognized as curve data.

【0061】ステップS303で連続データの抽出後、
ステップS304に移行する。ステップS304では、
各連続データの判断値の読み出しを行なっている。各連
続データの判断値とは、連続データの連続開始ラインと
終了ラインの中央値の算出による連続データの代表X座
標や連続データの各抽出点のY座標値の平均値の算出に
よる連続データの代表Y座標をいう。
After extracting the continuous data in step S303,
Move to step S304. In step S304,
The judgment value of each continuous data is read. The judgment value of each continuous data is defined as the representative X coordinate of the continuous data by calculating the median value of the continuous start line and the end line of the continuous data, or the average value of the Y coordinate value of each extraction point of the continuous data. Refers to a representative Y coordinate.

【0062】ステップS305では、眼の位置検索領域
3が設定されているか否かの判定を行なう。スタート直
後の段階では、眼の位置検索領域3は設定されていない
ためステップS306へ移行する。ステップS306で
は、眼の位置検索領域2が設定されているか否かの判定
を行なう。ステップS306でも、ステップS305と
同様にスタート直後の段階では、眼の位置検索領域2は
設定されていないためステップS307へ移行する。
In step S305, it is determined whether or not the eye position search area 3 has been set. At the stage immediately after the start, since the eye position search area 3 has not been set, the process proceeds to step S306. In step S306, it is determined whether or not the eye position search area 2 has been set. Also in step S306, similarly to step S305, at the stage immediately after the start, since the eye position search area 2 has not been set, the process proceeds to step S307.

【0063】ステップS307では、ステップS30
5,S306で眼の位置検索領域3でも2でもないと判
断されているため、眼の位置検索領域1において連続デ
ータを検出することになる。本ステップでは、図10に
示すように眼の位置検索領域1内に出現する最上端の連
続データを検出する。この処理は、画像全体に出現する
数多くの連続データをいきなりパターン化するのではな
く、最上端に出現する連続データにまず注目し、該当す
る連続データが顔の特徴量(眉、眼の連続データ)であ
ると仮定することにより極力眼の検索方法を簡単に行な
えるようにしている。
In step S307, step S30
Since it is determined in S306 that neither eye position search area 3 nor eye position 2 is set, continuous data is detected in eye position search area 1. In this step, as shown in FIG. 10, the uppermost continuous data appearing in the eye position search area 1 is detected. In this process, instead of suddenly patterning a large number of continuous data appearing in the entire image, the continuous data appearing at the uppermost end is first focused on, and the corresponding continuous data is used as a face feature amount (continuous eyebrow and eye data). ) So that the eye search method can be performed as easily as possible.

【0064】ステップS308では、図10に示すよう
に最上端の連続データの代表座標値を基準にした眼の位
置検索領域2を設定する。眼の位置検索領域2は、該当
する連続データが眉や眼など顔の特徴量であるか否かの
判定を所定時間に渡り繰り返し行ない、該当する連続デ
ータの出現状態の変化から求めている。よって眼の位置
検索領域2内に出現する連続データは一つであることが
望ましく、該当する連続データの両端の抽出点は、検索
する列密度を荒く設定した場合などにおいては、その点
の出現の有無により横方向(X座標方向)にかなりふら
れてしまうので、眼の位置検索領域2の横方向の幅も極
力小さく設定することが重要となる。
In step S308, as shown in FIG. 10, the eye position search area 2 is set based on the representative coordinate value of the uppermost continuous data. The eye position search area 2 repeatedly determines whether or not the corresponding continuous data is a facial feature such as eyebrows or eyes over a predetermined time, and obtains the change from the appearance state of the corresponding continuous data. Therefore, it is desirable that the number of continuous data appearing in the eye position search area 2 is one, and the extraction points at both ends of the corresponding continuous data are the appearance points of the point when the column density to be searched is set roughly. Is significantly shaken in the horizontal direction (X coordinate direction) depending on the presence / absence of, it is important to set the width of the eye position search area 2 in the horizontal direction as small as possible.

【0065】この後ステップS309で、前記所定時間
を計測するためのタイマーを作動させステップS302
に戻る。この時のステップS302での領域は図11に
示すように眼の位置検索領域2内についてだけ行なわれ
る。その後ステップS303〜S305の処理を同様に
行なう。
Thereafter, in step S309, a timer for measuring the predetermined time is operated to activate step S302.
Return to At this time, the area in step S302 is performed only within the eye position search area 2 as shown in FIG. Thereafter, the processing of steps S303 to S305 is performed in the same manner.

【0066】ステップS306では、眼の位置検索領域
2が設定されているため、図4のステップS401に移
行する。ステップS401では、ステップS309でス
タートさせたタイマーが所定時間経過しているか否かを
判定している。ステップS401で所定時間経過してい
ないと判定された場合は、ステップS402に移行す
る。
In step S306, since the eye position search area 2 has been set, the flow shifts to step S401 in FIG. In step S401, it is determined whether the timer started in step S309 has passed a predetermined time. If it is determined in step S401 that the predetermined time has not elapsed, the process proceeds to step S402.

【0067】ステップS402では、図12に示すよう
な各フレーム毎に出現する連続データの各抽出点のY座
標値(y1〜y9)の平均値の最大値を所定時間に達す
るまで更新しメモリする。ステップS403では、Y座
標値の平均値の最小値を所定時間に達するまで更新しメ
モリする。このY座標値の最小、最大値の更新において
更に動きの感度を高めたい場合は、連続データの各抽出
点の最上端(図12の場合はy2)となる点を代表値と
して用いることもできる。
In step S402, the maximum value of the average value of the Y coordinate values (y1 to y9) of each extraction point of the continuous data appearing for each frame as shown in FIG. 12 is updated and stored until a predetermined time is reached. . In step S403, the minimum value of the average of the Y coordinate values is updated and stored until a predetermined time is reached. If it is desired to further increase the sensitivity of the movement in updating the minimum and maximum values of the Y coordinate value, the point at the uppermost end (y2 in FIG. 12) of each extraction point of the continuous data can be used as a representative value. .

【0068】ステップS404では、眼の位置検出領域
2内に時間経過と共に出現するフレーム毎の動きをステ
ップS402とステップS403でメモリしたY座標値
の最大値と最小値との差で該当する連続データの上下方
向の動きを判断している。この時、連続データの動きを
判定するのに上下方向を用いているのは、眼の位置検索
領域2の大きさの所でも説明したように、横方向(X座
標方向)には抽出点の横方向への繋がり、言い換えれば
連続データ数はフレーム毎にばらつきがあり、処理の高
速化を図るために列密度を荒く設定している場合は更に
不利になるからである。ステップS404で連続データ
の動き量が判定移動量を越えない場合は、ステップS3
02に戻り同様の処理を繰り返す。
In step S404, the motion of each frame appearing in the eye position detection area 2 with the passage of time is represented by the difference between the maximum value and the minimum value of the Y coordinate value stored in step S402 and step S403. Is determined in the vertical direction. At this time, the vertical direction is used to determine the movement of the continuous data, as described in the description of the size of the eye position search area 2 in the horizontal direction (X coordinate direction). This is because the connection in the horizontal direction, in other words, the number of continuous data varies from frame to frame, and it is further disadvantageous when the column density is set to be coarse in order to increase the processing speed. If the moving amount of the continuous data does not exceed the determination moving amount in step S404, step S3
02 and the same processing is repeated.

【0069】この時、図10に示すような最上端の連続
データが、カーテンレールなど車室内構造物の静的な物
体である場合は、ステップS404でその動きが判定さ
れることなく、ステップS401で所定時間が経過した
と判定される。この時は、ステップS406に移行し、
タイマーをクリアする。その後、ステップS407で図
13に示すように、眼の位置検索領域2を設定する際、
基準とした座標値Aを含まないように上下方向に縮小し
た眼の位置検索領域1を設定する。
At this time, if the uppermost continuous data as shown in FIG. 10 is a static object of a vehicle interior structure such as a curtain rail, the movement is not determined in step S404, and step S401 is performed. It is determined that the predetermined time has elapsed. At this time, the process moves to step S406,
Clear the timer. Thereafter, as shown in FIG. 13 in step S407, when setting the eye position search area 2,
An eye position search area 1 reduced in the vertical direction so as not to include the reference coordinate value A is set.

【0070】ステップS408では眼の位置検索領域1
の縮小領域が限りなく上下方向に小さくなったか否かを
判定しており、検出対象領域に顔がある場合は、NOに
なることは極めて少ない。このステップS408でNO
になる場合は、検出対象者がいない場合に静的な物体だ
けが検出され最下端まで行っても動的な連続データが検
出できない場合のループであり、この時ステップS30
1に戻り眼の位置検索領域1の初期化を行なった上で同
様の処理を繰り返す。
In step S408, eye position search area 1
It is determined whether or not the reduced area has become infinitely smaller in the vertical direction. When a face is present in the detection target area, it is extremely unlikely to be NO. NO in this step S408
Is a loop in the case where only a static object is detected when there is no person to be detected and dynamic continuous data cannot be detected even when the detection is performed to the lowermost end.
1, the same process is repeated after initializing the eye position search area 1.

【0071】ステップS407で眼の位置検索領域1の
縮小後、該眼の位置検索領域1内の最上端に当たる連続
データが図13のBに示す顔の特徴量(本例では眉)が
捉えられた場合は、タイマースタート後の所定時間以内
に、ステップS404で顔の動きをY座標の変化が判定
移動量を越えたと判断される。この時、ステップS40
5に移行する。
After the eye position search area 1 is reduced in step S407, the continuous data corresponding to the uppermost end of the eye position search area 1 captures the face feature amount (the eyebrows in this example) shown in FIG. 13B. In this case, it is determined in step S404 that the change in the Y coordinate of the face movement exceeds the determination movement amount within a predetermined time after the start of the timer. At this time, step S40
Move to 5.

【0072】ステップS405では、図14に示すよう
な該当連続データを含む眼の検索領域3を設定する。眼
の位置検索領域3は、片側の眼、眉が含まれるぐらいの
大きさとする。これは、眼の位置検索領域2で動きが認
識された連続データが、顔の特徴量であることは分かっ
ているものの、眉か眼か眼鏡のフレームかまでは特定で
きていないからである。ステップS405で眼の位置検
索領域3の設定後、ステップS302に戻り該領域内で
の連続データの検出を行なう。
In step S405, an eye search area 3 including the corresponding continuous data as shown in FIG. 14 is set. The eye position search area 3 has a size that includes one eye and eyebrows. This is because, although it is known that the continuous data whose motion has been recognized in the eye position search area 2 is a facial feature, it has not been possible to specify the eyebrow, eye, or eyeglass frame. After setting the eye position search area 3 in step S405, the process returns to step S302 to detect continuous data in the area.

【0073】この時ステップS305では、眼の位置検
索領域3が設定されていると判定されるため、ステップ
S310に移行し、眼の位置検索領域3内に出現する連
続データからの眼に該当する連続データの選択を行な
う。この時の選択方法は、各連続データの相対位置関係
などで判定する。選択式は、眼の対象がある程度まで絞
り込まれているため非常に簡単に構成することが可能
で、その分高い眼の検出精度も確保できる。その後、ス
テップS311で眼の位置座標を出力し画像全体からの
眼の位置検出処理を終了する。
At this time, in step S305, since it is determined that the eye position search area 3 has been set, the flow shifts to step S310 to correspond to the eyes from the continuous data appearing in the eye position search area 3. Select continuous data. The selection method at this time is determined based on the relative positional relationship between the respective continuous data. The selection type can be configured very easily because the target of the eye is narrowed down to a certain extent, and a higher eye detection accuracy can be ensured accordingly. Then, in step S311, the eye position coordinates are output, and the eye position detection process from the entire image is completed.

【0074】つぎに、図15,図16のフローチャート
と図17を用いて、連続データの形状判定を追加するこ
とにより確実に眼を捉える方法を説明する。
Next, a method for surely capturing the eye by adding the shape determination of the continuous data will be described with reference to the flowcharts of FIGS. 15 and 16 and FIG.

【0075】図15のフローチャートは図4のフローチ
ャートに対しステップS1504を追加したものであ
る。
The flowchart of FIG. 15 is obtained by adding step S1504 to the flowchart of FIG.

【0076】形状の判定方法は、眼の位置検索領域2内
に出現する連続データの例で説明する。連続データの形
状判定方法は、図17に示すように連続開始点ysと連
続終了点yeを直線で結び、その中央付近の抽出点のあ
るX座標上のY座標値ycを算出する。この時、同ライ
ン上にある抽出点とycの位置関係を判定することによ
り該当連続データが上に凸形状であるか、下に凸形状で
あるか、ほぼ直線形状にあるかを判定する。この判定に
よりカーテンレールやサンルーフなどが検出された連続
データである場合は、図17(a)のようにほぼ水平に
なることが多いのに対し、眼や眉などのデータの場合は
上に凸となることが多い。
The method of determining the shape will be described using an example of continuous data appearing in the eye position search area 2. In the method of determining the shape of continuous data, as shown in FIG. 17, a continuous start point ys and a continuous end point ye are connected by a straight line, and a Y coordinate value yc on an X coordinate having an extraction point near the center is calculated. At this time, by determining the positional relationship between the extraction point and yc on the same line, it is determined whether the continuous data has an upward convex shape, a downward convex shape, or a substantially linear shape. In the case of continuous data in which a curtain rail, a sunroof, and the like are detected by this determination, the data is often almost horizontal as shown in FIG. Often becomes.

【0077】上記、連続データの形状判定方法は、必要
最小限の情報により、検出対象物の形状特徴を確実に捉
えることができ、処理がシンプルであるため、その形状
判定時間も短時間で行なえるメリットがある。
In the above-described method for determining the shape of continuous data, the shape characteristics of the object to be detected can be reliably grasped with the minimum necessary information, and the processing is simple. Therefore, the shape determination time can be shortened. There are advantages.

【0078】図16のフローチャートは、図5のフロー
チャートに対しステップS1602〜S1605を追加
したものである。
The flowchart of FIG. 16 is obtained by adding steps S1602 to S1605 to the flowchart of FIG.

【0079】上記ステップは、連続データの形状情報を
利用し、より確実に眼を捉えることを目的としている。
すあわち、連続データの形状が上に凸である場合は、眼
の可能性が高く、判定時間を長くしたり、判定移動量を
小さくする。同直線状であれば、運転者の後のカーテン
レールやサンルーフである可能性が高く、判定時間を短
くしたり、判定移動量を大きくする。これにより、検出
精度の向上を図るのである。
The above-mentioned steps are intended to use the shape information of the continuous data to more surely catch the eyes.
That is, when the shape of the continuous data is convex upward, the possibility of the eye is high, and the determination time is lengthened or the determination movement amount is reduced. If the shape is the same straight line, there is a high possibility that the curtain rail or the sunroof is behind the driver, and the determination time is shortened or the determination movement amount is increased. Thereby, the detection accuracy is improved.

【0080】ステップS1602では、眼の位置検索領
域2内に出現する連続データの形状が上に凸か否かを判
定する。この時、上に凸であればステップS1603に
移行し、上に凸形状カウンタをカウントアップする。こ
の処理は、検出対象となっている連続データが眉や眼で
ある場合は、目を閉じている時などを除くと、その大半
が上に凸形状となっていることに注目したものである。
In step S1602, it is determined whether the shape of the continuous data appearing in the eye position search area 2 is upwardly convex. At this time, if it is convex upward, the process proceeds to step S1603, and the upward convex counter is counted up. This process focuses on the fact that when the continuous data to be detected is eyebrows or eyes, most of the data is convex upward except when the eyes are closed. .

【0081】よって、ステップS1604では、ステッ
プS1601で所定時間A内で繰り返される処理で上に
凸形状カウンタが所定個数に達したか否かを判定してい
る。この時、前述したように眼、眉などを対象とした連
続データである場合は、上に凸形状カウンタは早期にカ
ウントアップされステップS1605に移行する。
Accordingly, in step S1604, it is determined whether or not the number of upwardly convex counters has reached a predetermined number in the processing repeated within the predetermined time A in step S1601. At this time, as described above, if the data is continuous data for the eyes, eyebrows, etc., the upward convex counter is counted up at an early stage, and the process proceeds to step S1605.

【0082】ステップS1605では、所定時間Aの延
長、または判定移動量Bを小さくする。所定時間Aの延
長、判定移動量Bを小さくするのは、検出対象者の動き
が極端に小さい場合に対応させるためである。また、上
に凸形状カウンタは、眼の位置検索領域3が設定された
場合、または、所定時間Aを越えた場合にクリアする。
In step S1605, the predetermined time A is extended, or the determination movement amount B is reduced. The extension of the predetermined time A and the reduction of the determination movement amount B are to cope with a case where the movement of the detection target person is extremely small. The upward convex counter is cleared when the eye position search area 3 is set or when the predetermined time A is exceeded.

【0083】つぎに、図18〜図21を用いて連続デー
タの形状判定を追加することにより眼鏡のフレームの下
を動きを判定対象とした場合においても、確実に眼を捉
える方法を説明する。
Next, a method for surely catching the eye even when the movement under the frame of the glasses is to be determined by adding the shape determination of the continuous data with reference to FIGS. 18 to 21 will be described.

【0084】図18に示すような眼鏡を掛けている検出
対象者において、顔の動きがたまたま小さく図19に示
すように眼の位置検索領域1が縮小されてしまい眼の位
置検出領域1の最上端の連続データが眼鏡フレームの下
で検出され、眼の位置検索領域2が設定されて動きの判
定に移り、該当する連続データが動いたと判定された場
合、図14に準じて眼の位置検索領域3を設定すると眼
鏡フレームの上にある眼は領域外となってしまい検出で
きない。また、眼の位置検索領域3を単に上方に拡大す
る対策では、髪の毛など新たにノイズとなる連続データ
が出現する場合があり眼の検出精度を低下させる恐れが
ある。
In the detection target person wearing glasses as shown in FIG. 18, the face movement happens to be small and the eye position search area 1 is reduced as shown in FIG. When the continuous data at the upper end is detected under the eyeglass frame, the eye position search area 2 is set, and the process proceeds to the motion determination. When it is determined that the corresponding continuous data has moved, the eye position search is performed according to FIG. If the region 3 is set, the eye above the eyeglass frame is outside the region and cannot be detected. In addition, in the measure for simply expanding the eye position search area 3 upward, continuous data that becomes noise, such as hair, may appear and the eye detection accuracy may be reduced.

【0085】そこで本実施例では、眼の位置検索領域2
内の出現する連続データの形状判定を行なうことによ
り、この問題点を解決する。図20に示すように眼鏡フ
レームの下である場合は、下に凸となる連続データとな
ることが多く、この下に凸となる連続データの出現頻度
を判定することより、図21に示すように眼の位置検索
領域3の設定位置を変更することができる。この連続デ
ータの形状判定により、眼の位置検索領域2内の判定が
眼鏡フレームの下で動きの判定がなされても眼の位置検
索領域3内に眼の連続データを捉えることができ、眼の
検出は可能となる。
Therefore, in this embodiment, the eye position search area 2
This problem is solved by determining the shape of the continuous data appearing in. As shown in FIG. 20, when it is below the spectacle frame, continuous data having a downward convex is often obtained. By determining the appearance frequency of the continuous data having a downward convex, as shown in FIG. The setting position of the eye position search area 3 can be changed. By determining the shape of the continuous data, continuous data of the eye can be captured in the eye position search area 3 even if the determination in the eye position search area 2 is performed under the spectacle frame. Detection is possible.

【0086】つぎに、図26に示す眼の位置検索領域4
での連続データの形状判定を追加することにより、更に
眼の位置検索領域3の設定位置補正を確実に行なう方法
を説明する。
Next, the eye position search area 4 shown in FIG.
A method for further surely correcting the set position of the eye position search area 3 by adding the shape determination of the continuous data in the above will be described.

【0087】この実施例の詳細は、図22〜図24のフ
ローチャートと、図25〜図36を用いて説明する。
The details of this embodiment will be described with reference to the flowcharts of FIGS. 22 to 24 and FIGS. 25 to 36.

【0088】図22は、図15のフローチャートに対
し、ステップS2207を追加したものである。前述の
実施例では、眼の位置検索領域2内に出現する連続デー
タの移動量を判定し、その条件が満たされた時に眼の検
索領域3を設定したが、この実施例では、その前に図2
3のフローチャートのステップS2309に示すように
眼の位置検索領域4を設定し、該領域内に出現する2つ
の連続データの相対位置関係と形状を判定する。よっ
て、図23のステップS2309で眼の位置検索領域4
が設定された場合、図22のステップS2207から図
24のステップS2401に移行する。
FIG. 22 is obtained by adding step S2207 to the flowchart of FIG. In the above-described embodiment, the moving amount of continuous data appearing in the eye position search area 2 is determined, and the eye search area 3 is set when the condition is satisfied. FIG.
The eye position search area 4 is set as shown in step S2309 of the flowchart of No. 3, and the relative positional relationship and shape of two continuous data appearing in the area are determined. Therefore, in step S2309 of FIG.
Is set, the process moves from step S2207 in FIG. 22 to step S2401 in FIG.

【0089】これより、図22のフローチャートに基づ
き眼の検索領域4内での判定内容について説明する。
Now, the details of the determination in the eye search area 4 will be described with reference to the flowchart of FIG.

【0090】図25は、眼の位置検索領域1内で最上端
に出現する連続データがG1として捉えられ、また、眼
の位置検索領域2内で該連続データの動きが判定条件を
満たした場合を示している。
FIG. 25 shows a case where the continuous data appearing at the uppermost end in the eye position search area 1 is regarded as G1, and the movement of the continuous data in the eye position search area 2 satisfies the determination condition. Is shown.

【0091】この時、図23のステップS2309での
眼の位置検索領域4は、図26に示すように連続データ
G1の中心座標を基準に左右、上下、等幅となる横長の
領域として設定する。図24のステップS2401で
は、この眼の位置検索領域4内に形状と位置条件を満た
す2つ以上の連続データがあるか否かを判定し、条件を
満たす2つ以上の連続データが存在する場合は、ステッ
プS2402に移行する。
At this time, the eye position search area 4 in step S2309 of FIG. 23 is set as a horizontally long area having the same width in the left, right, up, and down directions with reference to the center coordinates of the continuous data G1 as shown in FIG. . In step S2401 of FIG. 24, it is determined whether or not there is two or more continuous data that satisfies the shape and the position condition in the eye position search area 4, and there is two or more continuous data that satisfies the condition. Shifts to step S2402.

【0092】尚、図25でやや薄く記述している連続デ
ータG2は、連続データとしての検出が不安定で、フレ
ーム毎の処理においては、出現したりしなかったりする
連続データであることを示す。よって、図26の眼の位
置検索領域4内に出現する2つの連続データは、G1と
G4となることがある。また、この領域内に3つ以上の
連続データが出現した場合は、領域の上部より2つの連
続データを選択する。
The continuous data G2, which is described somewhat lightly in FIG. 25, indicates that the detection of the continuous data is unstable, and in the processing for each frame, the continuous data G2 does not appear. . Therefore, two continuous data appearing in the eye position search area 4 in FIG. 26 may be G1 and G4. When three or more continuous data appear in this area, two continuous data are selected from the upper part of the area.

【0093】この左右対称となる2つの連続データを検
出した段階では、該当する連続データが眉なのか眼なの
かは、まだ分かっていない状態にある。よって、図14
に示す眼の位置検索領域3を設定し、最終的な眼の連続
データの検出を行なう。
At the stage when two symmetrical continuous data are detected, it is not yet known whether the corresponding continuous data is an eyebrow or an eye. Therefore, FIG.
Is set, and the final eye continuous data is detected.

【0094】しかし、この眼の検索領域3の設定時に問
題になる場合がある。それは、前実施例でもその対策方
法の1つを説明したが、眼鏡のフレーム下でしか連続デ
ータを認識できず、眼の位置検索領域3を設定する場合
である。眼の位置検索領域3は、該当する連続データ
が、眉か眼かまだ分かっていない状態であるため、その
領域を該連続データを基準として下方向にだけ拡大して
設定し、その中に出現する連続データから眼の連続デー
タを検出している。
However, a problem may occur when setting the eye search area 3. Although one of the countermeasures has been described in the previous embodiment, this is a case where continuous data can be recognized only under the frame of the glasses and the eye position search area 3 is set. The eye position search area 3 is in a state where it is not yet known whether the corresponding continuous data is an eyebrow or an eye. Therefore, the area is enlarged and set only downward with reference to the continuous data, and appears in the area. Eye continuous data is detected from the continuous data.

【0095】下方向にだけ拡大している理由は、前実施
例でも説明したが、眉の連続データを基準としている場
合に、髪の毛による連続データが含まれてきたり、帽子
をかぶっている場合に帽子の連続データが出現すること
があり、眼の検索領域3内での判定が複雑になって眼の
検出精度が悪くなることがあるからである。
As described in the previous embodiment, the reason why the image is enlarged only in the downward direction is that when the continuous data of the eyebrows is used as a reference and continuous data of hair is included or a hat is worn. This is because continuous data of the hat may appear, and the determination in the eye search area 3 may be complicated, and the detection accuracy of the eye may deteriorate.

【0096】よって、図21に示す前実施例のように眼
の位置検索領域3を上方にずらして設定する必要があ
る。前実施例のように眼の位置検索領域2内での形状判
定だけによる方法でも、ある程度は眼鏡のフレームの下
の連続データであると判定でき眼の検索領域3を補正し
て設定することはできるが、眼鏡のフレーム下の連続デ
ータは、水平の連続データとして検出されることもあ
り、眼鏡のフレーム下であることが認識できない場合が
ある。
Therefore, it is necessary to shift the eye position search area 3 upward as in the previous embodiment shown in FIG. Even in the method based on the shape determination in the eye position search area 2 as in the previous embodiment, it is possible to determine to some extent that the data is continuous data under the frame of the eyeglasses, and it is not possible to correct and set the eye search area 3. However, continuous data under the frame of the glasses may be detected as horizontal continuous data, and it may not be possible to recognize that the data is under the frame of the glasses.

【0097】本実施例では、この眼鏡のフレーム下の連
続データであることを、より確実に判定するために眼の
位置検索領域4内に出現する2つの連続データを対象と
した2つの判定を行なっている。
In the present embodiment, in order to more reliably determine that the data is continuous data under the frame of the glasses, two determinations on two continuous data appearing in the eye position search area 4 are performed. I do.

【0098】その判定の一つは、ステップS2402
で、該当する2つのデータで向かって右側に当たる連続
データが眼であるか、または眼鏡のフレーム下であるか
を判断する。この2つの連続データの出現の有無の判定
は、眼が横方向の対称となる位置に2つ存在する特徴量
であることに基づいている。
One of the determinations is step S2402
Then, it is determined whether the continuous data corresponding to the right side of the two corresponding data is the eye or under the frame of the glasses. The determination of the presence or absence of the appearance of the two continuous data is based on the fact that the two feature amounts exist at positions where the eyes are symmetrical in the horizontal direction.

【0099】この眼の存在領域4内に出現する左右対称
となる2つの連続データは、向かって左側の眉(眼鏡を
掛けている場合は眼鏡のフレーム上の場合もある)と右
側の眼、左側の眼と右側の眼の場合がある。更に、図2
6に示すように右側の眉と左側の眼のように段違いで検
出する場合もある。これは前髪を下ろしていて眉にかか
っているような人の場合、眉に相当する連続データの出
現が不安定になるからである。
The two symmetrical continuous data appearing in the eye existence area 4 are composed of the left eyebrow (which may be on the frame of the eyeglasses when wearing glasses) and the right eye, May be left eye and right eye. Further, FIG.
As shown in FIG. 6, there is also a case where detection is performed at different levels, such as a right eyebrow and a left eye. This is because the appearance of continuous data corresponding to the eyebrows becomes unstable in the case of a person who has bangs down and is on the eyebrows.

【0100】ステップS2402では、まず2つある連
続データの向かって右側のデータが眼または、眼鏡のフ
レーム下であるかを判定する。ここでの判定方法は図2
6に示すように、左右の連続データG1とG4の段差L
1が大きいか否かの判定を行なっている。このように右
側の連続データの位置が左側より下にくる場合は、図2
6に示すような左側の眉と右側の眼が対象になっている
場合と、図29に示すような左側の眼と右側の眼鏡のフ
レーム下が対象になっている場合である。
In step S2402, it is first determined whether the data on the right side of the two continuous data is below the eye or the frame of the glasses. The determination method here is shown in FIG.
As shown in FIG. 6, the level difference L between the left and right continuous data G1 and G4
It is determined whether 1 is large. When the position of the continuous data on the right side is lower than that on the left side,
The case where the left eyebrow and the right eye as shown in FIG. 6 are targeted and the case where the left eye and the right glasses under the frame as shown in FIG. 29 are targeted.

【0101】図29のような組み合わせで2つの連続デ
ータが出現する状況は、図28に示すように両眉が前髪
の影響で連続データとして捉えにくく、また、右側の眼
も眼鏡のレンズの反射などにより検出が不安定な場合で
ある。このような2つの連続データの組み合わせを、両
連続データの段差L1,L2で判定することにより、図
27,図30のように眼の検索領域3を上方に補正した
状態で設定する。図27の場合は、該当する連続データ
が眉であるため敢えて眼の位置検索領域3の設定位置を
補正する必要はないが、この場合は眉どうしの左右対称
を捉え設定する場合と同等なので眼の検出には問題は発
生しない。よってステップS2402で2つの連続デー
タに段差がある場合は、ステップS2403に移行し、
眼の位置検索領域3の設定位置を補正する。また、2つ
の連続データに段差がない場合は、図14に示す眼の位
置検索領域3のままとする。
In a situation where two continuous data appear in a combination as shown in FIG. 29, both eyebrows are difficult to catch as continuous data due to the influence of the bangs as shown in FIG. This is the case when detection is unstable due to factors such as the following. By determining such a combination of continuous data based on the steps L1 and L2 of both continuous data, the search area 3 of the eye is set to be corrected upward as shown in FIGS. In the case of FIG. 27, since the corresponding continuous data is the eyebrows, there is no need to correct the set position of the eye position search area 3. However, in this case, the eye position is equivalent to the case where the left and right symmetry of the eyebrows is captured and set. There is no problem in the detection of. Therefore, if there is a step in the two continuous data in step S2402, the process proceeds to step S2403,
The set position of the eye position search area 3 is corrected. When there is no step between the two continuous data, the eye position search area 3 shown in FIG.

【0102】つぎに、眼の位置検索領域4を眼の位置検
索領域1で特定した連続データを基準にして両側に領域
を広げ設定する理由を説明する。眼の位置検索領域1で
特定する連続データは、同領域内に出現する最上端の連
続データを捉えているため、左右どちらの眉、眼、眼鏡
のフレームかは特定できない。よって、その眉、眼、眼
鏡のフレームの対称位置関係にあるもう一つの連続デー
タを捉えるには、その両側を見る必要があるからであ
る。
Next, the reason why the eye position search area 4 is set to be wider on both sides with reference to the continuous data specified in the eye position search area 1 will be described. Since the continuous data specified in the eye position search area 1 captures the uppermost continuous data appearing in the same area, it cannot be specified which of the left and right eyebrows, eyes, and eyeglass frames. Therefore, it is necessary to look at both sides in order to capture another continuous data having a symmetrical positional relationship between the eyebrow, eye, and eyeglass frames.

【0103】この領域設定のメリットは、眉、眼、眼鏡
のフレームの左右対称となる特徴を判定することでの眼
の検出精度の向上に加え、自動車の中の光環境変化に対
する対応力の向上もある。その内容を具体的に説明する
と、右ハンドル車の場合、運転者の顔の右側はサイドウ
ィンドウからの直射光があたることがあり、画像上の眼
の形が捉えにくくなる場合がある。よって、眼の形を正
確に捉えるには、車両内側の眼、つまり運転者の左眼の
方が好ましいといえる。眼の位置検索領域4を追加し、
左右の眉、眼、眼鏡のフレームを捉えることは、光環境
的に比較的安定している運転者の左眼を確実に検出でき
るため、車室内の光環境変化にも強いといえる。
The merit of this region setting is that, in addition to the improvement of the eye detection accuracy by judging the bilaterally symmetrical features of the eyebrow, eye, and eyeglass frames, the improvement of the ability to respond to changes in the light environment in the vehicle. There is also. Specifically, in the case of a right-hand drive vehicle, the right side of the driver's face may be exposed to direct light from the side window, and it may be difficult to capture the shape of the eye on the image. Therefore, in order to accurately grasp the shape of the eye, it can be said that the eye inside the vehicle, that is, the left eye of the driver is more preferable. Add eye position search area 4,
Capturing the left and right eyebrows, eyes, and eyeglass frames can reliably detect the driver's left eye, which is relatively stable in the light environment, and is therefore strong against changes in the light environment in the vehicle interior.

【0104】つぎにもう1つの眼鏡フレームの下の判定
方法を説明する。その判定はステップS2404で行な
っている。ステップS2402では、眼の位置検索領域
4内に出現する2つの連続データを対象とした形状判定
を行なうことにより、眼鏡のフレームの下であることを
認識する方法である。その処理の流れを図31〜図36
を用いて説明する。
Next, a description will be given of a method of judging another eyeglass frame. This determination is made in step S2404. In step S2402, the shape is determined for two continuous data appearing in the eye position search area 4, thereby recognizing that it is under the frame of the glasses. The flow of the processing is shown in FIGS.
This will be described with reference to FIG.

【0105】前髪の影響で眉、眼鏡のレンズの影響で眼
が捉えきれなかった場合、図31に示すように眼鏡のフ
レームG6の連続データが検出対象となることもある。
このような場合、眼の位置検索領域4における左右対称
の関係になる2つの連続データの出現は、左右の段差L
3は小さいのでステップS2402では眼鏡のフレーム
の下の連続データであることは認識できない。そこでス
テップS2404では、図20で説明したように眼鏡の
フレームの下の連続データの特徴である下に凸形状とな
っているか否かの判定を行なう。
When the eye cannot be completely caught by the eyebrows and the eyeglass lens due to the effect of the forelock, continuous data of the eyeglass frame G6 may be detected as shown in FIG.
In such a case, the appearance of two continuous data in a left-right symmetric relationship in the eye position search area 4 is caused by the left and right steps L
Since 3 is small, it cannot be recognized in step S2402 that it is continuous data under the frame of glasses. Thus, in step S2404, it is determined whether or not a downward convex shape, which is a feature of the continuous data below the eyeglass frame, as described with reference to FIG.

【0106】尚、本実施形態での形状判定は左右の2つ
の連続データでの形状判定が行なえるため、図34に示
す両側の連続データと共に下に凸形状となるものに加
え、図35のように向かって左側だけの連続データが下
に凸形状となるものと、図36のように向かって右側だ
けの連続データが下に凸形状となるものも眼鏡フレーム
の下と認識できる。よって、前実施形態に対し、その認
識精度を大きく向上させることができる。
In this embodiment, since the shape can be determined by using two continuous data on the left and right sides, the shape is determined to be convex downward along with the continuous data on both sides shown in FIG. 36, the continuous data only on the left side has a downward convex shape as shown in FIG. 36, and the continuous data only on the right side has a downward convex shape as shown in FIG. 36. Therefore, the recognition accuracy can be greatly improved compared to the previous embodiment.

【0107】ステップS2404で前記条件を満たした
場合は、ステップS2405に移行し、眼の検索領域3
の設定位置を補正する。ステップS2402及びステッ
プS2404の両ステップの条件を満たさない場合は、
通常の眼の位置検索領域3をステップS2406で設定
し、ステップS2202に戻る。また、ステップS24
01で眼の位置検索領域4内に形状と位置条件を満足す
る2つの連続データがない場合は、ステップS2407
に移行し眼の位置検索領域2の設定基準を含まない領域
に縮小した眼の位置検索領域1を設定しステップS24
08に移行する。ステップS2408では眼の位置検索
領域1の縮小限界を判定しており、縮小限界を越えた場
合は、同検出領域を初期状態に戻す。ステップS240
1,S2407,S2408の処理は、眼の位置検索領
域4内に出現する左右対称の2つの連続データの出現を
判定することにより、検出のノイズとなる髪の毛や鼻、
口による連続データを対象外とすることができる。よっ
て、一時的な画像状態の悪化で眼の検出ができなかった
場合に、その下にある鼻や口の連続データが検出対象と
なることもなく、眼の位置検索領域1が下端まで達する
と、再度、画面の上部より眼の位置検出を行なうことが
できる。
If the above condition is satisfied in step S2404, the flow shifts to step S2405, where the eye search area 3
Correct the setting position of. If the conditions of both steps S2402 and S2404 are not satisfied,
The normal eye position search area 3 is set in step S2406, and the process returns to step S2202. Step S24
If there is no continuous data that satisfies the shape and position conditions in the eye position search area 4 in step 01, step S2407
Then, the reduced eye position search area 1 is set to an area not including the setting criterion of the eye position search area 2 and a step S24 is performed.
08. In step S2408, the reduction limit of the eye position search area 1 is determined. If the reduction limit is exceeded, the detection area is returned to the initial state. Step S240
The processing of steps S1, S2407, and S2408 determines the appearance of two symmetrical continuous data appearing in the eye position search area 4 so that hair and nose,
Mouth continuous data can be excluded. Therefore, when the eye cannot be detected due to the temporary deterioration of the image state, the continuous data of the nose and mouth under the eye cannot be detected, and the eye position search area 1 reaches the lower end. The eye position can be detected again from the upper part of the screen.

【0108】最後に連続データの形状判定を用いた眼の
位置検索領域3内に出現する眼の連続データの選択方法
について説明する。
Finally, a method of selecting continuous eye data appearing in the eye position search area 3 using the shape determination of the continuous data will be described.

【0109】眼の位置検索領域3の設定位置は、図37
の(a)〜(c)に示すようなパターンがある。(a)
は眉の連続データが基準となり同領域を下方向に拡大し
て設定したものを示し、(b)は眼の連続データが基準
となり同領域を上方向に拡大して設定したもの、(c)
は眼鏡フレームの下の連続データが基準となり同領域を
上方向に拡大したものを示す。(a)(b)のように同
領域内に眉と眼が存在する場合と、(c)のように眼と
眼鏡フレームの下が存在する場合がある。
The set position of the eye position search area 3 is shown in FIG.
(A) to (c). (A)
Fig. 7B shows a case where the same region is set to be expanded downward with reference to the continuous data of the eyebrows, and Fig. 10B shows a case where the same region is set to be expanded upward with the continuous data of the eye as a reference.
Indicates that the area is enlarged upward based on the continuous data below the spectacle frame. There are cases where the eyebrows and eyes are present in the same area as in (a) and (b), and cases where the eyes and below the spectacle frame are present as in (c).

【0110】この2つのパターンでは両連続データの位
置関係だけでは、その判定は困難である。しかし、各連
続データの形状データを用いれば、その区別を確実に行
なうことができる。つまり眉と眼は上に凸形状となるこ
とが多く、眉は下に凸形状となることはない。また、眼
鏡フレームの下は下に凸形状となることが多く、上に凸
形状となることはない。このように同領域内に出現した
連続データの位置関係に形状の組み合わせ判定を加える
ことで更に眼の検出精度を高めることができる。
In these two patterns, it is difficult to determine only the positional relationship between the continuous data. However, if the shape data of each continuous data is used, the distinction can be reliably performed. That is, the eyebrows and eyes often have a convex shape upward, and the eyebrows do not have a convex shape downward. In addition, the lower part of the spectacle frame often has a downward convex shape, and does not have an upward convex shape. As described above, by adding the shape combination determination to the positional relationship of the continuous data appearing in the same area, the eye detection accuracy can be further improved.

【0111】尚、この眼の位置検索領域3での判定は、
図3のステップS310、図15のステップS151
0、図22のステップS2212のフローチャートの表
現では一重のループとなっているが、当然、数回のルー
プを回し、対象となる連続データの出現頻度から決定す
ることもできる。故に図30や図33では眼に相当する
連続データは出現していない状態を図示しているが、何
回かの処理を繰り返した場合、眼の連続データは認識で
きるレベルにある。
The determination in the eye position search area 3 is as follows.
Step S310 in FIG. 3 and step S151 in FIG.
0, the expression in the flowchart of step S2212 in FIG. 22 shows a single loop, but it is naturally possible to execute several loops and determine the frequency from the appearance frequency of the target continuous data. Therefore, FIG. 30 and FIG. 33 show a state in which continuous data corresponding to the eye does not appear, but if the process is repeated several times, the continuous data of the eye is at a recognizable level.

【0112】このようにして、運転者の眼の位置を背後
のカーテンレールやサンルーフ等の存在に拘らず、正確
に検出することによって、運転者の居眠り運転や脇見運
転を正確に検出して、警報や車両停止等の適切な処置を
行なうことができる。又、運転者の眼の位置を正確に検
出することによって、ミラーの角度やシート高さ等を適
切に制御することができる。
In this way, by accurately detecting the position of the driver's eyes irrespective of the presence of the curtain rail or sunroof behind, the driver's drowsy driving and inattentive driving can be accurately detected. Appropriate measures such as a warning and vehicle stop can be taken. Further, by accurately detecting the position of the driver's eye, the angle of the mirror, the seat height, and the like can be appropriately controlled.

【0113】又、上記実施形態では、A−D変換器22
以降の車両をすべてデジタル演算で行なうこととした
が、画素列に沿った濃度値の相加平均を求めるまでの処
理をアナログ信号回路で行なうこととしても良い。例え
ば、撮像画を用いたカメラで縦方向に走査線を設定し、
顔を縦方向に横切る走査線に沿ったコード信号をローバ
スフィルタに通じて高周波成分を除去した後、10本の
走査線毎に1本の走査線分のコード信号を抜き出して、
サンプリングによりA−D変換する。
In the above embodiment, the A / D converter 22
Although the following vehicles are all performed by digital calculation, the processing up to obtaining the arithmetic mean of the density values along the pixel row may be performed by an analog signal circuit. For example, set a scanning line in the vertical direction with a camera using a captured image,
After removing the high-frequency component by passing a code signal along a scanning line crossing the face in the vertical direction through a low-pass filter, a code signal for one scanning line is extracted for every ten scanning lines.
A / D conversion is performed by sampling.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態の機能ブロック図である。FIG. 1 is a functional block diagram of an embodiment of the present invention.

【図2】本発明の一実施形態の構成を示すブロック図で
ある。
FIG. 2 is a block diagram showing a configuration of one embodiment of the present invention.

【図3】一実施形態の動作を示すフローチャートであ
る。
FIG. 3 is a flowchart showing an operation of one embodiment.

【図4】一実施形態の動作を示すフローチャートであ
る。
FIG. 4 is a flowchart illustrating an operation of the embodiment.

【図5】一実施形態の動作を示すフローチャートであ
る。
FIG. 5 is a flowchart showing an operation of the embodiment.

【図6】フローチャートの処理に関する説明図である。FIG. 6 is an explanatory diagram relating to processing in a flowchart.

【図7】フローチャートの処理に関する説明図である。FIG. 7 is an explanatory diagram related to a process in a flowchart.

【図8】フローチャートの処理に関する説明図である。FIG. 8 is an explanatory diagram related to a process in a flowchart.

【図9】フローチャートの処理に関する説明図である。FIG. 9 is an explanatory diagram related to a process in a flowchart.

【図10】フローチャートの処理に関する説明図であ
る。
FIG. 10 is an explanatory diagram related to a process in a flowchart.

【図11】フローチャートの処理に関する説明図であ
る。
FIG. 11 is an explanatory diagram related to a process in a flowchart.

【図12】フローチャートの処理に関する説明図であ
る。
FIG. 12 is an explanatory diagram related to a process in a flowchart.

【図13】フローチャートの処理に関する説明図であ
る。
FIG. 13 is an explanatory diagram related to a process in a flowchart.

【図14】フローチャートの処理に関する説明図であ
る。
FIG. 14 is an explanatory diagram related to a process in a flowchart.

【図15】一実施形態に係るフローチャートである。FIG. 15 is a flowchart according to one embodiment.

【図16】一実施形態の動作を示すフローチャートであ
る。
FIG. 16 is a flowchart showing the operation of the embodiment.

【図17】フローチャートの処理に関する説明図であ
り、(a)は直線上の連続データ、(b)は上に凸の連
続データの説明図である。
FIGS. 17A and 17B are explanatory diagrams related to the processing of the flowchart. FIG. 17A is an explanatory diagram of continuous data on a straight line, and FIG.

【図18】フローチャートの処理に関する説明図であ
る。
FIG. 18 is an explanatory diagram related to a process in a flowchart.

【図19】フローチャートの処理に関する説明図であ
る。
FIG. 19 is an explanatory diagram related to a process in a flowchart.

【図20】フローチャートの処理に関する説明図であ
る。
FIG. 20 is an explanatory diagram related to a process in a flowchart.

【図21】フローチャートの処理に関する説明図であ
る。
FIG. 21 is an explanatory diagram related to a process in a flowchart.

【図22】一実施形態に係るフローチャートである。FIG. 22 is a flowchart according to one embodiment.

【図23】一実施形態に係るフローチャートである。FIG. 23 is a flowchart according to one embodiment.

【図24】一実施形態に係るフローチャートである。FIG. 24 is a flowchart according to an embodiment.

【図25】フローチャートの処理に関する説明図であ
る。
FIG. 25 is an explanatory diagram related to a process in a flowchart.

【図26】フローチャートの処理に関する説明図であ
る。
FIG. 26 is an explanatory diagram related to a process in a flowchart.

【図27】フローチャートの処理に関する説明図であ
る。
FIG. 27 is an explanatory diagram related to the processing of the flowchart.

【図28】フローチャートの処理に関する説明図であ
る。
FIG. 28 is an explanatory diagram related to the processing in the flowchart.

【図29】フローチャートの処理に関する説明図であ
る。
FIG. 29 is an explanatory diagram related to the processing in the flowchart.

【図30】フローチャートの処理に関する説明図であ
る。
FIG. 30 is an explanatory diagram related to a process in a flowchart.

【図31】フローチャートの処理に関する説明図であ
る。
FIG. 31 is an explanatory diagram related to a process in a flowchart.

【図32】フローチャートの処理に関する説明図であ
る。
FIG. 32 is an explanatory diagram related to the processing in the flowchart.

【図33】フローチャートの処理に関する説明図であ
る。
FIG. 33 is an explanatory diagram related to the processing in the flowchart.

【図34】フローチャートの処理に関する説明図であ
る。
FIG. 34 is an explanatory diagram related to a process in a flowchart.

【図35】フローチャートの処理に関する説明図であ
る。
FIG. 35 is an explanatory diagram related to the processing in the flowchart.

【図36】フローチャートの処理に関する説明図であ
る。
FIG. 36 is an explanatory diagram related to a process in a flowchart.

【図37】フローチャートの処理に関する説明図であ
り、(a)は眉の連続データが基準となり、同領域を下
方へ拡大して設定した状態の説明図、(b)は眼の連続
データが基準となり、同領域を上方向に拡大して設定し
た説明図、(c)は眼鏡フレームの下の連続データが基
準となり、同領域を上方向に拡大した説明図である。
FIGS. 37A and 37B are explanatory diagrams relating to the processing of the flowchart. FIG. 37A is an explanatory diagram showing a state where the continuous area of the eyebrows is set as a reference and the area is enlarged downward, and FIG. Is an explanatory diagram in which the same region is enlarged and set upward, and FIG. (C) is an explanatory diagram in which the same region is enlarged upward based on continuous data below a spectacle frame.

【符号の説明】[Explanation of symbols]

CL1 画像入力手段 CL2 濃度検出手段 CL3 ポイント抽出手段 CL4 曲線データ抽出手段 CL5 所定領域1の設定手段(眼の位置検索領域1設
定手段) CL6 曲線データ検出手段 CL7 所定領域2の設定手段(眼の位置検索領域2設
定手段) CL8 曲線データの移動状態判定手段 CL9 所定領域3の設定手段(眼の位置検索領域3設
定手段) CL10 所定領域1の縮小手段(眼の位置検索領域1
の縮小手段) CL11 眼の位置検出手段 21 TVカメラ 22 A−D変換器 23 画像メモリ 24 画像データ演算回路 25 眼の位置検出回路
CL1 image input means CL2 density detection means CL3 point extraction means CL4 curve data extraction means CL5 predetermined area 1 setting means (eye position search area 1 setting means) CL6 curve data detection means CL7 predetermined area 2 setting means (eye position) Search area 2 setting means) CL8 Curve data moving state determination means CL9 Setting means for predetermined area 3 (eye position search area 3 setting means) CL10 Reduction means for predetermined area 1 (eye position search area 1)
CL11 Eye position detecting means 21 TV camera 22 A / D converter 23 Image memory 24 Image data arithmetic circuit 25 Eye position detecting circuit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 FI // G08B 21/00 G06F 15/62 380 ──────────────────────────────────────────────────の Continued on the front page (51) Int.Cl. 6 Identification symbol FI // G08B 21/00 G06F 15/62 380

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 顔を含んだ画像データを入力する画像入
力手段と、 入力された画像データの縦方向の画素列に沿って画素の
濃度を読み出し、該画素列上の濃度値の片方向のピーク
の前の濃度変化の微分値が所定値を越えることを条件
に、濃度値の片方向のピークの画素を特定して抽出点と
するポイント抽出手段と、 隣接する画素列の画素列方向に近接した前記抽出点を連
続して顔の横方向に伸びる曲線データを抽出する曲線デ
ータ抽出手段と、 前記曲線データの移動状態を判定する移動状態判定手段
と、 前記曲線データが動的であると判定された場合に該曲線
データに基づいて眼の位置を検出する眼の位置検出手段
とからなることを特徴とする眼位置検出装置。
An image input means for inputting image data including a face, a density of a pixel is read out along a vertical pixel row of the input image data, and a density value on the pixel row in one direction is read out. A point extracting means for specifying a pixel of a peak in one direction of the density value as an extraction point on condition that the differential value of the density change before the peak exceeds a predetermined value; Curve data extracting means for extracting curve data extending continuously in the lateral direction of the face continuously from the adjacent extraction points; moving state determining means for determining a moving state of the curve data; and wherein the curve data is dynamic. An eye position detecting device comprising: an eye position detecting means for detecting an eye position based on the curve data when the determination is made.
【請求項2】 請求項1記載の眼位置検出装置であっ
て、 前記曲線データ抽出手段で抽出された曲線データを含む
眼の位置検索領域1を設定する眼の位置検索領域を設定
する眼の位置検索領域1設定手段と、 前記眼の位置検索領域1において最上端に出現する曲線
データを検出する最上端曲線データ検出手段と、 前記最上端の曲線データを基準として眼の位置検索領域
2を設定する眼の位置検索領域2設定手段と、 前記眼の位置検索領域2に出現する曲線データの移動状
態を判定する曲線データの移動状態判定手段と、 前記対象となる曲線データが動的であると判定された場
合に眼の位置検索領域3を設定する眼の位置検索領域3
設定手段と、 前記対象となる曲線データが静的な曲線データであると
判定された場合に眼の位置検索領域1の設定に戻し、該
当する前記曲線データの位置情報を基に眼の位置検索領
域1の範囲を上下方向に縮小する眼の位置検索領域1の
縮小手段と、 前記眼の位置検索領域3内に出現する曲線データの相対
位置関係より眼の位置を検出する眼の位置検出手段から
なることを特徴とする眼位置検出装置。
2. The eye position detection apparatus according to claim 1, wherein the eye position search area for setting the eye position search area 1 including the curve data extracted by the curve data extraction means is set. A position search area 1 setting means; an uppermost curve data detecting means for detecting curve data appearing at the uppermost end in the eye position search area 1; and an eye position search area 2 based on the uppermost curve data. Eye position search area 2 setting means to be set; Curve data movement state determination means for determining the movement state of curve data appearing in the eye position search area 2; The target curve data is dynamic Eye position search area 3 for setting eye position search area 3 when it is determined that
Setting means, when it is determined that the target curve data is static curve data, returns to the setting of the eye position search area 1 and searches for the eye position based on the position information of the corresponding curve data. Eye position search area 1 reducing means for reducing the range of area 1 in the vertical direction, and eye position detecting means for detecting the eye position from the relative positional relationship of curve data appearing in eye position search area 3 An eye position detection device, comprising:
【請求項3】 請求項1又は2記載の眼位置検出装置で
あって、 前記移動状態判定手段は、前記曲線データの移動状態を
曲線データの上下方向の移動量で判定することを特徴と
する眼位置検出装置。
3. The eye position detecting device according to claim 1, wherein the moving state determining unit determines the moving state of the curve data based on a vertical movement amount of the curve data. Eye position detection device.
【請求項4】 請求項3記載の眼位置検出装置であっ
て、 前記移動状態判定手段には、前記曲線データの移動状態
を曲線データを構成する各抽出点の上下方向位置の平均
値で判定することを特徴とする眼位置検出装置。
4. The eye position detecting device according to claim 3, wherein the moving state determining means determines the moving state of the curve data by an average value of vertical positions of each extraction point forming the curve data. An eye position detection device.
【請求項5】 請求項1〜4のいずれかに記載の眼位置
検出装置であって、 前記移動状態判定手段は、前記移動状態の判定を曲線デ
ータを構成する前記抽出点の最上端位置のもので行なう
ことを特徴とする眼位置検出装置。
5. The eye position detecting device according to claim 1, wherein the moving state determining unit determines the moving state based on a position of an uppermost end position of the extraction points forming curve data. An eye position detecting device characterized in that the eye position detecting device is used.
【請求項6】 請求項1〜4のいずれかに記載の眼位置
検出装置であって、 前記移動状態判定手段は、前記眼の位置検索領域2内に
出現する曲線データの形状を判定する形状判定手段と、
該形状判定手段の出力結果により、前記曲線データの移
動状態判定手段の判定時間を変更する移動状態判定時間
変更手段とを有することを特徴とする眼位置検出装置。
6. The eye position detection device according to claim 1, wherein the movement state determination unit determines a shape of curve data appearing in the eye position search area 2. Determining means;
An eye position detecting device, comprising: a moving state determination time changing unit that changes a determination time of the curve data moving state determining unit based on an output result of the shape determining unit.
【請求項7】 請求項1〜4のいずれかに記載の眼位置
検出装置であって、 前記移動状態判定手段は、前記位置検索領域2内に出現
する曲線データの形状を判定する形状判定手段と、該形
状判定手段の出力結果により、前記曲線データの移動状
態判定手段の判定移動量を変更する移動状態判定移動量
変更手段とを有することを特徴とする眼位置検出装置。
7. The eye position detecting device according to claim 1, wherein the moving state determining unit determines a shape of curve data appearing in the position search area 2. An eye position detection device comprising: a movement state determination movement amount changing unit that changes a determination movement amount of the curve data movement state determination unit based on an output result of the shape determination unit.
【請求項8】 請求項1〜4のいずれかに記載の眼位置
検出装置であって、 前記移動状態判定手段は、前記眼の位置検索領域2内に
出現する曲線データの形状を判定する形状判定手段と、
該形状判定手段の出力結果により、前記眼の位置検索領
域3の設定条件を変更する領域3の設定条件変更手段と
を有することを特徴とする眼位置検出装置。
8. The eye position detection device according to claim 1, wherein the movement state determination unit determines a shape of curve data appearing in the eye position search area 2. Determining means;
An eye position detection device comprising: an area 3 setting condition changing unit that changes a setting condition of the eye position search area 3 based on an output result of the shape determining unit.
【請求項9】 請求項2記載の眼位置検出装置であっ
て、 前記移動状態判定手段は、前記眼の位置検索領域2内に
出現する曲線データに基づいて顔の画像データの左右に
渡るように横長の眼の位置検索領域4を設定する眼の位
置検索領域4設定手段と、設定された眼の位置検索領域
4内に左右2つ以上の曲線データがあるか否かを判定す
る左右データ判定手段と、判定された左右データの上下
段差の大小から曲線データを特定して前記眼の位置検索
領域3の設定条件を変更する領域3の設定条件変更手段
とを備えたことを特徴とする眼位置検出装置。
9. The eye position detection device according to claim 2, wherein the moving state determination unit crosses right and left of the face image data based on curve data appearing in the eye position search area 2. Eye position search area 4 setting means for setting a horizontally long eye position search area 4, and left and right data for determining whether there are two or more left and right curve data in the set eye position search area 4 A determination unit; and a setting condition changing unit of an area for changing a setting condition of the eye position search area by specifying curve data based on a magnitude of a vertical step of the determined left and right data. Eye position detection device.
【請求項10】 請求項9記載の眼位置検出装置であっ
て、 前記左右データ判定手段は、前記眼の位置検索領域4内
の上部より2つの曲線データを選択することを特徴とす
る眼位置検出装置。
10. The eye position detecting apparatus according to claim 9, wherein said left and right data determination means selects two curve data from an upper part in said eye position search area 4. Detection device.
【請求項11】 請求項9又は請求項10に記載の眼位
置検出装置であって、 前記領域3の設定条件変更手段は、前記左右データの段
差が所定以下の場合に前記眼の位置検索領域4内に出現
する曲線データの形状を判定して前記曲線データの特定
を行なう形状判定手段を備えたことを特徴とする眼位置
検出装置。
11. The eye position detection device according to claim 9, wherein the setting condition changing unit of the area 3 is configured to change the eye position search area when the level difference between the left and right data is equal to or less than a predetermined value. 4. An eye position detecting apparatus, comprising: shape determining means for determining the shape of curve data appearing in 4 and specifying the curve data.
【請求項12】 請求項2又は請求項6又は請求項7又
は請求項8又は請求項11に記載の眼位置検出装置であ
って、 前記形状判定手段は、曲線データの形状を、曲線データ
を構成する各抽出点の最右点と最左点とを直線で結び、
該直線に対する前記曲線データの中央にある抽出点の位
置により形状を認識することを特徴とする眼位置検出装
置。
12. The eye position detecting device according to claim 2, wherein the shape determining means converts the shape of the curve data into the shape of the curve data. Connect the rightmost and leftmost points of each constituent extraction point with a straight line,
An eye position detecting device for recognizing a shape based on a position of an extraction point at the center of the curve data with respect to the straight line.
JP35798097A 1997-12-25 1997-12-25 Eye position detection device Expired - Fee Related JP3465566B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP35798097A JP3465566B2 (en) 1997-12-25 1997-12-25 Eye position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP35798097A JP3465566B2 (en) 1997-12-25 1997-12-25 Eye position detection device

Publications (2)

Publication Number Publication Date
JPH11183127A true JPH11183127A (en) 1999-07-09
JP3465566B2 JP3465566B2 (en) 2003-11-10

Family

ID=18456940

Family Applications (1)

Application Number Title Priority Date Filing Date
JP35798097A Expired - Fee Related JP3465566B2 (en) 1997-12-25 1997-12-25 Eye position detection device

Country Status (1)

Country Link
JP (1) JP3465566B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271932A (en) * 2002-03-14 2003-09-26 Nissan Motor Co Ltd Sight line direction detector
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2006209442A (en) * 2005-01-27 2006-08-10 Nissan Motor Co Ltd Eye position detection apparatus
WO2020194489A1 (en) * 2019-03-26 2020-10-01 三菱電機株式会社 Exposure control device and exposure control method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271932A (en) * 2002-03-14 2003-09-26 Nissan Motor Co Ltd Sight line direction detector
JP2004105590A (en) * 2002-09-20 2004-04-08 Matsushita Electric Ind Co Ltd Eye position detector and eye position detection method
JP2006209442A (en) * 2005-01-27 2006-08-10 Nissan Motor Co Ltd Eye position detection apparatus
JP4696571B2 (en) * 2005-01-27 2011-06-08 日産自動車株式会社 Eye position detection device
WO2020194489A1 (en) * 2019-03-26 2020-10-01 三菱電機株式会社 Exposure control device and exposure control method
JPWO2020194489A1 (en) * 2019-03-26 2021-09-13 三菱電機株式会社 Exposure control device and exposure control method

Also Published As

Publication number Publication date
JP3465566B2 (en) 2003-11-10

Similar Documents

Publication Publication Date Title
US5805720A (en) Facial image processing system
JP4895847B2 (en) 瞼 Detection device and program
US7127086B2 (en) Image processing apparatus and method
KR101441333B1 (en) Detecting Apparatus of Human Component AND Method of the same
JP3350296B2 (en) Face image processing device
KR102099265B1 (en) System and method for pedestrian-vehicle collision warning based on pedestrian state
JP2000082147A (en) Method for detecting human face and device therefor and observer tracking display
WO2009035697A1 (en) System and method for traffic sign recognition
CN101281646A (en) Method for real-time detection of driver fatigue based on vision
Ahmed et al. Robust driver fatigue recognition using image processing
JP2000137792A (en) Eye part detecting device
JP4989249B2 (en) Eye detection device, dozing detection device, and method of eye detection device
JP4864043B2 (en) Image processing apparatus, method, and program
JP2000123188A (en) Eye open/close discriminating device
JP3312562B2 (en) Dozing state detection device
CN112183502B (en) Method for determining driving state of driver, computer storage medium, and electronic device
JP2004086417A (en) Method and device for detecting pedestrian on zebra crossing
JP3465566B2 (en) Eye position detection device
JP4696571B2 (en) Eye position detection device
JP3444115B2 (en) Dozing state detection device
JPH1044824A (en) Driver's-eye open/closed state determination device for vehicle
JP5493676B2 (en) Eye position recognition device
JP2000067225A (en) Eye position detector
JP5559121B2 (en) Object type determination device
JP2008191785A (en) Eye closure detection apparatus, doze detection apparatus, eye closure detection method, and program for eye closure detection

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080829

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090829

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100829

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees