JPH0796768A - Forward watching degree detector - Google Patents

Forward watching degree detector

Info

Publication number
JPH0796768A
JPH0796768A JP26291993A JP26291993A JPH0796768A JP H0796768 A JPH0796768 A JP H0796768A JP 26291993 A JP26291993 A JP 26291993A JP 26291993 A JP26291993 A JP 26291993A JP H0796768 A JPH0796768 A JP H0796768A
Authority
JP
Japan
Prior art keywords
line
driver
gaze
sight direction
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP26291993A
Other languages
Japanese (ja)
Inventor
Junichi Fukano
純一 深野
Shigeru Okabayashi
繁 岡林
Masao Sakata
雅男 坂田
Hiroshi Saito
浩 斎藤
Kazuo Arai
和夫 荒井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP26291993A priority Critical patent/JPH0796768A/en
Publication of JPH0796768A publication Critical patent/JPH0796768A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Emergency Alarm Devices (AREA)

Abstract

PURPOSE:To detect a drop in a forward watching degree stably with certainty by measuring a driver's eying line at all times, judging whether the forward watching degree of a driver is lowered or not on the basis of this measuring result, and when this watching degree is lowered, emitting an alarm to the driver at once. CONSTITUTION:A car driver 5 usually looks at a watching area 30 of a windshield 1. In this case, an eying line L of the driver 5 is always measured by an eying line measuring instrument 2. In addition, on the basis of a direction of the eying line L measured, whether a watching degree of the driver 5 to the front is lowered or not is judged by a watching degree judging device 3. When this watching degree of the driver 5 to the front is lowered, an alarm consisting of a voice and vibration or the like for urging a warning is emitted to the driver 5 with an alarm generator 4. With this, there is no effect of incidence or the like of the direct sunlight from the horizontal direction as comapred with such being subjected to the measurement of the whole face of the driver 5, whereby a direction of the eying line L is easily measured and also any drop in the watching degree is stably judged with certainty.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、車両運転者の覚醒度
の低下や脇見等の前方注視度を検知する車両用前方注視
度検知装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vehicular forward gaze degree detecting device for detecting a degree of gaze forward of a driver of a vehicle, such as a decrease in awakening degree or a look aside.

【0002】[0002]

【従来の技術】運転中前方注視度が低下したり覚醒度が
低下すると、先行車との車間距離が短くなり、先行車に
異常接近してしまうことがある。従来のこの種装置とし
ては、例えば、特開昭60−178596号公報に開示
されるように、運転者の前方から、その上体位置の周期
的変動を検出して運転者の覚醒度の低下を判定するよう
になっている。
2. Description of the Related Art When the degree of gazing ahead decreases or the degree of awakening decreases during driving, the inter-vehicle distance from the preceding vehicle becomes short and the vehicle may approach the preceding vehicle abnormally. As a conventional device of this kind, for example, as disclosed in Japanese Patent Laid-Open No. 60-178596, the driver's arousal level is lowered by detecting the periodical fluctuation of the body position from the front of the driver. Is determined.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、このよ
うな従来の装置にあっては、運転者の上体位置の周期的
変動を検出するために計測用のカメラを2台使用してい
たため、装置構成が複雑であり、かつ処理に時間を要す
るという問題があった。また、抽出する特徴を顔面領域
としているため、例えば横方向からの直射光の入射その
他、光線状態の悪い場合などが頻繁に発生するなど不安
定状況にさらされ、その結果特徴抽出に誤差を生じる可
能性が高いという問題があった。そのため、従来の装置
では、迅速かつ安定した検知を行うことは困難であっ
た。本発明は、このような従来の問題点に着目してなさ
れたものであり、前方注視度の低下を安定かつ確実に検
知することのできる車両用の前方不注意検知装置を提供
することを目的とする。
However, in such a conventional device, two measuring cameras are used to detect the periodical fluctuation of the upper body position of the driver, and therefore the device is used. There is a problem that the configuration is complicated and it takes time to process. In addition, since the features to be extracted are facial regions, they are exposed to unstable conditions, such as the incidence of direct light from the lateral direction and other cases where the light conditions are poor, and as a result, there is an error in feature extraction. There was a problem of high possibility. Therefore, it is difficult for the conventional device to perform quick and stable detection. The present invention has been made in view of such conventional problems, and an object of the present invention is to provide a front carelessness detection device for a vehicle capable of stably and reliably detecting a decrease in front gaze degree. And

【0004】[0004]

【課題を解決するための手段】このため請求項1に記載
の本発明は、運転者の眼球領域に向けて設けられた画像
入力手段と、該画像入力手段により得た眼球部の画像デ
ータを基に運転者の視線方向を検出する視線方向検出手
段と、視線方向が所定の注視領域内にあるか否かを判別
する領域判別手段と、視線方向が前記注視領域外にある
時間を計測し、所定の基準時間と比較する時間計測手段
とを有するものとした。
Therefore, according to the present invention as set forth in claim 1, the image input means provided toward the eyeball region of the driver and the image data of the eyeball portion obtained by the image input means are provided. Based on the line-of-sight detection means for detecting the direction of the driver's line-of-sight, based on the area determination means for determining whether or not the line-of-sight direction is within a predetermined gaze area, and measuring the time when the line-of-sight direction is outside the gaze area. , And time measuring means for comparing with a predetermined reference time.

【0005】請求項3に記載の発明は、前記領域判別手
段および時間計測手段のかわりに視線方向の移動パター
ンを検出するパターン検出手段と、移動パターンを所定
の基準パターンと比較するパターン比較手段を有するも
のとした。また請求項2、請求項4に記載の発明は、そ
れぞれ、さらに走行速度、走行開始からの経過時間、ス
テアリングの操舵角、障害物情報および道路形状の少な
くも1以上からなる環境情報を取得する環境検出手段を
有し、前記の所定の注視領域または基準時間、あるいは
基準パターンが上記環境情報に基づいて設定されるもの
とした。
According to a third aspect of the present invention, instead of the area discriminating means and the time measuring means, pattern detecting means for detecting a movement pattern in the line-of-sight direction and pattern comparison means for comparing the movement pattern with a predetermined reference pattern are provided. To have. Further, the inventions according to claim 2 and claim 4, respectively, further acquire the traveling speed, the elapsed time from the start of traveling, the steering angle of the steering wheel, the obstacle information, and the environmental information including at least one of the road shapes. An environment detection unit is provided, and the predetermined gaze area, reference time, or reference pattern is set based on the environment information.

【0006】[0006]

【作用】請求項1のものでは、視線方向検出手段で眼球
部の画像データが処理されて運転者の視線方向が求めら
れ、その視線方向が、あらかじめ設定された通常運転時
に運転者の視線方向が向く注視領域に実際に向いている
かどうかが領域判別手段で判別される。向いていない時
間が所定の基準時間以上継続したときは前方注視度低下
状態と判断される。
According to the present invention, the line-of-sight direction detecting means processes the image data of the eyeball portion to obtain the line-of-sight direction of the driver, and the line-of-sight direction is set in advance during normal driving. The area determination means determines whether or not the target area is actually facing. When the non-looking time continues for a predetermined reference time or longer, it is determined that the forward gaze degree is low.

【0007】請求項3のものでは、視線方向の移動パタ
ーンが、例えば視界下部領域に暫時停留の後、跳躍的な
方向変化を行うなど、通常運転時の基準パターンと異な
る異常状態のときに、覚醒度が低下した状態にあると判
断される。これにより、運転者の前方注視度の低下を安
定かつ確実に検知することができる。
According to the third aspect of the invention, when the movement pattern in the line-of-sight direction is in an abnormal state different from the reference pattern during normal driving, for example, after a temporary stop in the lower visual field, a jumping direction change occurs, It is determined that the arousal level has decreased. As a result, it is possible to stably and reliably detect the decrease in the degree of forward gaze of the driver.

【0008】また、請求項2、請求項4のように、環境
検出手段を有して、注視領域または基準時間、あるいは
基準パターンを環境情報に基づいて設定するようにした
ときには、走行環境により検出レベルが制御されるか
ら、環境の緊急度合などに応じてより迅速な警報等が可
能となる。
When the gaze area, the reference time, or the reference pattern is set on the basis of the environmental information by providing the environment detecting means as in the second and fourth aspects, it is detected by the traveling environment. Since the level is controlled, it is possible to give a quicker warning or the like according to the urgency of the environment.

【0009】[0009]

【実施例】以下、本発明を図面に基づいて説明する。図
1は、本発明の第1の実施例としての前方注視度警報装
置の全体構成を示す図である。この装置は、視線計測装
置2、注視度判断装置3および警報発生装置4で構成さ
れている。視線計測装置2は、常時運転者5の視線方向
Lを計測している。注視度判断装置3は、視線計測装置
2で求められた視線方向に基づいて前方注視度が低下し
ているかどうかを判断し、警報発生装置4に指令信号を
送る。警報発生装置4は、運転者5に注意のための音
声、振動などによる警報を発生する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. FIG. 1 is a diagram showing the overall configuration of a forward gaze degree warning device as a first embodiment of the present invention. This device includes a gaze measuring device 2, a gaze degree determining device 3, and an alarm generating device 4. The line-of-sight measurement device 2 constantly measures the line-of-sight direction L of the driver 5. The gaze degree determination device 3 determines whether or not the front gaze degree is lowered based on the gaze direction obtained by the gaze measurement device 2, and sends a command signal to the alarm generation device 4. The alarm generation device 4 issues an alarm to the driver 5 with a voice, a vibration, or the like for attention.

【0010】図2に、上記視線計測装置2の構成を示
す。撮像部であるカメラ21の前面にカメラ21の光軸
と照射方向が一致するように、不可視な近赤外光を発す
るLED等の第1光源22が設置され、同様に不可視な
近赤外光を発するLED等の第2光源23がカメラ21
の光軸外の第1光源22との相対関係が既知の所定位置
に設置されている。
FIG. 2 shows the configuration of the visual axis measuring device 2. A first light source 22 such as an LED that emits invisible near-infrared light is installed on the front surface of the camera 21, which is an imaging unit, so that the optical axis of the camera 21 and the irradiation direction coincide with each other. The second light source 23 such as an LED that emits
Is installed at a predetermined position where the relative relationship with the first light source 22 outside the optical axis is known.

【0011】また、カメラ21より取り込まれた、眼球
31の画像データをデジタルデータに変換するA/D変
換器24、入力された画像データから、視線方向を示す
特徴である角膜反射像および網膜反射像を抽出する特徴
抽出部25、抽出された各特徴の存在位置から視線方向
を算出する視線方向算出部26、第1光源22および第
2光源23の発光を制御する照明発光制御部27、装置
全体の動作を制御する全体制御部28およびA/D変換
された画像データを保持するメモリ32が設けられてい
る。なお、30は後述する注視領域を示す。
Further, an A / D converter 24 for converting the image data of the eyeball 31 captured by the camera 21 into digital data, and a corneal reflection image and a retinal reflection which are features showing the line-of-sight direction from the input image data. A feature extraction unit 25 that extracts an image, a line-of-sight direction calculation unit 26 that calculates the line-of-sight direction from the existing position of each extracted feature, an illumination light emission control unit 27 that controls the light emission of the first light source 22 and the second light source 23, and a device. An overall control unit 28 for controlling the overall operation and a memory 32 for holding A / D converted image data are provided. In addition, 30 shows the gaze area mentioned later.

【0012】視線計測装置2の原理を図3により説明す
る。 図3は眼球31を外部から照明したときの様子を
示したものである。眼球31を外部から照明すると、中
心をOとする角膜球50の角膜球表面51の正反射位置
Pでの正反射像がカメラ21に捕捉され、点Rに輝点と
して観測される。これを角膜反射像という。とくに、カ
メラ21と第1光源22を共軸に配したとき、角膜球中
心O、正反射位置Pおよび角膜反射像の位置Rの3点
は、同一直線上にのる。
The principle of the line-of-sight measuring device 2 will be described with reference to FIG. FIG. 3 shows how the eyeball 31 is illuminated from the outside. When the eyeball 31 is illuminated from the outside, a specular reflection image at the specular reflection position P of the corneal sphere surface 51 of the cornea sphere 50 whose center is O is captured by the camera 21 and observed at the point R as a bright spot. This is called a corneal reflection image. In particular, when the camera 21 and the first light source 22 are coaxially arranged, the three points of the corneal sphere center O, the specular reflection position P, and the position R of the corneal reflection image are on the same straight line.

【0013】すなわち、カメラ21の前面に、カメラ2
1の光軸と照射方向が一致するように、第1光源22を
設置した共軸系センサで眼球31を観測すると、カメラ
21上の角膜反射像位置Rと、第1光源22の位置(カ
メラ焦点位置)を結ぶ線上に角膜中心Oが存在すること
になる。
That is, the camera 2 is attached to the front of the camera 21.
When the eyeball 31 is observed by the coaxial sensor in which the first light source 22 is installed so that the irradiation direction coincides with the optical axis of No. 1, the corneal reflection image position R on the camera 21 and the position of the first light source 22 (camera). The corneal center O exists on the line connecting the focal points).

【0014】また、共軸系センサで眼球31を観測する
と、瞳孔を通過した光束が網膜上で反射して入射方向に
戻り、瞳孔から出射してカメラ21に達し、瞳孔領域が
明るく観測される。これは、カメラで人間の顔をストロ
ボ撮影したとき、瞳孔が赤く光る赤目現象として知られ
るものであり、こうして生じる像を網膜反射像と呼んで
いる。網膜反射像は、一般に楕円形状で観測され、カメ
ラ21上の網膜反射像の重心位置と、カメラ焦点を結ぶ
直線上に瞳孔中心Qが存在する。
When the eyeball 31 is observed by the coaxial sensor, the light flux passing through the pupil is reflected on the retina and returns in the incident direction, exits from the pupil, reaches the camera 21, and the pupil area is observed brightly. . This is known as a red-eye phenomenon in which the pupil glows red when a human face is stroboscopically photographed by a camera, and the image thus generated is called a retina reflection image. The retina reflection image is generally observed in an elliptical shape, and the pupil center Q exists on the straight line connecting the center of gravity of the retina reflection image on the camera 21 and the camera focus.

【0015】視線計測装置2では、以上説明したような
原理によって、角膜中心O、瞳孔中心Qの3次元位置を
抽出して、O、Qを通過する視線方向Lを求める。次に
これら角膜球中心Oおよび瞳孔中心Qの求め方を説明す
る。先ず、抽出した角膜反射像領域の重心位置および抽
出した網膜反射像領域の重心位置の計測を、図6の角膜
反射像位置抽出処理図および図7の網膜反射像位置抽出
処理図を参照して、図4および図5のフローチャートに
従って説明する。
The line-of-sight measuring device 2 extracts the three-dimensional position of the center O of the cornea and the center Q of the pupil on the basis of the principle described above, and obtains the direction L of the line of sight passing through O and Q. Next, how to obtain the center O of the cornea and the center Q of the pupil will be described. First, referring to the corneal reflection image position extraction processing diagram of FIG. 6 and the retinal reflection image position extraction processing diagram of FIG. 7, measurement of the barycentric position of the extracted corneal reflection image region and the extracted barycentric position of the retinal reflection image region is performed. 4 will be described with reference to the flowcharts of FIGS.

【0016】全体制御部28からの計測開始信号により
計測がスタートする。ステップ101では、照明発光制
御部27から第1光源22にトリガ信号を送り、第1光
源22を点灯してステップ102に進む。なお、第2光
源23は消灯している。ステップ102では、カメラ2
1から画像を取り込む。画像はステップ103におい
て、A/D変換器24でA/D変換され、生成したディ
ジタルの画像データI1(x,y)は、ステップ104
でメモリ32に格納保持される。
Measurement is started by a measurement start signal from the overall control unit 28. In step 101, the illumination light emission control unit 27 sends a trigger signal to the first light source 22, lights the first light source 22, and proceeds to step 102. The second light source 23 is off. In step 102, the camera 2
Capture the image from 1. The image is A / D converted by the A / D converter 24 in step 103, and the generated digital image data I1 (x, y) is converted into step 104.
Is stored and held in the memory 32.

【0017】ステップ105では、照明発光制御部27
から第2光源23にトリガ信号を送り、第2光源23を
点灯し、また第1光源22を消灯する。ステップ106
では、カメラ21から画像を取り込み、ステップ107
で、画像をA/D変換器24でA/D変換して、ディジ
タルの画像データI2(x,y)を生成し、該画像デー
タをステップ108でメモリ32に格納する。そして画
像入力が完了したら、ステップ109で、第2光源23
を消灯する。以上の異なる照明による2フレームの画像
入力は、極く短時間に実行され、ほぼ同一時刻に入力さ
れたペアの画像となる。
In step 105, the illumination light emission control unit 27
Sends a trigger signal to the second light source 23 to turn on the second light source 23 and turn off the first light source 22. Step 106
Then, the image is captured from the camera 21, and step 107
Then, the image is A / D converted by the A / D converter 24 to generate digital image data I2 (x, y), and the image data is stored in the memory 32 in step 108. When the image input is completed, in step 109, the second light source 23
Turn off. The image input of two frames by the above different illuminations is executed in an extremely short time, and becomes a pair of images input at substantially the same time.

【0018】次にステップ110〜111において、上
記メモリ32に格納された画像データI1(x,y)お
よびI2(x,y)を基に、角膜反射像位置を図6に示
すような処理を行って求める。
Next, in steps 110 to 111, the corneal reflection image position is processed based on the image data I1 (x, y) and I2 (x, y) stored in the memory 32 as shown in FIG. Go and ask.

【0019】すなわち、ステップ110では、特徴抽出
部25において、画像データI1(x,y)から視線計
測に必要に必要な角膜反射像領域62の抽出を行う。角
膜反射像は非常に明るい輝点として観測されるため、図
6の(a)に示される画像データI1(x,y)を、あ
るしきい値Th1で2値化することによって、(b)の
ように容易に抽出することができる。画像I2(x,
y)についても同様である。すなわち、 I1(x,y)≧Th1 I2(x,y)≧Th1 の領域がそれぞれ角膜反射像領域と判断される。ステッ
プ111では、抽出された角膜反射像領域62の重心位
置が演算され、角膜反射像位置B(x1,y1)、C
(x2,y2)が求められる。
That is, in step 110, the feature extraction unit 25 extracts the corneal reflection image area 62 necessary for the line-of-sight measurement from the image data I1 (x, y). Since the corneal reflection image is observed as a very bright bright spot, by binarizing the image data I1 (x, y) shown in (a) of FIG. 6 with a certain threshold Th1, (b) Can be easily extracted. Image I2 (x,
The same applies to y). That is, the regions of I1 (x, y) ≧ Th1 I2 (x, y) ≧ Th1 are respectively determined as the corneal reflection image regions. In step 111, the center of gravity position of the extracted corneal reflection image region 62 is calculated, and the corneal reflection image positions B (x1, y1), C
(X2, y2) is calculated.

【0020】続いてステップ112〜ステップ118で
は、画像データI1(x,y)を基に、図7に示すよう
な処理を行って網膜反射像位置を求める。まずステップ
112では、2値化による網膜反射像候補領域の抽出が
行なわれる。共軸系の第1光源22およびカメラ21を
用いることによって、明るい網膜反射像が観測されるこ
とは、前述したが、この像の明るさは角膜反射像よりも
暗くなる。従って、図7の(a)に示す画像データI1
(x,y)を、あるしきい値Th2(但し、Th2<T
h1)で2値化することによって、網膜反射像候補領域
を抽出することができる。すなわち、 I1(x,y)≧Th2 の領域が網膜反射像候補とされる。
Then, in steps 112 to 118, the retinal reflection image position is obtained by performing the processing shown in FIG. 7 based on the image data I1 (x, y). First, at step 112, the retinal reflection image candidate region is extracted by binarization. As described above, the bright retinal reflection image is observed by using the coaxial first light source 22 and the camera 21, but the brightness of this image is darker than that of the corneal reflection image. Therefore, the image data I1 shown in FIG.
(X, y) is set to a certain threshold Th2 (where Th2 <T
By binarizing in h1), the retina reflection image candidate region can be extracted. That is, the region of I1 (x, y) ≧ Th2 is set as the retinal reflection image candidate.

【0021】こうして抽出された候補領域には一般に瞳
孔以外のノイズが混入しているため、次のステップでさ
らに瞳孔のみを抽出する処理が行なわれる。すなわち、
ステップ113で、ステップ112で得られた網膜反射
像候補領域に対し、濃淡にしきい値を設定してラベリン
グ処理を行って、図7の(b)の処理画像を求め、ステ
ップ114において、各領域の面積を求める。ステップ
115では、図7の(c)のように、予想される瞳孔面
積Sに対して、(S−a)から(S+a)の所定面積
(aはしきい値、a>0)を有する領域63A 、63B
のみを選び出してステップ116へ進む。
Since noises other than the pupil are generally mixed in the candidate region thus extracted, a process of further extracting only the pupil is performed in the next step. That is,
In step 113, the retinal reflection image candidate area obtained in step 112 is subjected to labeling processing by setting a threshold value for the density, and the processed image of FIG. 7B is obtained. Find the area of. In step 115, as shown in FIG. 7C, a region having a predetermined area (a−threshold, a> 0) from (S−a) to (S + a) with respect to the expected pupil area S. 63A, 63B
Only those are selected and the process proceeds to step 116.

【0022】ステップ116では、抽出された所定面積
領域が唯一つに確定したかどうかをチェックし、確定し
ていればステップ118へ進む。また、図7の(c)の
ように複数抽出されているときは、ステップ117で各
領域の円形度を求め、同図(d)のように最も円に近い
領域63A (=63)を抽出してステップ118へ進
む。ステップ118では、抽出された網膜反射像の領域
63の重心を算出して、網膜反射像位置A(xp,y
p)を求める。この網膜反射像位置A上に瞳孔中心があ
る。以上のようにして抽出した結果が図8に示される。
図8の(a)は、画像データI1(x,y)より抽出し
た角膜反射像位置B(x1,y1)と網膜反射像位置A
(xp,yp)を示し、(b)は画像データI2(x,
y)より抽出した角膜反射像位置C(x2,y2)を示
す。
In step 116, it is checked whether or not the extracted predetermined area regions are uniquely determined. If yes, the process proceeds to step 118. When a plurality of areas are extracted as shown in FIG. 7C, the circularity of each area is obtained in step 117, and the area 63A (= 63) closest to a circle is extracted as shown in FIG. 7D. Then, the process proceeds to step 118. In step 118, the center of gravity of the extracted region 63 of the retina reflection image is calculated, and the retina reflection image position A (xp, y
p) is calculated. The pupil center is located on this retina reflection image position A. The result of extraction as described above is shown in FIG.
FIG. 8A shows a corneal reflection image position B (x1, y1) and a retina reflection image position A extracted from the image data I1 (x, y).
(Xp, yp) is shown, and (b) is image data I2 (x,
The corneal reflection image position C (x2, y2) extracted from y) is shown.

【0023】次に、図9は、視線方向算出部26におけ
る視線方向の算出要領を示す。ここで、カメラ21の焦
点距離をf、その焦点位置を原点F1 (0,0,0)と
し、カメラ21のCCD面のx軸(水平軸)方向をX
軸、y軸(垂直軸)方向をY軸、光軸方向をZ軸とする
ワールド座標F1 −XYZを考える。先に述べたよう
に、照明光源とカメラの光軸を一致させれば、光源位
置、角膜反射像、角膜球中心は一直線上にある。従っ
て、カメラ21の焦点F1 (0,0,0)とカメラ21
のCCD面上の角膜反射像位置Bとを結ぶ直線は、角膜
球中心Oを通過すると考えられる。 すなわち、角膜球
中心Oは直線F1 −B上にある。同様にして、瞳孔中心
Qは、カメラ21の焦点F1 (0,0,0)と網膜反射
像位置Aを結ぶ直線F1 −A上にある。
Next, FIG. 9 shows how the line-of-sight direction calculation unit 26 calculates the line-of-sight direction. Here, the focal length of the camera 21 is f, and the focal position is the origin F1 (0, 0, 0), and the x-axis (horizontal axis) direction of the CCD surface of the camera 21 is X.
Consider the world coordinates F1 -XYZ with the Y axis as the y-axis (vertical axis) direction and the Z axis as the optical axis direction. As described above, if the illumination light source and the optical axis of the camera are aligned, the light source position, the corneal reflection image, and the center of the corneal sphere are on a straight line. Therefore, the focus F1 (0,0,0) of the camera 21 and the camera 21
It is considered that the straight line connecting the corneal reflection image position B on the CCD surface passes through the corneal sphere center O. That is, the center O of the corneal sphere is on the straight line F1 -B. Similarly, the pupil center Q is on a straight line F1 -A connecting the focal point F1 (0,0,0) of the camera 21 and the retina reflection image position A.

【0024】第2光源23は、カメラ21の光軸外の所
定位置F2 (a,b,c)にあるものとする。第2光源
23の照明光は、角膜球表面で正反射して、カメラ21
に観測される。従って、その正反射点Pは、カメラ21
の焦点F1 (0,0,0)と角膜反射像位置Cとを結ぶ
直線F1 −C上にある。ここで人間の角膜球50の半径
は、人によらずほぼ一定で、約7.8mmである。従っ
て、直線F1 −C上に正反射点Pを仮置きし、半径7.
8mmの球面を描けば、球面と直線F1 −Bの交点とし
て、角膜球中心の候補点Oが一意に定まる。ここで、点
Pでの正反射条件
The second light source 23 is assumed to be at a predetermined position F2 (a, b, c) outside the optical axis of the camera 21. The illumination light of the second light source 23 is specularly reflected on the surface of the corneal sphere, and the camera 21
Observed. Therefore, the specular reflection point P is
Is on a straight line F1-C connecting the focal point F1 (0,0,0) of the eye and the corneal reflection image position C. Here, the radius of the human corneal sphere 50 is substantially constant regardless of the human being, and is about 7.8 mm. Therefore, the regular reflection point P is temporarily placed on the straight line F1 -C, and the radius 7.
If a spherical surface of 8 mm is drawn, a candidate point O at the center of the corneal sphere is uniquely determined as the intersection of the spherical surface and the straight line F1-B. Here, the specular reflection condition at the point P

【数1】 (但し、Tは半直線OPの延長上の点)が満足されてい
ることが確認されれば、角膜球中心Oが決定される。
[Equation 1] If it is confirmed that (where T is a point on the extension of the half line OP) is satisfied, the corneal sphere center O is determined.

【0025】また、角膜球中心Oと瞳孔中心(水晶体前
面)Qの距離は4.2mmであるので、決定した点Oを
中心とする半径4.2mmの球面と直線F1 −Aの交点
を求めれば、瞳孔中心Qが決定される。このようにし
て、角膜球中心Oと瞳孔中心Qとが定まるので、視線ベ
クトル(視線方向)OQが決定する。なお、ここで用い
た眼球の光学定数はGullstrandの模型眼によ
る。
Further, since the distance between the center O of the cornea and the center Q of the pupil (front surface of the lens) is 4.2 mm, the intersection point between the spherical surface centering on the determined point O and having a radius of 4.2 mm and the straight line F1 -A can be obtained. For example, the pupil center Q is determined. In this way, since the corneal sphere center O and the pupil center Q are determined, the line-of-sight vector (line-of-sight direction) OQ is determined. The optical constants of the eyeballs used here are based on Gullstrand's model eyes.

【0026】注視度判断装置3では、視線方向Lが予め
定められた通常運転時に運転者5の見ているフロントガ
ラス1の注視領域にあるかどうかを判断する。この判断
は、フロントガラス1の3次元座標データを予め登録し
ておき、視線方向Lの延長線がその注視領域30と交差
するかどうかをチェックして行なう。そして、運転者5
の視線方向Lがフロントガラス1の予め定められた注視
領域と交差していない時間が所定時間例えば1秒以上継
続したとき、前方注視度が低下しているものと判断し、
警報発生装置4へ指令信号を送出する。
The gaze degree determining device 3 determines whether or not the line-of-sight direction L is within a predetermined gaze area of the windshield 1 viewed by the driver 5 during normal driving. This determination is made by registering the three-dimensional coordinate data of the windshield 1 in advance and checking whether the extension line in the line-of-sight direction L intersects the gaze area 30. And driver 5
When the time period in which the line-of-sight direction L does not intersect with the predetermined gazing area of the windshield 1 continues for a predetermined time, for example, 1 second or more, it is determined that the forward gaze degree is lowered,
A command signal is sent to the alarm generator 4.

【0027】この実施例は以上のように構成され、不可
視光を発する第1光源と第2光源で運転者の眼球部を照
明し、第1光源と共軸のカメラで撮像した画像データか
ら角膜反射像および網膜反射像を求め、これに基づいて
運転者の視線方向を求めるものとした。そしてその視線
方向が、あらかじめ設定された通常運転時に運転者の視
線方向が向く注視領域に実際に向いているかどうかを判
別して、向いていない時間が所定の基準時間以上継続し
たとき前方注視度が低下しているとして警報を発するよ
うにしたので、顔面領域全体を特徴抽出対象としたもの
に比べて横方向からの直射光の入射その他の光線状態に
よって影響を受けることなく、安定確実に前方注視度の
低下状態を検知することができる。また、従来のように
カメラを2台使用する必要もなく、装置構成が簡単であ
り、迅速に検知が行なえ、かつコストも安価であるとい
う効果を有する。
This embodiment is configured as described above, illuminates the driver's eyeball with the first and second light sources that emit invisible light, and uses the image data captured by a camera coaxial with the first light source to form the cornea. The reflection image and the retina reflection image were obtained, and the driver's line-of-sight direction was obtained based on these. Then, it is determined whether or not the line-of-sight direction is actually set to the gaze area to which the driver's line-of-sight direction is set during preset normal driving, and when the time when the line of sight is not facing continues for a predetermined reference time or longer, the forward gaze degree is determined. Since an alarm is issued as if the target area has decreased, compared to the case where the entire face area is subject to feature extraction, it is not affected by the incidence of direct light from the lateral direction or other light ray conditions, and it is stable and reliably forward. It is possible to detect a state of diminished gaze. Further, there is an effect that it is not necessary to use two cameras as in the conventional case, the device configuration is simple, the detection can be performed quickly, and the cost is low.

【0028】なお、注視度判断装置3における判断態様
としては、上述のほか例えば運転者のアイレンジ中心か
らフロントガラス1の端部を見たときの角度を予め記録
しておき、これと視線方向の角度とを比較して行なうよ
うにすることもできる。またさらには、前方注視度が低
下していると判断するための基準時間を運転者5が調節
できるようにしてもよい。
In addition to the above, as the determination mode in the gaze degree determination device 3, for example, the angle when the end of the windshield 1 is viewed from the center of the driver's eye range is recorded in advance, and this is also the direction of the line of sight. It is also possible to compare it with the angle of. Furthermore, the driver 5 may be allowed to adjust the reference time for determining that the degree of forward gaze is reduced.

【0029】図10〜図12には、本発明の第2の実施
例を示す。 この実施例は、車両の走行環境に応じて前
方注視度低下の判断基準が制御されるようにしたもので
ある。 まず、構成を図10により説明する。第1の
実施例の視線計測装置と同様の構成により運転者の視線
方向を計測する視線計測部201が設けられるととも
に、車両走行の環境情報として各種パラメータを計測す
る環境計測部203と、時間を計測する時間計測部20
4が設置される。そしてこれらの計測部201、20
3、204からの信号を処理し、運転者の前方注視度低
下または覚醒度低下を検出する情報処理部202と、こ
の情報処理部202からの信号により警報を出力する警
報出力部205で構成されている。
10 to 12 show a second embodiment of the present invention. In this embodiment, the criterion for lowering the degree of forward gaze is controlled according to the traveling environment of the vehicle. First, the configuration will be described with reference to FIG. A line-of-sight measurement unit 201 that measures the line-of-sight direction of the driver is provided by the same configuration as the line-of-sight measurement device of the first embodiment, and an environment measurement unit 203 that measures various parameters as environment information of vehicle traveling and time Time measuring unit 20 for measuring
4 is installed. And these measuring units 201 and 20
An information processing unit 202 that processes signals from Nos. 3 and 204 and detects a driver's forward gaze reduction or awakening reduction, and an alarm output unit 205 that outputs an alarm based on the signal from this information processing unit 202. ing.

【0030】環境計測部203には、自車の走行速度v
を計測する車速センサ206、ステアリングの操舵角θ
を計測する操舵角センサ207、レーダあるいはカメラ
を用いた障害物センサ208、自車位置検出装置20
9、車載のデータベース210、ならびに車外データベ
ース212と情報授受する路車間通信装置211が設け
られている。また警報出力部205は、前方注視度低下
警報を出力する第1警報出力部205aと、覚醒度低下
警報を出力する第2警報出力部205bを備えている。
The environment measuring unit 203 displays the traveling speed v of the vehicle.
Vehicle speed sensor 206 for measuring the steering angle θ of the steering wheel
Steering angle sensor 207, obstacle sensor 208 using radar or camera, vehicle position detection device 20
9, a vehicle-mounted database 210, and a vehicle-to-vehicle communication device 211 for exchanging information with the vehicle exterior database 212 are provided. Further, the warning output unit 205 includes a first warning output unit 205a that outputs a front gaze reduction warning and a second warning output unit 205b that outputs a wakefulness reduction warning.

【0031】本実施例の制御動作を図11のフローチャ
ートに従って説明する。まずステップ301において、
視線計測部201で、前述の第1実施例と同様の流れで
運転者の視線方向を計測する。このとき、計測された視
線方向は、図12に示すように、仮想平面352と視線
351の交点(Xi,Yi)で表わされる。また、所定
回数のサンプリングにおける、 Xi、Yiの分散SX、SY および Sr=(SX2 +SY2 1/2 を計算する。
The control operation of this embodiment will be described with reference to the flowchart of FIG. First, in step 301,
The line-of-sight measurement unit 201 measures the line-of-sight direction of the driver in the same flow as in the first embodiment described above. At this time, the measured line-of-sight direction is represented by the intersection (Xi, Yi) of the virtual plane 352 and the line-of-sight 351 as shown in FIG. Further, the variances SX, SY of Xi, Yi and Sr = (SX 2 + SY 2 ) 1/2 in a predetermined number of samplings are calculated.

【0032】つぎにステップ302で、環境計測部20
3において、車両の走行環境が求められる。ここでは、
車速センサ206による走行速度vの計測、操舵角セン
サ207による操舵角θsの計測、そして障害物センサ
208による車両前方の障害物までの距離U、障害物の
上下、左右の方位(ψ、φ)および障害物との相対速度
などの障害物情報の計測が行なわれる。さらに、自車位
置検出装置210と車載データベース211により、自
車両前方の道路の曲率RNおよび勾配の変化率NTを求
める。この際、路車間通信装置211を介して参照され
る車外データベース212により、より詳細な曲率、勾
配変化率などの道路情報を得ることもできる。障害物の
方位(ψ、φ)は、図12の仮想平面352上の座標
(Xf、Yf)に変換される。
Next, in step 302, the environment measuring unit 20
In 3, the running environment of the vehicle is required. here,
The traveling speed v is measured by the vehicle speed sensor 206, the steering angle θs is measured by the steering angle sensor 207, and the distance U to the obstacle in front of the vehicle by the obstacle sensor 208, the vertical and horizontal directions of the obstacle (ψ, φ) Also, obstacle information such as relative speed to the obstacle is measured. Further, the vehicle's vehicle position detection device 210 and the vehicle-mounted database 211 determine the curvature RN and the gradient change rate NT of the road ahead of the vehicle. At this time, it is also possible to obtain more detailed road information such as curvature and gradient change rate from the vehicle exterior database 212 referred to via the road-vehicle communication device 211. The azimuth (φ, φ) of the obstacle is converted into coordinates (Xf, Yf) on the virtual plane 352 of FIG.

【0033】このあと情報処理部202では、ステップ
303において、時間計測部204から車両の走行開始
からの経過時間LTの値を求める。そしてステップ30
4において、運転者が前景領域探索、すなわち前方を見
て運転しているかどうかをチェックする。ここでは、視
線計測部201で計測された視線方向(Xi、Yi)が
図12の仮想平面352上の注視領域350外に所定の
基準時間T1以上留まっているとき、前方注視度が低下
していると判断してステップ306へ進む。それ以外の
ときはステップ305へ進む。
After that, in the information processing unit 202, in step 303, the value of the elapsed time LT from the start of traveling of the vehicle is obtained from the time measuring unit 204. And step 30
In 4, the driver checks the foreground region, that is, checks whether or not the driver is looking ahead. Here, when the line-of-sight direction (Xi, Yi) measured by the line-of-sight measurement unit 201 remains outside the gaze area 350 on the virtual plane 352 of FIG. 12 for a predetermined reference time T1 or more, the forward gaze degree decreases. If it is determined that there is one, the process proceeds to step 306. Otherwise, go to step 305.

【0034】図12に示すように、上記の注視領域35
0は、(Xc、Yc)の点を中心とする縦2Va、横2
Haの長方形で定義される。 以下に、これら注視領域
350を決めるパラメータについて説明する。注視領域
中心のXcは式(1)を用いて算出される。 Xc=A1 ・v/RN+A2 ・θs (1) (但し、A1 、A2 は定数) 正常な運転者が注視する領域は曲線道路走行時には左右
に移動する。この移動量は、道路の曲率と運転者がどれ
ほど遠くの路面を見ようとしているかに依存しており、
後者は車両の速度に比例しているものと近似することが
できる。式(1)の第1項は、これを表わしており、第
2項は道路幅内での車線変更時の操舵に対応している。
As shown in FIG. 12, the above-mentioned gaze area 35
0 is vertical 2Va and horizontal 2 with the point of (Xc, Yc) as the center.
It is defined by the rectangle of Ha. The parameters that determine these gaze areas 350 will be described below. The Xc at the center of the gaze area is calculated using the equation (1). Xc = A1.v / RN + A2..theta.s (1) (where A1 and A2 are constants) The area where a normal driver gazes moves left and right when traveling on a curved road. This amount of travel depends on the curvature of the road and how far the driver is looking at the road,
The latter can be approximated as being proportional to the speed of the vehicle. The first term of the equation (1) expresses this, and the second term corresponds to steering at the time of changing lanes within the road width.

【0035】注視領域中心のYcは式(2)を用いて算
出される。 Yc=Y0 +A3 ・v+A4 ・NT (2) (但しY0 、A3 、A4 は定数) 正常な運転者が注視する領域は、高速走行時には略水平
を中心とするが、低速走行時には、その中心はより低く
(すなわち近く)なり、第2項はこれを表わしている。
また、注視領域は道路の勾配により、登り坂に差しかか
ると上方に、下り坂では下方に移動する。したがって第
3項のように、勾配による注視領域の上下移動は勾配の
変化率NTに比例していると考えられる。
Yc at the center of the gazing area is calculated by using the equation (2). Yc = Y0 + A3.v + A4.NT (2) (where Y0, A3, and A4 are constants) The normal driver's gazing area is approximately horizontal when driving at high speed, but the center is more stable when driving at low speed. It goes low (ie close), and the second term represents this.
Further, the gaze area moves upward when approaching an uphill and downward when descending due to the gradient of the road. Therefore, as in the third term, it is considered that the vertical movement of the gaze area due to the gradient is proportional to the rate of change NT of the gradient.

【0036】注視領域の幅Haは式(3)を用いて算出
される。 Ha=H0 +A5 ・|v/RN|+A6 ・|θs|+A7 ・Sr (3) (但しH0 、A5 、A6 は定数) 曲線路を走行中は、自車直前の道路端から右又は左に曲
がった前方の道路まで視認する必要があるため、正常な
運転者が注視する領域の左右幅は広くなる。道路幅内で
の車線変更時も同様であり、第2項および第3項はこれ
に対応する。また、混雑した道路、複雑な道路では左右
上下に車両や種々の物標が分布しているため、視線方向
の分散Srが大きな値となることが知られている。これ
に対応して第4項により領域幅Haを調整するようにな
っている。
The width Ha of the gazing area is calculated using the equation (3). Ha = H0 + A5 • | v / RN | + A6 • | θs | + A7 • Sr (3) (however, H0, A5, and A6 are constants) When driving on a curved road, make a right or left turn from the road edge immediately before your vehicle. Since it is necessary to visually recognize the road ahead, the right and left width of the area where a normal driver gazes becomes wide. The same applies when changing lanes within the road width, and the second and third terms correspond to this. Further, it is known that the variance Sr in the line-of-sight direction has a large value because vehicles and various targets are distributed on the left, right, up, and down on a congested road or a complicated road. In response to this, the area width Ha is adjusted by the fourth term.

【0037】注視領域高さVaは、混雑道路の影響を考
慮して式(4)により算出される。 Va=V0 +A8 ・Sr (4) (但しV0 、A8 は定数) そして、脇見判断基準時間T1は、式(5)による。 T1=T10 −B1 ・v −B2 ・{(Xi−Xc)2 +(Yi−Yc)2 1/2 −B3 ・Sr (5) (但し、T10 、B1 、B2 、B3 は定数)
The gazing area height Va is calculated by the equation (4) in consideration of the influence of the congested road. Va = V0 + A8.Sr (4) (where V0 and A8 are constants) Then, the inattentive judgment reference time T1 is calculated by the equation (5). T1 = T10 -B1 · v -B2 · {(Xi-Xc) 2 + (Yi-Yc) 2} 1/2 -B3 · Sr (5) ( where, T10, B1, B2, B3 is a constant)

【0038】すなわち、高速走行中は短時間の脇見運転
でも重大な危険に陥る可能性が高いため、第2項により
基準時間T1を短くする。また、脇見時に視線方向が本
来の注視領域から大きく外れているほど周辺視による情
報取得が困難であるから、第3項により、より短時間で
警報する。また、混雑道路等では瞬時の状況変化が頻発
すると考えられるため、第4項で基準時間T1を短くす
る。
That is, since there is a high possibility that a short look-ahead operation will fall into a serious danger during high-speed traveling, the reference time T1 is shortened by the second term. Further, as the line-of-sight direction deviates greatly from the original gaze area when looking aside, the more difficult it is to obtain information by peripheral vision, so an alarm is issued in a shorter time according to the third term. Further, it is considered that instantaneous situation changes frequently on a congested road, so the reference time T1 is shortened in the fourth term.

【0039】情報処理部202では、上に説明したパラ
メータを用いて、 |Xi−Xc|>Ha または |Yi−Yc|>Va の状態がT1以上継続したときに脇見と判断する。
The information processing unit 202 uses the parameters described above to judge that the state of | Xi-Xc |> Ha or | Yi-Yc |> Va continues for T1 or more and is a look aside.

【0040】ステップ305では、運転者が障害物を注
視しているか否かがチェックされる。 障害物の方向
(Xf、Yf)近傍に運転者の視線方向(Xi、Yi)
が存在しない状態が一定時間T2以上継続した場合は、
障害物注視度低下と判断してステップ306へ進み、そ
うでなければステップ307へ進む。ここで、障害物の
方向(Xf、Yf)近傍の領域は式(6)で設定され、
障害物注視度低下判断の基準時間T2は式(7)によ
る。 (Xi−Xf)2 +(Yi−Yf)2 >C1 (6) (但し、C1は定数) T2=T20 −C2 ・{(Xi−Xf)2 +(Yi−Yf)2 1/2 −C3 ・v+C4 ・U−C5 ・dv (7) (但し、T20 、C2 、C3 、C4 、C5 は定数)
In step 305, it is checked whether the driver is gazing at the obstacle. The driver's line-of-sight direction (Xi, Yi) near the obstacle direction (Xf, Yf)
If the state where does not exist continues for a certain time T2 or more,
When it is determined that the degree of obscuration is low, the process proceeds to step 306, and if not, the process proceeds to step 307. Here, the region near the direction (Xf, Yf) of the obstacle is set by the equation (6),
The reference time T2 for determining the degree of obstruction gaze reduction is calculated by the equation (7). (Xi-Xf) 2 + ( Yi-Yf) 2> C1 (6) ( where, C1 is a constant) T2 = T20 -C2 · {( Xi-Xf) 2 + (Yi-Yf) 2} 1/2 - C3.v + C4.U-C5.dv (7) (however, T20, C2, C3, C4, C5 are constants)

【0041】式(7)の第2項は、障害物の方向と視線
方向が大きく異なっているほど周辺視による情報取得が
困難であるから、より短時間で警報することを示す。ま
た自車の速度vが大きい場合や、障害物までの距離Uが
短い場合、および障害物との相対速度dvが大きい場合
にも短時間で警報するようT2を調整するものとし、第
3〜5項がこれに対応する。
The second term of the equation (7) indicates that the more the direction of the obstacle and the direction of the line of sight are greatly different, the more difficult it is to obtain information by peripheral vision, and therefore the alarm is issued in a shorter time. In addition, T2 is adjusted so that a warning is issued in a short time when the speed v of the vehicle is large, the distance U to the obstacle is short, or when the relative speed dv to the obstacle is large. Item 5 corresponds to this.

【0042】ステップ306では、前方注視度低下また
は障害物注視度低下の状態にあるので、警報出力部20
5の第1警報出力部205aから警報ブザー等の音、警
告灯等の光、あるいはステアリングやシートバックを振
動させることによる前方注視度低下警報を発するための
信号を出力した後、ステップ307へ進む。
In step 306, since the front gaze degree is lowered or the obstacle gaze degree is lowered, the alarm output unit 20
After outputting a sound such as a warning buzzer, a light such as a warning light, or a signal for issuing a front gaze reduction warning by vibrating a steering wheel or a seat back from the first warning output unit 205a of No. 5, the process proceeds to step 307. .

【0043】ステップ307以下では、運転者の覚醒度
低下がチェックされる。すなわち、まずステップ307
で、視線方向が視界下部領域に一定時間以上停留してい
るか否か、すなわち、Yc−Yi>Vsが一定時間T3
以上継続しているか否かがチェックされる。ここで、視
界下部領域を表すVsは、道路の混雑状況等に応じて変
化する視線方向の分散Srに応じて、式(8)を用いて
算出され、時間T3は式(9)により算出される。 Vs=V0 +D1 ・Sr (8) T3=T30 −D2 ・v−D3 ・LT (9) (但し、V0 、D1 、T30 、D2 、D3 は定数)
From step 307 onward, it is checked whether or not the driver's awakening level has decreased. That is, first, step 307
Then, whether or not the line-of-sight direction remains in the lower field of view for a certain time or more, that is, Yc-Yi> Vs is a certain time T3
It is checked whether the above continues. Here, Vs representing the lower field of view is calculated using Expression (8) according to the variance Sr of the line-of-sight direction that changes according to the congestion status of the road, and the time T3 is calculated using Expression (9). It Vs = V0 + D1.Sr (8) T3 = T30-D2.v-D3.LT (9) (where V0, D1, T30, D2 and D3 are constants)

【0044】式(9)の第2、第3項は、時間T3が、
自車両の走行速度vが大きい場合に短縮され、また、長
時間走行時には覚醒度低下の可能性が高くなるため、走
行開始からの経過時間LTに応じて調整されることを示
す。こうして設定された視界下部領域に視線方向が一定
時間T3以上停留していれば、覚醒度低下状態としてス
テップ310に進み、そうでなければステップ308へ
進む。
In the second and third terms of the equation (9), the time T3 is
This indicates that the travel speed v is reduced when the traveling speed v of the host vehicle is high, and the awakening degree is likely to decrease when traveling for a long time. Therefore, it is adjusted according to the elapsed time LT from the start of traveling. If the line-of-sight direction remains in the lower visual field set in this way for a certain period of time T3 or more, the awakening degree is lowered and the process proceeds to step 310. If not, the process proceeds to step 308.

【0045】ステップ308では、視線停留がチェック
される。これは覚醒度低下により視線の動きが小さくな
るのを検出するもので、Sr<E1が所定時間T4以上
継続しているか否かをチェックする。ここで、一定時間
T4は走行速度vと走行開始からの経過時間LTを用い
た式(10)により算出される。 T4=T40 −E2 ・v−E3 ・LT (10) (但し、T40 、E2 、E3 は定数) 上記T4以上継続していれば覚醒度低下状態としてステ
ップ310へ進み、そうでなければステップ309へ進
む。
In step 308, the line of sight is checked. This is to detect that the movement of the line of sight becomes smaller due to the decrease in arousal level, and it is checked whether or not Sr <E1 continues for a predetermined time T4 or longer. Here, the constant time T4 is calculated by the equation (10) using the traveling speed v and the elapsed time LT from the start of traveling. T4 = T40-E2.v-E3.LT (10) (where T40, E2, and E3 are constants) If T4 or more is continued, the awakening degree is lowered, and the process proceeds to step 310. Otherwise, the process proceeds to step 309. move on.

【0046】ステップ309では、暫時の視線停留の後
に飛躍的な視線方向の変化を繰り返すような特異な視線
移動パターンの有無がチェックされる。具体的には、S
r<G1 (但し、G1 は定数)が一定時間T5以上継続
したあと、(Xi−Xi-1)2 +(Yi−Yi-1)2
G2の飛躍がG3回/分以上発生することを検出するも
のとし、この検出があったときは覚醒度低下と判断す
る。ここで、一定時間T5は、走行速度vと走行開始か
らの経過時間LTを含む式(11)により算出される。 T5=T50 −G4 ・v−G5 ・LT (11) (但し、T50 、G4 、G5 は定数)
In step 309, it is checked whether or not there is a peculiar line-of-sight movement pattern that repeats a dramatic change in the line-of-sight direction after the line-of-sight has been stopped for a while. Specifically, S
r <G1 (However, G1 is a constant) after continues to be a certain period of time T5 or more, (Xi-Xi-1) 2 + (Yi-Yi-1) 2>
It is detected that the jump of G2 occurs G3 times / minute or more, and when this detection is detected, it is determined that the awakening degree has decreased. Here, the constant time T5 is calculated by the equation (11) including the traveling speed v and the elapsed time LT from the start of traveling. T5 = T50-G4.v-G5.LT (11) (However, T50, G4, and G5 are constants)

【0047】また、視線の飛躍量G2は、注視領域中心
からのずれ、または前方障害物からのずれに応じて決定
され、式(12)による。 G2=MIN[G20 +G6 ・{(Xi−Xc)2 +(Yi−Yc)2 1/2 , G20 +G7・{(Xi−Xf)2 +(Yi−Yf)2 1/2 ] (12) (但し、G20 、G6 、G7 は定数) そして停留/飛躍の頻度G3は、走行速度vと走行開始
からの経過時間LTにより決定するものとし、式(1
3)により算出される。 G3=G30 −G8 ・v−G9 ・LT (13) (但し、G30 、G8 、G9 は定数)
The line-of-sight jump G2 is determined according to the deviation from the center of the gazing area or the deviation from the front obstacle, and is expressed by the equation (12). G2 = MIN [G20 + G6 · {(Xi-Xc) 2 + (Yi-Yc) 2} 1/2, G20 + G7 · {(Xi-Xf) 2 + (Yi-Yf) 2} 1/2] (12 (However, G20, G6, and G7 are constants.) The stop / jump frequency G3 is determined by the traveling speed v and the elapsed time LT from the start of traveling, and the equation (1
3) is calculated. G3 = G30-G8.v-G9.LT (13) (However, G30, G8, and G9 are constants)

【0048】上記により、運転者の覚醒度低下がチェッ
クされ、覚醒度低下による特異な視線移動パターンがな
い場合には、ステップ301へ戻り、次のサイクルに移
る。特異な視線移動パターンにより覚醒度低下と判断さ
れたときは、ステップ310において、警報出力部20
5へ信号が出力され、第2警報出力部205bにより
音、光、振動等の覚醒度低下警報出力が発せられる。こ
のあと、ステップ301へ戻る。上記覚醒度低下警報
は、ステップ306での前方注視度低下警報よりもより
大きな注意を喚起するようその出力態様が設定される。
From the above, it is checked whether or not the driver's awakening degree is lowered, and if there is no peculiar line-of-sight movement pattern due to the lowered awakening degree, the process returns to step 301 and moves to the next cycle. When it is determined that the awakening level is lowered due to the unique eye movement pattern, in step 310, the alarm output unit 20
5, and the second alarm output unit 205b outputs a low alertness alarm output such as sound, light, and vibration. Then, the process returns to step 301. The output mode of the alertness lowering alarm is set so as to draw more attention than the alertness lowering warning in step 306.

【0049】なお、ステップ304では、前景領域とし
ての注視領域が長方形と規定されているが、これに限定
されず、同等の長軸、短軸からなる楕円形とすることも
可能である。また、各パラメータを設定する各式につい
ては、その一部または全部を運転者の技量、心身の状
態、周囲の交通状況等に応じて調整可能としてもよい。
さらに、本実施例では、各式を1次の関数としたが、自
車両の走行速度、ステアリング操舵角、基準位置と視線
方向のずれ、走行経過時間などに関して高次の式で表す
ことにより、より精度の高い判定を行うことができる。
In step 304, the gaze area as the foreground area is defined as a rectangle, but the gaze area is not limited to this and may be an elliptical shape having equivalent major and minor axes. Further, some or all of the equations for setting the parameters may be adjustable according to the skill of the driver, the physical and mental condition, the traffic situation of the surroundings, and the like.
Further, in the present embodiment, each equation is a linear function, but by expressing the traveling speed of the host vehicle, the steering angle of the vehicle, the deviation between the reference position and the line-of-sight direction, the elapsed travel time, etc., by using a higher-order equation, More accurate determination can be performed.

【0050】[0050]

【発明の効果】以上のとおり、本発明は運転者の視線方
向を検出する視線方向検出手段と、視線方向が所定の注
視領域を向いていない時間を計測し所定の基準時間と比
較する時間計測手段を有するものとしたから、その基準
時間以上継続することにより前方注視度の低下が容易に
検知される。そして、視線方向検出手段は眼球部の画像
データを用いてその視線方向を求めるので、顔面領域全
体を特徴抽出対象としたものに比べて横方向からの直射
光の入射その他の光線状態によって影響を受けることな
く、視線方向が容易に求められ、安定かつ確実に注視度
低下状態が検知されるという効果を有する。
As described above, according to the present invention, the line-of-sight direction detecting means for detecting the line-of-sight direction of the driver and the time measurement for measuring the time when the line-of-sight direction is not facing the predetermined gaze area and comparing it with the predetermined reference time. Since the device has the means, the decrease in the degree of forward gaze can be easily detected by continuing the reference time or more. Since the line-of-sight direction detecting means obtains the line-of-sight direction using the image data of the eyeball portion, it is affected by the incidence of direct light from the lateral direction and other light ray states as compared with those in which the entire face area is subjected to feature extraction. The effect is that the line-of-sight direction can be easily obtained without being received, and the gaze reduction state can be detected stably and reliably.

【0051】また、上記注視領域からの逸脱のかわりに
視線方向の移動パターンを検出し、これを基準パターン
と比較するパターン比較手段を有するものとしたときに
は、通常運転と異なる異常パターンから覚醒度が低下し
た状態を検知することができる。さらに、走行速度、走
行開始からの経過時間、ステアリングの操舵角、障害物
情報および道路形状の少なくも1以上からなる環境情報
を取得する環境検出手段を有して、注視領域または基準
時間あるいは基準パターンを上記環境情報に基づいて設
定するものとしたものでは、走行環境が検出レベルに反
映され、一層精度の高い、そして緊急度合などに応じて
より迅速な検知が行なわれるから、前方注視度低下警報
などに用いてとくに大きな効果が得られる。
Further, when a pattern comparing means for detecting a movement pattern in the line-of-sight direction instead of deviating from the gaze area and comparing the movement pattern with a reference pattern is provided, an awakening degree is detected from an abnormal pattern different from normal driving. The lowered state can be detected. Further, it has an environment detecting means for acquiring the traveling speed, the elapsed time from the start of traveling, the steering angle of the steering wheel, the obstacle information, and the environmental information consisting of at least one of the road shapes, and the gazing area or the reference time or the reference time. If the pattern is set based on the above environment information, the traveling environment is reflected in the detection level, the accuracy is higher, and more rapid detection is performed according to the degree of urgency. It is especially effective when used as an alarm.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例を示す図である。FIG. 1 is a diagram showing a first embodiment of the present invention.

【図2】視線計測装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a visual line measuring device.

【図3】角膜反射像の生成を示す説明図である。FIG. 3 is an explanatory diagram showing generation of a corneal reflection image.

【図4】角膜反射像位置および網膜反射像位置の抽出の
流れを示すフローチャートである。
FIG. 4 is a flowchart showing a flow of extracting a corneal reflection image position and a retinal reflection image position.

【図5】角膜反射像位置および網膜反射像位置の抽出の
流れを示すフローチャートである。
FIG. 5 is a flowchart showing a flow of extracting a corneal reflection image position and a retinal reflection image position.

【図6】角膜反射像位置の抽出処理を示す説明図であ
る。
FIG. 6 is an explanatory diagram showing a process of extracting a corneal reflection image position.

【図7】網膜反射像位置の抽出処理を示す説明図であ
る。
FIG. 7 is an explanatory diagram showing a process of extracting a retina reflection image position.

【図8】画像データから抽出した角膜反射像位置および
網膜反射像位置を示す図である。
FIG. 8 is a diagram showing a corneal reflection image position and a retinal reflection image position extracted from image data.

【図9】視線方向の算出要領を示す説明図である。FIG. 9 is an explanatory diagram showing a gaze direction calculation procedure.

【図10】本発明の第2の実施例を示す図である。FIG. 10 is a diagram showing a second embodiment of the present invention.

【図11】第2の実施例における制御の流れを示すフロ
ーチャートである。
FIG. 11 is a flowchart showing a control flow in the second embodiment.

【図12】注視領域を示す説明図である。FIG. 12 is an explanatory diagram showing a gaze area.

【符号の説明】[Explanation of symbols]

1 フロントガラス 2 視線計測装置 3 注視度判断装置 4 警報発生装置 5 運転者 21 カメラ 22 第1光源 23 第2光源 24 A/D変換器 25 特徴抽出部 26 視線方向算出部 27 照明発光制御部 28 全体制御部 30 注視領域 31 眼球 32 メモリ 50 角膜球 51 角膜球表面 52 角膜反射像 201 視線計測部 202 情報処理部 203 環境計測部 204 時間計測部 205 警報出力部 206 車速センサ 207 操舵角センサ 208 障害物センサ 209 自車位置検出装置 210 車載データベース 211 路車間通信装置 212 車外データベース A 網膜反射像位置 B、C 角膜反射像位置 L 視線方向 O 角膜球中心 Q 瞳孔中心 P 照明光正反射点 DESCRIPTION OF SYMBOLS 1 Windshield 2 Line-of-sight measurement device 3 Gaze degree determination device 4 Alarm generator 5 Driver 21 Camera 22 First light source 23 Second light source 24 A / D converter 25 Feature extraction unit 26 Line-of-sight direction calculation unit 27 Illumination light emission control unit 28 Overall control unit 30 Gaze area 31 Eyeball 32 Memory 50 Corneal sphere 51 Corneal sphere surface 52 Corneal reflection image 201 Eye gaze measuring unit 202 Information processing unit 203 Environment measuring unit 204 Time measuring unit 205 Alarm output unit 206 Vehicle speed sensor 207 Steering angle sensor 208 Obstacle Object sensor 209 Vehicle position detection device 210 In-vehicle database 211 Roadside-vehicle communication device 212 Vehicle exterior database A Retinal reflection image position B, C Corneal reflection image position L Line of sight O Corneal sphere center Q Pupil center P Illumination light specular reflection point

───────────────────────────────────────────────────── フロントページの続き (72)発明者 斎藤 浩 神奈川県横浜市神奈川区宝町2番地 日産 自動車株式会社内 (72)発明者 荒井 和夫 神奈川県横浜市神奈川区宝町2番地 日産 自動車株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Hiroshi Saito 2 Takara-cho, Kanagawa-ku, Yokohama, Kanagawa Nissan Motor Co., Ltd. (72) Kazuo Arai, 2 Takara-cho, Kanagawa-ku, Yokohama, Kanagawa Nissan Motor Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 運転者の眼球領域に向けて設けられた画
像入力手段と、該画像入力手段により得た眼球部の画像
データを基に運転者の視線方向を検出する視線方向検出
手段と、前記視線方向が所定の注視領域内にあるか否か
を判別する領域判別手段と、前記視線方向が前記注視領
域外にある時間を計測し、所定の基準時間と比較する時
間計測手段とを有することを特徴とする前方注視度検知
装置。
1. An image input means provided toward a driver's eyeball area, and a line-of-sight direction detecting means for detecting the driver's line-of-sight direction based on image data of an eyeball portion obtained by the image input means, An area determination unit that determines whether or not the line-of-sight direction is within a predetermined gaze region, and a time measurement unit that measures a time during which the line-of-sight direction is outside the gaze region and compares the time with a predetermined reference time A front gaze degree detection device characterized by the above.
【請求項2】 運転者の眼球領域に向けて設けられた画
像入力手段と、該画像入力手段により得た眼球部の画像
データを基に運転者の視線方向を検出する視線方向検出
手段と、走行速度、走行開始からの経過時間、ステアリ
ングの操舵角、障害物情報および道路形状の少なくも1
以上からなる環境情報を取得する環境検出手段と、前記
視線方向が所定の注視領域内にあるか否かを判別する領
域判別手段と、前記視線方向が前記注視領域外にある時
間を計測し、所定の基準時間と比較する時間計測手段と
を有し、前記所定の注視領域または基準時間が前記環境
情報に基づいて設定されることを特徴とする前方注視度
検知装置。
2. An image input means provided toward the eyeball region of the driver, and a visual line direction detection means for detecting the visual line direction of the driver based on the image data of the eyeball portion obtained by the image input means, At least 1 of running speed, elapsed time from start of running, steering angle of steering wheel, obstacle information and road shape
Environment detection means to obtain the environment information consisting of the above, the area determination means for determining whether the gaze direction is within a predetermined gaze area, and the time the gaze direction is outside the gaze area is measured, A forward gaze degree detection device, comprising: a time measuring means for comparing with a predetermined reference time, wherein the predetermined gaze area or reference time is set based on the environment information.
【請求項3】 運転者の眼球領域に向けて設けられた画
像入力手段と、該画像入力手段により得た眼球部の画像
データを基に運転者の視線方向を検出する視線方向検出
手段と、前記視線方向の移動パターンを検出するパター
ン検出手段と、前記移動パターンを所定の基準パターン
と比較するパターン比較手段とを有することを特徴とす
る前方注視度検知装置。
3. An image input means provided toward the eyeball region of the driver, and a line-of-sight direction detecting means for detecting the line-of-sight direction of the driver based on image data of the eyeball portion obtained by the image input means, A forward gaze degree detection device comprising: a pattern detection unit that detects the movement pattern in the line-of-sight direction; and a pattern comparison unit that compares the movement pattern with a predetermined reference pattern.
【請求項4】 運転者の眼球領域に向けて設けられた画
像入力手段と、該画像入力手段により得た眼球部の画像
データを基に運転者の視線方向を検出する視線方向検出
手段と、走行速度、走行開始からの経過時間、ステアリ
ングの操舵角、障害物情報および道路形状の少なくも1
以上からなる環境情報を取得する環境検出手段と、前記
視線方向の移動パターンを検出するパターン検出手段
と、前記移動パターンを所定の基準パターンと比較する
パターン比較手段とを有し、前記基準パターンが前記環
境情報に基づいて設定されることを特徴とする前方注視
度検知装置。
4. An image input means provided toward a driver's eyeball area, and a line-of-sight direction detecting means for detecting the driver's line-of-sight direction based on image data of the eyeball portion obtained by the image input means, At least 1 of running speed, elapsed time from start of running, steering angle of steering wheel, obstacle information and road shape
Environment reference means for acquiring the environment information consisting of the above, pattern detection means for detecting the movement pattern in the line-of-sight direction, and pattern comparison means for comparing the movement pattern with a predetermined reference pattern, wherein the reference pattern is A forward gaze degree detection device, which is set based on the environment information.
JP26291993A 1993-09-27 1993-09-27 Forward watching degree detector Pending JPH0796768A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP26291993A JPH0796768A (en) 1993-09-27 1993-09-27 Forward watching degree detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP26291993A JPH0796768A (en) 1993-09-27 1993-09-27 Forward watching degree detector

Publications (1)

Publication Number Publication Date
JPH0796768A true JPH0796768A (en) 1995-04-11

Family

ID=17382429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP26291993A Pending JPH0796768A (en) 1993-09-27 1993-09-27 Forward watching degree detector

Country Status (1)

Country Link
JP (1) JPH0796768A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178712A (en) * 1994-12-22 1996-07-12 Toyota Motor Corp Rambling-drive detection apparatus
JPH10138791A (en) * 1996-11-08 1998-05-26 Niles Parts Co Ltd Device for warning of danger during use of cellular phone
JP2003233803A (en) * 2002-02-12 2003-08-22 Nissan Motor Co Ltd Device for detecting condition of driver
JP2005063105A (en) * 2003-08-11 2005-03-10 Toyota Motor Corp Device for determining inattentive driving
JP2005284975A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Traveling safety device
WO2007069489A1 (en) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. Safety-travel assistance device
WO2008120635A1 (en) * 2007-03-30 2008-10-09 Hamamatsu Photonics K.K. Pupil measuring device
JP2009503666A (en) * 2005-07-25 2009-01-29 エアバス A data processing method for the determination of visual motifs in visual scenes
JP2010116124A (en) * 2008-11-14 2010-05-27 Aisin Aw Co Ltd Display control system, display control method, and display control program
JP2010131401A (en) * 2002-10-15 2010-06-17 Volvo Technology Corp Method and arrangement for interpreting subjects head and eye activity
JP2012022504A (en) * 2010-07-14 2012-02-02 Honda Motor Co Ltd Inattentive driving determination device
JP2014153875A (en) * 2013-02-07 2014-08-25 Mitsubishi Electric Corp Operation support device
CN109758167A (en) * 2017-11-09 2019-05-17 丰田自动车株式会社 Driver status detection device
JP2019091268A (en) * 2017-11-15 2019-06-13 オムロン株式会社 Inattentive driving determination device, inattentive driving determination method, and program
US10417512B2 (en) 2015-07-06 2019-09-17 Denso Corporation Driver abnormality detection device and driver abnormality detection method
JP2021189852A (en) * 2020-06-01 2021-12-13 トヨタ自動車株式会社 Condition determination device and condition determination method

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08178712A (en) * 1994-12-22 1996-07-12 Toyota Motor Corp Rambling-drive detection apparatus
JPH10138791A (en) * 1996-11-08 1998-05-26 Niles Parts Co Ltd Device for warning of danger during use of cellular phone
JP2003233803A (en) * 2002-02-12 2003-08-22 Nissan Motor Co Ltd Device for detecting condition of driver
JP2013056180A (en) * 2002-10-15 2013-03-28 Volvo Technology Corp Method and arrangement for interpreting subject's head and eye activity
JP2010131401A (en) * 2002-10-15 2010-06-17 Volvo Technology Corp Method and arrangement for interpreting subjects head and eye activity
JP2005063105A (en) * 2003-08-11 2005-03-10 Toyota Motor Corp Device for determining inattentive driving
JP2005284975A (en) * 2004-03-30 2005-10-13 Honda Motor Co Ltd Traveling safety device
JP2009503666A (en) * 2005-07-25 2009-01-29 エアバス A data processing method for the determination of visual motifs in visual scenes
WO2007069489A1 (en) * 2005-12-12 2007-06-21 Matsushita Electric Industrial Co., Ltd. Safety-travel assistance device
JP4879189B2 (en) * 2005-12-12 2012-02-22 パナソニック株式会社 Safe driving support device
WO2008120635A1 (en) * 2007-03-30 2008-10-09 Hamamatsu Photonics K.K. Pupil measuring device
JP2010116124A (en) * 2008-11-14 2010-05-27 Aisin Aw Co Ltd Display control system, display control method, and display control program
JP2012022504A (en) * 2010-07-14 2012-02-02 Honda Motor Co Ltd Inattentive driving determination device
JP2014153875A (en) * 2013-02-07 2014-08-25 Mitsubishi Electric Corp Operation support device
US10417512B2 (en) 2015-07-06 2019-09-17 Denso Corporation Driver abnormality detection device and driver abnormality detection method
CN109758167A (en) * 2017-11-09 2019-05-17 丰田自动车株式会社 Driver status detection device
JP2019087143A (en) * 2017-11-09 2019-06-06 トヨタ自動車株式会社 Driver state detection apparatus
CN109758167B (en) * 2017-11-09 2022-02-01 丰田自动车株式会社 Driver state detection device
JP2019091268A (en) * 2017-11-15 2019-06-13 オムロン株式会社 Inattentive driving determination device, inattentive driving determination method, and program
JP2021189852A (en) * 2020-06-01 2021-12-13 トヨタ自動車株式会社 Condition determination device and condition determination method
US11919522B2 (en) 2020-06-01 2024-03-05 Toyota Jidosha Kabushiki Kaisha Apparatus and method for determining state

Similar Documents

Publication Publication Date Title
EP3735365B1 (en) Primary preview region and gaze based driver distraction detection
EP1721782B1 (en) Driving support equipment for vehicles
KR101386823B1 (en) 2 level drowsy driving prevention apparatus through motion, face, eye,and mouth recognition
JPH0796768A (en) Forward watching degree detector
JP4879189B2 (en) Safe driving support device
JP6350145B2 (en) Face orientation detection device and vehicle warning system
JP3822154B2 (en) Vehicle detection device
US20080212828A1 (en) Device, program, and method for determining sleepiness
JP2015207163A (en) State estimation device and state estimation program
JPH08178712A (en) Rambling-drive detection apparatus
JP4647387B2 (en) Vehicle driving support device
JP2009244959A (en) Driving support device and driving support method
US10604160B2 (en) Driver condition detection system
CN110555366A (en) Driver monitoring device
US11572071B2 (en) Method and system for determining awareness data
JP6213435B2 (en) Over-attention state determination device and over-attention state determination program
JP2017039373A (en) Vehicle video display system
CN112119438A (en) Vehicle rear-lateral-direction warning device and vehicle rear-lateral-direction warning method
JP2015085719A (en) Gazing object estimation device
KR20170135573A (en) Apparatus for detecting of driver gaze direction
KR101500016B1 (en) Lane Departure Warning System
EP3875330A1 (en) Vehicle controller
JP2018094294A (en) State estimation system
JPH08297019A (en) Apparatus for detecting direction of line of sight for vehicle
JP2004347464A (en) Looking-aside detection device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20000613