JPH11195200A - Operating state detecting device - Google Patents

Operating state detecting device

Info

Publication number
JPH11195200A
JPH11195200A JP9361411A JP36141197A JPH11195200A JP H11195200 A JPH11195200 A JP H11195200A JP 9361411 A JP9361411 A JP 9361411A JP 36141197 A JP36141197 A JP 36141197A JP H11195200 A JPH11195200 A JP H11195200A
Authority
JP
Japan
Prior art keywords
vehicle
eye
driver
state detection
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9361411A
Other languages
Japanese (ja)
Inventor
Masaji Owada
正次 大和田
Masayuki Kaneda
雅之 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nissan Motor Co Ltd
Original Assignee
Nissan Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nissan Motor Co Ltd filed Critical Nissan Motor Co Ltd
Priority to JP9361411A priority Critical patent/JPH11195200A/en
Publication of JPH11195200A publication Critical patent/JPH11195200A/en
Pending legal-status Critical Current

Links

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Image Processing (AREA)
  • Emergency Alarm Devices (AREA)
  • Traffic Control Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a detecting device in which dozing-off operating state or looking-aside operating state of a driver can be detected always stably and properly. SOLUTION: This device is provided with a TV camera 11 for inputting the picture data of a face, an A/D converter 13, a picture memory 15 for storing input picture data converted into digital values, a picture data arithmetic circuit 17, an eye position detecting circuit 19 for detecting eye positions, a vehicle state detecting circuit 21 for detecting the vehicle state at the time of vehicle traveling, an eye reference position storage circuit 23 for judging whether or not probability that a driver watches ahead is high based on the detection of the vehicle state detecting circuit 21, determining and storing the eye positions when it is judged that the probability is high as eye reference positions, and judging whether or not the eye positions detected at the time of vehicle traveling are made coincident with a condition predetermined for the reference positions, and an alarming device 25 for issuing alarm when they are not made coincident.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、車両の運転者、船
舶の操船者、プラント等のオペレータなどの居眠り状態
または脇見状態を検出するための眼の位置の検出装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an eye position detecting device for detecting a dozing state or an inattentive state of a driver of a vehicle, a boat operator, an operator of a plant, or the like.

【0002】[0002]

【従来の技術】従来のこの種の装置には、例えば特開平
3−260900号公報または特開平6−251273
号公報に開示されたものがある。
2. Description of the Related Art Conventional apparatuses of this type include, for example, Japanese Patent Application Laid-Open No. Hei 3-260900 and Japanese Patent Application Laid-open No. Hei 6-251273.
Is disclosed in Japanese Patent Application Laid-Open Publication No. HEI 9-203 (1995).

【0003】前者の従来例は、運転者が正常に運転して
いるときの顔の基準位置に対する顔の向き角度が許容時
間以上に亘って許容角度以上にずれているとき、運転者
が居眠りや脇見運転していると判断し、そのとき先行車
との車間距離に対する許容相対速度を越えていれば運転
者に警報を発するものである。
[0003] In the former conventional example, when the face direction angle of the face with respect to the reference position when the driver is driving normally deviates by more than the permissible angle for more than the permissible time, the driver may fall asleep. It is determined that the driver is looking aside and if the relative speed with respect to the inter-vehicle distance to the preceding vehicle is exceeded, a warning is issued to the driver.

【0004】また、後者の従来例は、運転者の視線変化
の頻度分布を計算し、その最大視線頻度が許容値を越え
ると、運転者がぼんやり運転していると判断し、警報を
出力する。
In the latter conventional example, a frequency distribution of a driver's line of sight change is calculated, and when the maximum line of sight frequency exceeds an allowable value, it is determined that the driver is driving dimly and a warning is output. .

【0005】[0005]

【発明が解決しようとする課題】ところが、このような
運転者の眼の位置や視線は、例えば車両の走行中の上
下・左右・前後の各加速度により変化する。長時間運
転していると運転姿勢が変るため、一定しない。バス
やトラック等にみられるシートバックが直立に近いシー
トでは、ホールド性が悪く、曲線路では上体が左右に振
られ一定しない。などにより、運転者の眼の位置や視線
を精度良く検出することが難しかった。
However, the driver's eye position and line of sight change due to, for example, vertical, lateral, lateral, and forward accelerations of the vehicle while the vehicle is running. If you drive for a long time, your driving posture will change, so it will not be constant. In the case of a seat such as a bus or a truck where the seat back is nearly upright, the holdability is poor, and the upper body swings left and right on a curved road, and is not constant. For example, it has been difficult to accurately detect the position and the line of sight of the driver's eyes.

【0006】本発明は、このような問題点に着目してな
されたものであり、運転者の居眠り運転状態や脇見運転
状態の検出を常に安定して適正にできる検出装置の提供
を課題とする。
The present invention has been made in view of such a problem, and an object of the present invention is to provide a detection device capable of always stably and appropriately detecting a driver's drowsy driving state and inattentive driving state. .

【0007】[0007]

【課題を解決するための手段】上記課題を解決するため
に、請求項1に記載の発明は、顔の画像データを入力す
る画像入力手段と、前記入力された画像データから眼位
置を検出する眼位置検出手段と、車両走行時の車両状態
を検出する車両状態検出手段と、前記車両状態検出手段
の検出に基づき運転者が車両前方を注視している確率が
高いか否かを判断する前方注視判断手段と、運転者が車
両前方を注視している確率が高いと判断されたときに前
記検出された眼位置を基準位置として記憶する記憶手段
と、車両走行時に検出された眼位置が前記基準位置に対
し予め定められた条件に合致するか否かを比較する比較
手段とを備えてなることを特徴とする。
According to a first aspect of the present invention, there is provided an image input unit for inputting image data of a face, and an eye position is detected from the input image data. An eye position detecting means, a vehicle state detecting means for detecting a vehicle state when the vehicle is traveling, and a front side for determining whether or not the probability that the driver is gazing at the front of the vehicle is high based on the detection of the vehicle state detecting section. Gaze determination means, storage means for storing the detected eye position as a reference position when it is determined that the probability that the driver is gazing at the front of the vehicle is high, and the eye position detected during traveling of the vehicle is A comparison means for comparing whether or not a predetermined condition is met with respect to the reference position is provided.

【0008】請求項2に記載の発明は、請求項1に記載
の運転状態検出装置であって、前記車両状態検出手段
は、ブレーキペダルの踏み込みの有無と、操舵装置の操
舵角とを検出し、前記前方注視判断手段は、ブレーキペ
ダルが踏み込まれ且つ操舵角がほぼ中立位置にあるとき
に運転者が車両前方を注視している確率が高いと判断す
ることを特徴とする。
According to a second aspect of the present invention, in the driving state detecting device according to the first aspect, the vehicle state detecting means detects whether a brake pedal is depressed and a steering angle of the steering device. The forward gaze determination means is characterized in that when the brake pedal is depressed and the steering angle is substantially at the neutral position, it is determined that the probability that the driver gazes ahead of the vehicle is high.

【0009】請求項3に記載の発明は、請求項1に記載
の運転状態検出装置であって、前記車両状態検出手段
は、アクセルペダルの踏み込みの有無と、操舵装置の操
舵角とを検出し、前記前方注視判断手段は、アクセルペ
ダルが踏み込まれ且つ操舵角がほぼ中立位置にあるとき
に運転者が車両前方を注視している確率が高いと判断す
ることを特徴とする。
According to a third aspect of the present invention, in the driving state detecting device according to the first aspect, the vehicle state detecting means detects whether the accelerator pedal is depressed and the steering angle of the steering device. The forward gaze determining means determines that the probability that the driver is gazing ahead of the vehicle is high when the accelerator pedal is depressed and the steering angle is substantially at the neutral position.

【0010】請求項4に記載の発明は、請求項1に記載
の運転状態検出装置であって、前記車両状態検出手段
は、車両走行方向前後の加減速度と、操舵装置の操舵角
とを検出し、前記前方注視判断手段は、操舵角がほぼ中
立位置にあり且つ検出された加減速度が予め定められた
加減速度となったときに運転者が車両前方を注視してい
る確率が高いと判断することを特徴とする。
According to a fourth aspect of the present invention, there is provided the driving state detecting apparatus according to the first aspect, wherein the vehicle state detecting means detects acceleration / deceleration before and after the vehicle traveling direction and a steering angle of the steering device. The forward gaze determination means determines that the probability that the driver is gazing ahead of the vehicle is high when the steering angle is substantially at the neutral position and the detected acceleration / deceleration becomes a predetermined acceleration / deceleration. It is characterized by doing.

【0011】請求項5に記載の発明は、請求項1に記載
の運転状態検出装置であって、前記検出された眼位置が
予め定められた時間内、同じ位置に滞留しているか否か
を判断する滞留判断手段を設け、前記車両状態検出手段
は操舵装置の操舵角を検出し、前記前方注視判断手段
は、前記検出された眼位置が予め定められた時間内、同
じ位置に滞留し且つ操舵角が中立位置にあるときに運転
者が車両前方を注視している確率が高いと判断すること
を特徴とする。
According to a fifth aspect of the present invention, in the driving state detecting apparatus according to the first aspect, it is determined whether or not the detected eye position stays at the same position within a predetermined time. Providing a stay determination means for determining, the vehicle state detection means detects the steering angle of the steering device, the forward fixation determination means, the detected eye position stays at the same position within a predetermined time, and When the steering angle is at the neutral position, it is determined that the probability that the driver gazes ahead of the vehicle is high.

【0012】請求項6に記載の発明は、顔の画像データ
を入力する画像入力手段と、前記入力された画像データ
から眼位置を検出する眼位置検出手段と、前記検出され
た眼位置が予め定められた時間内、同じ位置に滞留して
いるか否かを判断する滞留判断手段を設け、前記滞留判
断手段の判断に基づき運転者が車両前方を注視している
確率が高いか否かを判断する前方注視判断手段と、前記
眼位置が予め定められた時間内、同じ位置に滞留して運
転者が車両前方を注視している確率が高いと判断された
ときに前記検出された眼位置を基準位置として記憶する
記憶手段と、車両走行時に検出された眼位置が前記基準
位置に対し予め定められた条件に合致するか否かを比較
する比較手段とを備えてなることを特徴とする。
According to a sixth aspect of the present invention, there is provided an image input device for inputting image data of a face, an eye position detecting device for detecting an eye position from the input image data, and wherein the detected eye position is determined in advance. Providing stay determination means for determining whether or not the vehicle is staying at the same position within a predetermined time, and determining whether or not the probability that the driver is gazing ahead of the vehicle based on the determination of the stay determination means is high. Forward gaze determination means, and the eye position is detected when it is determined that the probability that the eye position stays at the same position within a predetermined time and the driver gazes ahead of the vehicle is high. It is characterized by comprising storage means for storing as a reference position, and comparison means for comparing whether or not the eye position detected during running of the vehicle matches a predetermined condition with respect to the reference position.

【0013】請求項7に記載の発明は、請求項1〜6の
いずれかに記載の運転状態検出装置であって、前記眼位
置の基準位置を記憶する記憶手段は、運転者が車両前方
を注視している確率が高いことをイグニッションスイッ
チをONにしてから最初に前記前方注視判断手段が判断
したときの眼位置を基準位置として記憶することを特徴
とする。
According to a seventh aspect of the present invention, there is provided the driving state detecting device according to any one of the first to sixth aspects, wherein the storage means for storing the reference position of the eye position comprises: It is characterized in that the eye position when the forward gaze determination means first determines that the probability of gaze is high after turning on the ignition switch is stored as a reference position.

【0014】請求項8に記載の発明は、請求項1〜6の
いずれかに記載の運転状態検出装置であって、前記眼位
置の基準位置を記憶する記憶手段は、運転者が車両前方
を注視している確率が高いと前記前方注視判断手段が判
断したときから、所定時間内に前記眼位置検出手段が検
出した複数の眼位置に基づいて眼位置の基準位置を記憶
することを特徴とする。
According to an eighth aspect of the present invention, there is provided the driving state detecting device according to any one of the first to sixth aspects, wherein the storage means for storing the reference position of the eye position is provided so that the driver can drive the vehicle in front of the vehicle. From the time when the forward gaze determination means determines that the probability of gazing is high, storing a reference position of the eye position based on the plurality of eye positions detected by the eye position detection means within a predetermined time. I do.

【0015】請求項9に記載の発明は、請求項1〜6の
いずれかに記載の運転状態検出装置であって、前記眼位
置の基準位置を記憶する記憶手段は、運転者が車両前方
を注視している確率が高いと前記前方注視判断手段が判
断する度に基準位置を更新して記憶することを特徴とす
る。
According to a ninth aspect of the present invention, there is provided the driving state detecting device according to any one of the first to sixth aspects, wherein the storage means for storing the reference position of the eye position is provided so that the driver can move forward in the vehicle. The reference position is updated and stored each time the forward gaze determining means determines that the probability of gazing is high.

【0016】請求項10記載の発明は、請求項1〜9の
いずれかに記載の運転状態検出装置であって、前記比較
手段による比較結果に基づいて運転者に注意を喚起する
警報手段を備えることを特徴とする。
According to a tenth aspect of the present invention, there is provided the driving state detecting apparatus according to any one of the first to ninth aspects, further comprising an alarm unit for calling a driver's attention based on a comparison result by the comparing unit. It is characterized by the following.

【0017】[0017]

【発明の効果】請求項1に記載の発明によれば、車両状
態の検出に基づき運転者が車両前方を注視している確率
が高いと判断したときの運転者の眼位置を眼基準位置と
して記憶し、この眼基準位置に対して予め定められた条
件に合致する眼位置であるか否かを比較して居眠り運転
状態もしくは脇見運転状態か否かを判断するので、安定
して適正な判断が可能となる。
According to the first aspect of the present invention, the eye position of the driver when it is determined that the probability that the driver is gazing ahead of the vehicle based on the detection of the vehicle state is high as the eye reference position. Since it is stored and compared with the eye reference position to determine whether the eye position matches a predetermined condition, it is determined whether the vehicle is in a drowsy driving state or an inattentive driving state. Becomes possible.

【0018】請求項2に記載の発明によれば、車両状態
としてブレーキペダルが踏み込まれ且つ操舵角がほぼ中
立位置にあるときに、運転者が車両前方を注視している
確率が高いと判断することにより、請求項1の発明と同
等の効果が得られる。
According to the second aspect of the present invention, when the brake pedal is depressed and the steering angle is substantially at the neutral position as the vehicle state, it is determined that the probability that the driver gazes ahead of the vehicle is high. Thereby, an effect equivalent to that of the first aspect is obtained.

【0019】請求項3に記載の発明によれば、車両状態
としてアクセルペダルが踏み込まれ且つ操舵角がほぼ中
立位置にあるときに、運転者が車両前方を注視している
確率が高いと判断することにより、請求項1の発明と同
等の効果が得られる。
According to the third aspect of the present invention, when the accelerator pedal is depressed and the steering angle is substantially at the neutral position as the vehicle state, it is determined that the probability that the driver is gazing ahead of the vehicle is high. Thereby, an effect equivalent to that of the first aspect is obtained.

【0020】請求項4に記載の発明によれば、車両状態
として操舵角がほぼ中立位置にあり且つ検出された加減
速度が予め定められた加減速度となったときに、運転者
が車両前方を注視している確率が高いと判断することに
より、請求項1の発明と同等の効果が得られる。
According to the present invention, when the steering angle is substantially at the neutral position and the detected acceleration / deceleration becomes a predetermined acceleration / deceleration as the vehicle state, the driver moves forward of the vehicle. By judging that the probability of gazing is high, the same effect as that of the first aspect can be obtained.

【0021】請求項5に記載の発明によれば、眼位置が
予め定められた時間内、同じ位置に滞留し、且つ操舵角
が中立位置にあるときに運転者が車両前方を注視してい
る確率が高いと判断することにより、請求項1の発明と
同等の効果が得られる。
According to the fifth aspect of the invention, the driver gazes ahead of the vehicle when the eye position stays at the same position within a predetermined time and the steering angle is at the neutral position. By judging that the probability is high, the same effect as that of the first aspect can be obtained.

【0022】請求項6に記載の発明によれば、眼位置が
予め定められた時間内、同じ位置に滞留しているか否か
の判断に基づき、運転者が車両前方を注視している確率
が高いか否かを判断し、前方注視確率が高いと判断する
と、そのときの眼位置を眼基準位置として記憶する。そ
して、この眼基準位置に対して検出眼位置が予め定めら
れた条件に合致するか否かを比較して居眠り運転状態も
しくは脇見運転状態か否かを判断するので、安定して適
正な判断が可能となる。
According to the invention described in claim 6, the probability that the driver gazes ahead of the vehicle is determined based on the determination as to whether the eye position is staying at the same position within a predetermined time. It is determined whether or not the eye position is high, and if it is determined that the forward gaze probability is high, the eye position at that time is stored as the eye reference position. Then, whether or not the detected eye position matches a predetermined condition with respect to the eye reference position is determined to determine whether the vehicle is in a drowsy driving state or an inattentive driving state. It becomes possible.

【0023】請求項7に記載の発明によれば、請求項1
〜6のいずれかの発明と同等の効果が得られると共に、
運転者が車両前方を注視している確率が高いことをイグ
ニッションスイッチをONにしてから最初に判断したと
きの眼位置を眼基準位置として記憶するので、例えば運
転者の眼の位置が比較的安定している乗用車の運転の場
合に適用すると有効である。
According to the invention of claim 7, according to claim 1,
And an effect equivalent to that of any one of the inventions is obtained.
Since the eye position when initially determining that the driver has a high probability of gazing ahead of the vehicle after turning on the ignition switch is stored as the eye reference position, for example, the position of the driver's eyes is relatively stable. It is effective when applied to the case of driving a passenger car.

【0024】請求項8に記載の発明によれば、請求項1
〜6のいずれかの発明と同等の効果が得られると共に、
運転者が車両前方を注視している確率が高いと判断した
ときから、所定時間内の複数の眼位置に基づいて眼基準
位置とするので、眼基準位置の精度は一層向上する。
According to the invention described in claim 8, according to claim 1,
And an effect equivalent to that of any one of the inventions is obtained.
Since it is determined that the probability that the driver is gazing at the front of the vehicle is high, the eye reference position is set based on the plurality of eye positions within a predetermined time, so that the accuracy of the eye reference position is further improved.

【0025】請求項9に記載の発明によれば、請求項1
〜6のいずれかの発明と同等の効果が得られると共に、
運転者が車両前方を注視している確率が高いと判断する
度に眼基準位置を更新するので、例えばトラックなど運
転者の眼の位置が安定しない場合は、常時眼の基準位置
を更新していくことにより、眼の基準位置を正確に決定
することが可能となる。
According to the ninth aspect of the present invention, the first aspect is provided.
And an effect equivalent to that of any one of the inventions is obtained.
Since the eye reference position is updated each time it is determined that the probability that the driver is gazing at the front of the vehicle is high, if the position of the driver's eye such as a truck is not stable, the eye reference position is constantly updated. By doing so, it becomes possible to accurately determine the reference position of the eye.

【0026】請求項10に記載の発明によれば、請求項
1〜9のいずれかの発明と同等の効果が得られると共
に、居眠り運転状態もしくは脇見運転状態と判断すると
警報により運転者に注意を喚起するので、安全性が向上
される。
According to the tenth aspect of the invention, the same effects as those of any of the first to ninth aspects can be obtained, and when it is determined that the vehicle is in the dozing driving state or the inattentive driving state, the driver is alerted by an alarm. Because it wakes up, safety is improved.

【0027】[0027]

【発明の実施の形態】[第1実施形態]本発明の第1実
施形態を図1〜図3、図6〜図13により説明する。図
1は本実施形態の運転状態検出装置の機能ブロック図で
ある。この運転状態検出装置は、画像入力手段CL1
と、画像データ処理による眼位置検出手段CL2と、車
両状態検出手段CL3と、前方注視判断手段CL4と、
記憶手段CL5と、比較手段CL6と、警報手段CL7
とを備えている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS [First Embodiment] A first embodiment of the present invention will be described with reference to FIGS. FIG. 1 is a functional block diagram of the operating state detecting device of the present embodiment. This operating state detecting device is provided with an image input means CL1.
Eye position detecting means CL2 by image data processing, vehicle state detecting means CL3, forward gaze determining means CL4,
Storage means CL5, comparison means CL6, alarm means CL7
And

【0028】前記画像入力手段CL1は、運転者の顔面
の画像データを入力する。前記眼位置検出手段CL2
は、入力された画像データから眼の選択を行い眼の位置
を検出する。一方、前記車両状態検出手段CL3は運転
者を含めた走行時の車両状態、すなわち、ブレーキペダ
ルの踏み込みの有無、操舵装置の操舵角、アクセルペダ
ルの踏み込みの有無、車両走行方向前後の加減速度を検
出することが可能である。前記前方注視判断手段CL4
は、眼位置検出手段CL2および車両状態検出手段CL
3の検出情報に基づき運転者が車両前方を注視している
確率が高いか否かを判断する。そして、前記記憶手段C
L5は、運転者が車両前方を注視している確率が高いと
判断されたときの眼の位置を眼基準位置として記憶す
る。前記比較手段CL6は、車両走行時に検出された眼
の位置が上記眼基準位置に対し予め定められた条件に合
致するか否かを比較する。そして、警報手段CL7は、
比較手段CL6による比較結果に基づいて眼位置が上記
基準位置に対し所定の条件を満たさない場合に警報を発
し運転者に注意を喚起する。
The image input means CL1 inputs image data of the driver's face. The eye position detecting means CL2
Detects the position of the eye by selecting the eye from the input image data. On the other hand, the vehicle state detecting means CL3 determines the vehicle state during traveling including the driver, that is, whether or not the brake pedal is depressed, the steering angle of the steering device, whether or not the accelerator pedal is depressed, and the acceleration / deceleration before and after the vehicle traveling direction. It is possible to detect. The forward fixation judging means CL4
Are eye position detecting means CL2 and vehicle state detecting means CL
It is determined whether or not the probability that the driver gazes ahead of the vehicle is high based on the detection information of No. 3. And the storage means C
L5 stores the position of the eye when it is determined that the probability that the driver is gazing at the front of the vehicle is high as the eye reference position. The comparing means CL6 compares whether or not the position of the eye detected during traveling of the vehicle matches a predetermined condition with respect to the eye reference position. And the alarm means CL7 is
When the eye position does not satisfy the predetermined condition with respect to the reference position based on the comparison result by the comparing means CL6, a warning is issued to call attention to the driver.

【0029】図2は、本実施形態の構成ブロック図であ
る。画像入力手段CL1としてのTVカメラ11が、図
示のように、運転席前方のインストルメントパネル部に
設置され、運転者の顔部分を正面から撮影する。TVカ
メラ11の入力画像はA−D変換器13を介してデジタ
ル量の入力画像データとして画像メモリ15に格納され
る。画像メモリ15は、画素列の濃度検出手段と該画素
列のポイントを抽出するポイント抽出手段と、隣接する
画素列の画素列方向に近接したポイントを連続して顔の
横方向への曲線群を抽出する画像データ演算回路17か
らなる。そして、眼位置検出手段CL2、比較手段CL
6および眼位置の滞留判断手段としての眼位置検出回路
19、車両状態検出手段CL3としての車両状態検出回
路21および前方注視判断手段CL4、記憶手段CL5
としての眼基準位置記憶回路23と、警報手段CL7と
しての警報装置25とを備えている。
FIG. 2 is a configuration block diagram of the present embodiment. As shown in the figure, a TV camera 11 as an image input means CL1 is installed on an instrument panel in front of a driver's seat, and photographs a driver's face from the front. The input image of the TV camera 11 is stored in the image memory 15 as digital input image data via the A / D converter 13. The image memory 15 includes a density detection unit for a pixel column, a point extraction unit for extracting a point of the pixel column, and a curve group in the horizontal direction of the face by continuously connecting points in the pixel column direction of an adjacent pixel column. It comprises an image data operation circuit 17 to be extracted. Then, the eye position detecting means CL2, the comparing means CL
6, eye position detection circuit 19 as eye position retention judgment means, vehicle state detection circuit 21 as vehicle state detection means CL3 and forward gaze judgment means CL4, storage means CL5
And a warning device 25 as warning means CL7.

【0030】TVカメラ11が撮影した入力画像を画像
データ演算回路17が処理して眼の位置を認識する方法
の詳細については後述する。
The details of a method of recognizing the position of the eye by processing the input image taken by the TV camera 11 by the image data calculation circuit 17 will be described later.

【0031】つぎに、上記構成の車両状態検出回路2
1、眼基準位置記憶回路23および警報装置25の動作
の流れを、図3のフローチャートにより説明する。
Next, the vehicle state detection circuit 2 having the above configuration
1. The operation flow of the eye reference position storage circuit 23 and the alarm device 25 will be described with reference to the flowchart of FIG.

【0032】図3のステップS31で、車両状態検出回
路21は運転者を含めた車両状態を検出する。検出され
た車両状態が以下に示す(a)〜(e)の通りであると
きは、眼基準位置記憶回路23は運転者が車両前方を注
視していると推定する。
In step S31 of FIG. 3, the vehicle state detection circuit 21 detects a vehicle state including the driver. When the detected vehicle state is as shown in (a) to (e) below, the eye reference position storage circuit 23 estimates that the driver is gazing ahead of the vehicle.

【0033】(a)車両が直進状態で、且つ制動動作中
は、運転者が前方に危険を感じてブレーキペダルを踏む
ため前方を注視していると推定される。このとき、車両
の直進状態の検出はステアリングの舵角で検出し、制動
はブレーキペダルが踏まれたときに信号を発するスイッ
チ(SW)の信号で検出する。
(A) While the vehicle is traveling straight and during the braking operation, it is presumed that the driver is gazing forward because he / she feels danger ahead and steps on the brake pedal. At this time, the detection of the straight traveling state of the vehicle is detected by the steering angle of the steering, and the braking is detected by the signal of a switch (SW) that emits a signal when the brake pedal is depressed.

【0034】(b)車両が直進状態で、且つ加速動作中
は、運転者は、前方に車間距離がありアクセルペダルを
踏んでもぶつからないと判断して踏むが、ペダルの踏み
加減は車間距離をみながら調節するため、前方を高い確
率で注視していると推定される。このとき、車両の直進
状態の検出は上記(a)の場合と同じであり、加速動作
はアクセルペダルが踏まれたときに信号を発するアクセ
ルペダルSWの信号やスロットル開度信号により検出す
る。
(B) While the vehicle is traveling straight and accelerating, the driver determines that there is an inter-vehicle distance ahead and that the driver does not hit the accelerator pedal, and steps on the accelerator pedal. It is presumed that the user is gazing at the front with a high probability to adjust while watching. At this time, the detection of the straight traveling state of the vehicle is the same as in the case (a) described above, and the acceleration operation is detected by a signal of an accelerator pedal SW or a throttle opening signal which generates a signal when the accelerator pedal is depressed.

【0035】(c)車両が直進状態で、且つ車両の加速
度または減速度が所定値を越える条件は、運転者が前方
を注視していると推定される。このとき、車両の直進状
態の検出は上記(a)の場合と同じであり、加速度また
は減速度は車両に取り付けた加速度センサの信号により
検出する。また、車速を微分して加速度または減速度を
検出可能である。
(C) When the vehicle is traveling straight and the acceleration or deceleration of the vehicle exceeds a predetermined value, it is estimated that the driver is gazing forward. At this time, the detection of the straight traveling state of the vehicle is the same as in the case of (a), and the acceleration or deceleration is detected by a signal of an acceleration sensor attached to the vehicle. Further, acceleration or deceleration can be detected by differentiating the vehicle speed.

【0036】(d)眼の位置が画像の一定の範囲内に所
定時間内滞留している場合。
(D) A case where the position of the eye stays within a predetermined range of the image for a predetermined time.

【0037】(e)車両が直進状態で、且つ眼の位置が
画像の一定の範囲内に所定時間内滞留している場合。
(E) The vehicle is traveling straight, and the position of the eye stays within a predetermined range of the image for a predetermined time.

【0038】つぎに、ステップS32では、前ステップ
S31で検出された車両状態が上記(a)〜(e)のい
ずれかに該当すればつぎのステップS33へ進み、
(a)〜(e)のいずれにも該当しないときはスタート
へ戻る。
Next, in step S32, if the vehicle state detected in the previous step S31 corresponds to any of the above (a) to (e), the process proceeds to the next step S33.
If none of (a) to (e) applies, the process returns to the start.

【0039】ステップS33では、眼位置検出回路19
が眼の位置検出を行う。ついで眼の基準位置(図3では
基準座標)が眼基準位置記憶回路23によりすでに記憶
(設定)されているかどうかの判断をし(ステップS3
4)、設定されていなければつぎのステップS35へ進
み、ステップS33で得られた眼の位置を眼基準位置と
して記憶する。一方、眼基準位置がすでに設定されてい
ればステップS35をとばしてステップS36へ進む。
In step S33, the eye position detection circuit 19
Performs eye position detection. Then, it is determined whether or not the eye reference position (reference coordinates in FIG. 3) is already stored (set) by the eye reference position storage circuit 23 (step S3).
4) If not set, the process proceeds to the next step S35, and the position of the eye obtained in step S33 is stored as an eye reference position. On the other hand, if the eye reference position has already been set, the process skips step S35 and proceeds to step S36.

【0040】ステップS36以降は、居眠りや脇見運転
などの場合で警報処理を行うフローである。ここでは、
脇見運転状態を検出して警報装置25により警報を発す
る場合のフローを示す。
The flow from step S36 is a flow for performing an alarm process in the case of falling asleep or looking aside. here,
The flow in the case of detecting an inattentive driving state and issuing an alarm by the alarm device 25 is shown.

【0041】すなわち、ステップS36では、前のステ
ップS35で記憶した眼基準位置を眼の中立位置とし、
縮小領域内での眼の位置検出を行う。この縮小領域は、
眼の中立位置に基づいて所定の領域として固定される。
That is, in step S36, the eye reference position stored in the previous step S35 is set as the neutral position of the eye,
The position of the eye within the reduced area is detected. This reduced area is
It is fixed as a predetermined area based on the neutral position of the eye.

【0042】つぎのステップS37では、眼位置検出回
路19が、運転者の眼の位置が所定時間この縮小領域内
に存在しているかどうか判断し、存在していれば脇見運
転ではないと判断し、ステップS34へ戻って以降の処
理を実行する。一方、運転者の眼の位置が存在せずに縮
小領域から外側に出たら脇見運転状態と判断し、警報装
置25がランプやブザーなどで警報を出し、運転者に注
意を促す(ステップS38)。
In the next step S37, the eye position detection circuit 19 determines whether or not the position of the driver's eye has been within the reduced area for a predetermined time, and if so, determines that it is not the inattentive driving. Then, the process returns to step S34 to execute the subsequent processing. On the other hand, if the driver's eye position does not exist and goes outside the reduced area, it is determined that the driver is looking aside, and the alarm device 25 issues a warning with a lamp, a buzzer, or the like, and calls the driver's attention (step S38). .

【0043】なお、本実施形態では、ステップS35で
一度眼基準位置が決定されると、イグニッションスイッ
チをOFFにするまでの間その決定し、記憶した眼の基
準位置が固定される。したがって、運転者の眼の位置が
比較的安定している乗用車の場合に有効である。
In the present embodiment, once the eye reference position is determined in step S35, the eye reference position is determined until the ignition switch is turned off, and the stored eye reference position is fixed. Therefore, it is effective in the case of a passenger car in which the position of the driver's eyes is relatively stable.

【0044】つぎに画像処理により眼の位置を認識する
方法を図6〜図13により説明する。図6は画像処理の
フローを示す。
Next, a method of recognizing the position of the eye by image processing will be described with reference to FIGS. FIG. 6 shows a flow of the image processing.

【0045】図6のステップS110で、TVカメラ1
1により運転者の顔を含む車室内の画像が撮影され、A
−D変換器13によって画素の濃度がデジタル値に変換
される。ついで、ステップS120で、画像メモリ15
に1フレームの画像に対応する画像データが蓄積され
る。
In step S110 of FIG. 6, the TV camera 1
1 captures an image of the vehicle interior including the driver's face,
The density of the pixel is converted into a digital value by the -D converter 13. Next, in step S120, the image memory 15
The image data corresponding to the image of one frame is stored.

【0046】そして、ステップS130では、画像メモ
リ15に蓄積された膨大な画像データの中から顔の縦方
向の画素列が図10に示すように選択される。画面の中
央部分に等間隔で数10列、X方向の10画素ごとに1
列の画素列が設定される。1列の画素列はY方向に48
0個の画素を有し、画素列ごとに全画素の濃度値を画像
データ演算回路17に送出可能である。
In step S130, a vertical pixel row of the face is selected from the huge amount of image data stored in the image memory 15 as shown in FIG. Dozens of columns at equal intervals in the center of the screen, one for every 10 pixels in the X direction
A row of pixels is set. One pixel column has 48 pixels in the Y direction.
It has 0 pixels, and can transmit the density values of all pixels for each pixel column to the image data calculation circuit 17.

【0047】ステップS140では、それぞれの画素列
の濃度値を演算処理して抽出点となる画素(Y座標値)
を特定する。画素列上の濃度値の大きな変化を求め、そ
の局所的なピークを抽出点とする。
In step S140, the density value of each pixel row is subjected to arithmetic processing to obtain a pixel to be an extraction point (Y coordinate value).
To identify. A large change in the density value on the pixel row is obtained, and a local peak thereof is set as an extraction point.

【0048】図7は抽出点を求める詳細手順を示す。す
なわち、図7のステップS141では、図10の左側か
ら順番に、画素列ごとの全画素の濃度値を呼び出す。
FIG. 7 shows a detailed procedure for obtaining an extraction point. That is, in step S141 of FIG. 7, the density values of all the pixels for each pixel column are called in order from the left side of FIG.

【0049】ステップS142では、画素列上の濃度値
を相加平均して、画素列上の濃度値の変化曲線から高い
周波数成分を除去した相加平均濃度値を求める。例え
ば、図10に示す画素列Xa からは図11(a)に示す
ような相加平均濃度値が抽出される。図11の横軸がY
座標値であり、縦軸が濃度値である。
In step S142, the density values on the pixel row are arithmetically averaged to obtain an arithmetic average density value from which a high frequency component has been removed from the density value change curve on the pixel row. For example, from the pixel column X a shown in FIG. 10 arithmetic mean density value as shown in FIG. 11 (a) it is extracted. The horizontal axis in FIG. 11 is Y
It is a coordinate value, and the vertical axis is a density value.

【0050】ステップS143では、相加平均濃度値を
微分する。図11(a)に示す相加平均濃度値では図1
1(b)に示す微分値となる。
In step S143, the arithmetic mean density value is differentiated. In the arithmetic mean density value shown in FIG.
1 (b).

【0051】ステップS144では、得られた微分値か
ら、相加平均濃度値の暗さのピークに対応するY座標値
を求める。微分値が負から正に反転するY座標値は、暗
さのピークに対応して、眼、眉、口等をぞぞれ代表する
1個づつのY座標値となる。微分値が正から負に反転す
るY座標値は、眼、眉等の中間位置に対応する明るさの
ピーク位置であるからここでは使用しない。
In step S144, a Y coordinate value corresponding to the dark peak of the arithmetic average density value is obtained from the obtained differential value. The Y coordinate value at which the differential value is inverted from negative to positive becomes one Y coordinate value representing each of the eyes, eyebrows, mouth, etc., corresponding to the peak of darkness. The Y coordinate value at which the differential value is inverted from positive to negative is a peak position of brightness corresponding to an intermediate position such as an eye or an eyebrow, and is not used here.

【0052】図11(a)に示す相加平均濃度値では図
11(b)に示す微分値となり、微分値が負から正に反
転するY座標値p1,p2,p3,p4,p5が抽出さ
れる。これらの中で手前の微分値のピークがしきい値以
下(斜線域)となるY座標値p1,p2,p5が抽出点
とされる。手前の微分値のピークを判別することで、顔
面のしわや凹凸が抽出点となることを回避している。
In the arithmetic mean density value shown in FIG. 11A, the differential value shown in FIG. 11B is obtained, and Y coordinate values p1, p2, p3, p4, and p5 at which the differential value is inverted from negative to positive are extracted. Is done. Among these, the Y coordinate values p1, p2, and p5 where the peak of the preceding differential value is equal to or smaller than the threshold value (shaded area) are set as extraction points. By determining the peak of the differential value at the near side, wrinkles and irregularities on the face do not become extraction points.

【0053】そして、ステップS145では、最後の画
素列(図10の右端の画素列)であるか否かを判定す
る。最後の画素列であれば、全部の画素列で抽出点を特
定済みであるから、つぎのステップS150(図6)へ
進む。最後の画素列でなければステップS141(図
7)に進み、つぎの画素列の濃度値データによる抽出点
の特定を開始させる。
Then, in a step S145, it is determined whether or not the pixel row is the last pixel row (the rightmost pixel row in FIG. 10). If it is the last pixel row, the extraction point has been specified in all the pixel rows, so the process proceeds to the next step S150 (FIG. 6). If it is not the last pixel row, the process proceeds to step S141 (FIG. 7), and identification of the extraction point based on the density value data of the next pixel row is started.

【0054】このようにして、図12に示すように、画
素列ごとに0〜4個程度の抽出点A1,A2,A3,A
4が特定される。画素列XC では、抽出点A1,A2、
画素列Xd では抽出点A1,A2,A3,A4が特定さ
れる。
In this way, as shown in FIG. 12, about 0 to 4 extraction points A1, A2, A3, A
4 is specified. The pixel-column X C, extraction point A1, A2,
Extraction points A1, A2, A3, and A4 are specified in the pixel row Xd .

【0055】ステップS150では、画素列ごとに求め
た抽出点をX方向に連結してグループ化する。
In step S150, the extracted points obtained for each pixel column are connected in the X direction and grouped.

【0056】図8はこのグループ化処理の詳細手順を示
す。すなわち、図8のステップS151では、画素列の
抽出点データを順番に呼び出す。
FIG. 8 shows a detailed procedure of the grouping process. That is, in step S151 of FIG. 8, the extraction point data of the pixel row is called in order.

【0057】ステップS152、S153では、隣接す
る画素列の抽出点についてY座標値が比較される。隣接
する画素列の抽出点のY座標値の差が10画素以下(所
定範囲内)であれば、ステップS154へ進んで連結デ
ータが形成される。一方、差が所定範囲を越える(グル
ープ化できない)と判断された場合はステップS155
へ進んで連結データは形成されない。
In steps S152 and S153, the Y coordinate values are compared for the extraction points of the adjacent pixel rows. If the difference between the Y coordinate values of the extraction points of the adjacent pixel rows is 10 pixels or less (within a predetermined range), the process proceeds to step S154, where connected data is formed. On the other hand, when it is determined that the difference exceeds the predetermined range (grouping cannot be performed), step S155 is performed.
Proceed to and no linked data is formed.

【0058】連結データは、発生したグループごとに順
番に付与されるグループ番号、グループの左端の抽出点
の属する画素列の番号(X座標に対応)で分類して、連
結された抽出点の個数(画素列数)とY座標値をメモリ
に記憶し、画素列を処理するごとに記憶内容を書き替え
て形成される。
The connected data is classified according to the group number sequentially assigned to each generated group and the number of the pixel column (corresponding to the X coordinate) to which the leftmost extracted point belongs to the group, and the number of connected extracted points It is formed by storing (the number of pixel columns) and the Y coordinate value in a memory, and rewriting the stored contents every time a pixel column is processed.

【0059】ステップS155では、最後の画素列であ
るか否かを判定する。最後の画素列であれば、全部の画
素列でグループ化を判定済みであるから、つぎのステッ
プS160(図6)へ進む。最後の画素列でなければス
テップS151(図8)に進み、つぎの画素列の抽出点
によるグループ化の判定を開始させる。
In step S155, it is determined whether the pixel row is the last pixel row. If it is the last pixel column, the grouping has been determined for all the pixel columns, and the process proceeds to the next step S160 (FIG. 6). If it is not the last pixel row, the process proceeds to step S151 (FIG. 8), and the determination of grouping based on the extraction point of the next pixel row is started.

【0060】ステップS160では、画像データ演算回
路17(図2参照)が、不必要な連結データを除去し、
最終的に必要な連結データについてだけ候補点データを
形成する。
In step S160, the image data calculation circuit 17 (see FIG. 2) removes unnecessary linked data,
The candidate point data is formed only for the finally required connection data.

【0061】図9はその候補点データ形成の詳細手順を
示す。すなわち、図9のステップS161では、メモリ
から連結データをグループ番号の順に1個づつ呼び出
す。ついで、ステップS162,S163では、連結デ
ータの連結データ数Nを評価する。連結データ数Nが5
個以上(所定値以上)であれば、つぎのステップS16
4へ進んで候補点データを形成する。連結データ数Nが
5個未満であれば(例えば鼻の穴など)、ステップS1
65へ進んで候補点データを形成しない。
FIG. 9 shows a detailed procedure for forming the candidate point data. That is, in step S161 of FIG. 9, the linked data is called one by one from the memory in order of the group number. Next, in steps S162 and S163, the number N of linked data of the linked data is evaluated. Number of connected data N is 5
If the number is equal to or more than the predetermined value (the predetermined value or more), the next step S16
Proceed to step 4 to form candidate point data. If the number N of connected data is less than 5 (for example, a nostril), step S1
Proceeding to 65 does not form candidate point data.

【0062】例えば、図12に示す抽出点群からは、図
13(a)に示すように、両方の眼および眉、鼻の影、
口にそれぞれ相当する6個の抽出点のグループG1〜G
6が残される。ここでは、残された6個のグループにつ
いて左から右、上から下方向に順番に番号を付け直して
いる。
For example, from the group of extracted points shown in FIG. 12, as shown in FIG.
Groups G1 to G of six extraction points each corresponding to a mouth
6 are left. Here, the remaining six groups are renumbered in order from left to right and from top to bottom.

【0063】候補点データは、残された抽出点グループ
をそれぞれ画面上の1個づつの候補点で代表させる1組
の座標値、すなわち、そのグループに属する抽出点のY
座標値の平均値(高さ)と、グループの左右の両端の画
素列の中央のX座標値で構成される。
The candidate point data is a set of coordinate values representing each of the remaining extracted point groups by one candidate point on the screen, that is, the Y values of the extracted points belonging to that group.
It is composed of the average value (height) of the coordinate values and the X coordinate value of the center of the pixel rows at both left and right ends of the group.

【0064】例えば、図13(a)に示す抽出点グルー
プG1〜G6は、図13(b)に示す画面上の6個の候
補点G1〜G6で代表される。
For example, the extraction point groups G1 to G6 shown in FIG. 13A are represented by six candidate points G1 to G6 on the screen shown in FIG. 13B.

【0065】ステップS165では、最後の連結データ
であるか否かを判定する。最後の連結データであれば、
全部の連結データを評価済みであるから、つぎのステッ
プS170(図6)へ進む。最後の連結データでなけれ
ばステップS161(図9)へ進み、つぎの連結データ
の評価を開始させる。
In step S165, it is determined whether or not the data is the last connected data. If it is the last consolidated data,
Since all the connected data have been evaluated, the process proceeds to the next step S170 (FIG. 6). If it is not the last connected data, the process proceeds to step S161 (FIG. 9), and evaluation of the next connected data is started.

【0066】ステップS170では、眼位置検出回路1
9(図2参照)が候補点データを評価して複数の候補点
の中から片方の眼の候補点を特定する。
In step S170, the eye position detection circuit 1
9 (see FIG. 2) evaluates the candidate point data and specifies one eye candidate point from among the plurality of candidate points.

【0067】例えば、図13(b)に示す6個の候補点
G1〜G6の場合、Y座標値の大きい(低い)候補点G
5,G6を中心にして中央の検出ゾーンCを形成する。
検出ゾーンCの外側には、Y座標値の小さい(高い)候
補点G1,G3と候補点G2,G4をそれぞれ中心にし
て左右の検出ゾーンL,Rを設定する。
For example, in the case of six candidate points G1 to G6 shown in FIG. 13B, the candidate point G having a large (low) Y coordinate value is set.
5, a central detection zone C is formed around G6.
Outside the detection zone C, left and right detection zones L and R are set with the candidate points G1 and G3 having small (high) Y coordinate values and the candidate points G2 and G4 as centers.

【0068】そして、左側の検出ゾーンLに含まれる2
つの候補点G1,G3の位置関係に基づいて片方の眼に
対する候補点G3が特定される。
Then, 2 included in the left detection zone L
The candidate point G3 for one eye is specified based on the positional relationship between the two candidate points G1 and G3.

【0069】こうして、本実施形態によれば、運転者が
車両前方を注視していると推定される車両状態の条件
が、上述のように予め設定されており、その条件に合致
するするときの運転者の眼の位置から眼の基準位置を決
定し、これに基づき設定される縮小領域内から眼の位置
が外れると運転者が居眠り運転状態もしくは脇見運転状
態と判断するので、安定して適正な判断が可能となる。
As described above, according to the present embodiment, the condition of the vehicle state in which the driver is presumed to be gazing at the front of the vehicle is set in advance as described above, and when the condition is met. The reference position of the eyes is determined from the position of the eyes of the driver, and if the position of the eyes deviates from within the reduction area set based on the driver's eyes, the driver determines that the driver is in a dozing driving state or an inattentive driving state. Judgment can be made.

【0070】また、眼の基準位置を一度決定すると運転
中はその決定した基準位置を固定するので、運転者の眼
の位置が比較的安定している乗用車の運転の場合に適用
すると有効である。
Further, once the reference position of the eye is determined, the determined reference position is fixed during driving, so it is effective to apply this method to the case of driving a passenger car in which the position of the driver's eye is relatively stable. .

【0071】[第2実施形態]本発明の第2実施形態を
図4により説明する。図4は本実施形態の全動作を示す
フローチャートである。本実施形態は、眼の基準位置の
決定方法が上記第1実施形態と異なる。
[Second Embodiment] A second embodiment of the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the entire operation of the present embodiment. This embodiment differs from the first embodiment in the method of determining the reference position of the eye.

【0072】まず、図4のステップS41で、車両状態
検出回路21は運転者を含めた車両状態を検出する。運
転者が車両前方を注視していると推定される条件は上記
第1実施形態の(a)〜(e)と同じである。
First, in step S41 of FIG. 4, the vehicle state detection circuit 21 detects the vehicle state including the driver. The conditions under which the driver is supposed to be gazing at the front of the vehicle are the same as those in (a) to (e) of the first embodiment.

【0073】つぎに、検出した車両状態により運転者が
車両前方を注視している確率が高いかどうかを判断し
(ステップS42)、高ければつぎのステップS43へ
進み、高くなければスタートへ戻る。
Next, it is determined whether or not the probability that the driver gazes ahead of the vehicle is high based on the detected vehicle state (step S42). If it is high, the process proceeds to the next step S43, and if it is not high, the process returns to the start.

【0074】つぎのステップS43では眼位置検出回路
19が眼の位置検出を行う。ついでステップS44で
は、運転者が車両前方を注視していると推定される車両
状態が検出されてからタイマーが所定時間経過したかど
かを判断し、経過していなければつぎのステップS45
へ進み、眼の基準位置が決定されているかどうかを判断
し、決定されていなければ、ステップS46で、所定時
間内に検出した複数の運転者の眼の位置から眼の基準位
置を決定し、記憶する。一方、ステップS44でタイマ
ーが所定時間経過済みであればステップS51でタイマ
ーを0にして、ステップS52で眼の基準位置をクリア
し、ステップS41へ戻る。
In the next step S43, the eye position detection circuit 19 detects the position of the eye. Next, in step S44, it is determined whether or not a predetermined time has elapsed since the detection of the vehicle state in which it is estimated that the driver is gazing ahead of the vehicle. If not, the next step S45 is performed.
It is determined whether or not the reference position of the eye has been determined, and if not determined, in step S46, the reference position of the eye is determined from the positions of the eyes of the plurality of drivers detected within a predetermined time, Remember. On the other hand, if the predetermined time has elapsed in step S44, the timer is set to 0 in step S51, the reference position of the eye is cleared in step S52, and the process returns to step S41.

【0075】そして、上記ステップS46で眼の基準位
置を記憶したら、タイマーをスタートさせ(ステップS
47)、縮小領域での眼の位置を所定時間中、検出する
(ステップS48)。上記のステップS45で眼の基準
位置が決定されていると判断された場合も、ステップS
46,S47をとばしてこのステップS48を実行す
る。
After the reference position of the eye is stored in step S46, the timer is started (step S46).
47), the position of the eye in the reduced area is detected during a predetermined time (step S48). If it is determined in step S45 that the reference position of the eye has been determined, step S45 is also performed.
This step S48 is executed by skipping steps 46 and S47.

【0076】そして、ステップS49で検出した眼の位
置が縮小領域から外側に出て脇見運転状態と判断された
ら警報装置25が警報を出し、運転者に注意を促す(ス
テップS50)。一方、ステップS49で脇見運転状態
ではないと判断されたらステップS44へ戻る。ここで
タイマーが所定時間経過していれば、タイマーを0にし
(ステップS51)、さらに眼の基準位置をクリア(ス
テップS52)してステップS41へ戻る。
When the position of the eye detected in step S49 goes out of the reduced area and is determined to be an inattentive driving state, the warning device 25 issues a warning and calls the driver's attention (step S50). On the other hand, if it is determined in step S49 that the vehicle is not in the inattentive driving state, the process returns to step S44. Here, if the predetermined time has elapsed, the timer is set to 0 (step S51), the reference position of the eye is cleared (step S52), and the process returns to step S41.

【0077】このようなフローにより、本実施形態によ
れば、車両状態の検出により運転者が車両前方を注視し
ていると推定されると、所定時間内の運転者の眼の位置
を検出し、検出した複数の眼の位置から眼の基準位置を
決定するので、決定した運転者の眼の基準位置の精度は
一層向上する。
According to this embodiment, according to this embodiment, if it is estimated that the driver is gazing ahead of the vehicle by detecting the state of the vehicle, the position of the driver's eyes within a predetermined time is detected. Since the eye reference position is determined from the detected positions of the plurality of eyes, the accuracy of the determined driver eye reference position is further improved.

【0078】[第3実施形態]本発明の第3実施形態を
図5により説明する。図5は本実施形態の全動作を示す
フローチャートである。
[Third Embodiment] A third embodiment of the present invention will be described with reference to FIG. FIG. 5 is a flowchart showing the entire operation of this embodiment.

【0079】本実施形態は、運転状態を検出した結果、
運転者が車両前方を注視していないと判断された場合の
動作(後述のステップS69)と、眼基準位置の設定を
常時更新する点(同ステップS67)とが上記第1実施
形態(図3)と相違し、その他は同じである。したがっ
て、上記第1実施形態と同じステップには同一符号を付
し、重複するステップの説明は省略する。
In this embodiment, as a result of detecting the operation state,
The operation in the case where it is determined that the driver is not gazing at the front of the vehicle (step S69 described later) and the point of constantly updating the setting of the eye reference position (step S67) are described in the first embodiment (FIG. 3). ), And others are the same. Therefore, the same steps as those in the first embodiment are denoted by the same reference numerals, and the description of the overlapping steps will be omitted.

【0080】図5のステップS32で、運転者が車両前
方を注視していないと判断されたときは、ステップS6
9へ進む(第1実施形態の図3ではスタートへ戻る)。
なお、逆に運転者が車両前方を注視していると判断され
たときは、上記第1実施形態と同じく図示のステップS
33へ進む。
If it is determined in step S32 of FIG. 5 that the driver is not gazing at the front of the vehicle, the process proceeds to step S6.
9 (return to start in FIG. 3 of the first embodiment).
Conversely, when it is determined that the driver is gazing at the front of the vehicle, step S shown in FIG.
Go to 33.

【0081】ステップS69では、すでに眼の基準位置
が設定済みであるか設定されていないかを判断する。設
定済みであればステップS36、ステップS67へと進
み、一方、眼の基準位置が設定されていなければ再びス
タートへ戻る。
In step S69, it is determined whether the reference position of the eye has already been set or not set. If the setting has been completed, the process proceeds to step S36 and step S67. On the other hand, if the reference position of the eye has not been set, the process returns to the start again.

【0082】そして、ステップS67で、脇見運転して
いないと判断された場合はスタートへ戻ってフローを繰
り返し、ステップS32で運転者が車両前方を注視して
いる条件に合致すれば、眼の基準位置を更新する。
If it is determined in step S67 that the driver is not looking aside, the flow returns to the start and the flow is repeated. If the condition that the driver gazes in front of the vehicle is satisfied in step S32, the eye reference Update location.

【0083】こうして、本実施形態によれば、運転者が
車両前方を注視していると推定されるときの眼の基準位
置が常時更新されて決定されるので、例えばトラックな
どの運転者の眼の位置が安定しない場合は、常時眼の基
準位置を更新していくことにより、眼の基準位置を正確
に決定することが可能となる。
As described above, according to this embodiment, the reference position of the eye when the driver is estimated to be gazing ahead of the vehicle is constantly updated and determined. When the position is not stable, the reference position of the eye can be determined accurately by constantly updating the reference position of the eye.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1実施形態の機能ブロック図であ
る。
FIG. 1 is a functional block diagram of a first embodiment of the present invention.

【図2】本発明の第1実施形態の構成ブロック図であ
る。
FIG. 2 is a configuration block diagram of a first embodiment of the present invention.

【図3】第1実施形態の全動作を示すフローチャートで
ある。
FIG. 3 is a flowchart showing all operations of the first embodiment.

【図4】第2実施形態の全動作を示すフローチャートで
ある。
FIG. 4 is a flowchart showing the entire operation of the second embodiment.

【図5】第3実施形態の全動作を示すフローチャートで
ある。
FIG. 5 is a flowchart showing the entire operation of the third embodiment.

【図6】画像データ入力から眼の位置を認識するまでの
フローチャートである。
FIG. 6 is a flowchart from input of image data to recognition of an eye position.

【図7】画像の各画素列上の抽出点を求める処理のフロ
ーチャートである。
FIG. 7 is a flowchart of a process for obtaining an extraction point on each pixel column of an image.

【図8】抽出点の連結データを形成する処理のフローチ
ャートである。
FIG. 8 is a flowchart of a process for forming linked data of extraction points.

【図9】連結データから候補点を選択する処理のフロー
チャートである。
FIG. 9 is a flowchart of a process of selecting a candidate point from linked data.

【図10】フローチャートの処理に関する説明図であ
る。
FIG. 10 is an explanatory diagram related to a process in a flowchart.

【図11】フローチャートの処理に関する説明図であ
る。
FIG. 11 is an explanatory diagram related to a process in a flowchart.

【図12】フローチャートの処理に関する説明図であ
る。
FIG. 12 is an explanatory diagram related to a process in a flowchart.

【図13】フローチャートの処理に関する説明図であ
る。
FIG. 13 is an explanatory diagram related to a process in a flowchart.

【符号の説明】[Explanation of symbols]

CL1 画像入力手段 CL2 眼位置検出手段 CL3 車両状態検出手段 CL4 前方注視判断手段 CL5 記憶手段 CL6 比較手段 CL7 警報手段 11 TVカメラ 13 A−D変換器 15 画像メモリ 17 画像データ演算回路 19 眼位置検出回路(眼位置の滞留判断手段) 21 車両状態検出回路 23 眼基準位置記憶回路 25 警報装置 CL1 Image input means CL2 Eye position detection means CL3 Vehicle state detection means CL4 Forward gaze determination means CL5 Storage means CL6 Comparison means CL7 Warning means 11 TV camera 13 A / D converter 15 Image memory 17 Image data calculation circuit 19 Eye position detection circuit (Eye position retention judging means) 21 Vehicle state detection circuit 23 Eye reference position storage circuit 25 Alarm device

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 顔の画像データを入力する画像入力手段
と、 前記入力された画像データから眼位置を検出する眼位置
検出手段と、 車両走行時の車両状態を検出する車両状態検出手段と、 前記車両状態検出手段の検出に基づき運転者が車両前方
を注視している確率が高いか否かを判断する前方注視判
断手段と、 運転者が車両前方を注視している確率が高いと判断され
たときに前記検出された眼位置を基準位置として記憶す
る記憶手段と、 車両走行時に検出された眼位置が前記基準位置に対し予
め定められた条件に合致するか否かを比較する比較手段
とを備えてなることを特徴とする運転状態検出装置。
1. An image input unit for inputting image data of a face, an eye position detecting unit for detecting an eye position from the input image data, a vehicle state detecting unit for detecting a vehicle state during traveling of the vehicle, Forward gaze determining means for determining whether or not the driver has a high probability of gazing at the front of the vehicle based on the detection of the vehicle state detecting means; and determining that the probability of the driver gazing at the front of the vehicle is high. Storage means for storing the detected eye position as a reference position at the time of comparison; andcomparing means for comparing whether or not the eye position detected during traveling of the vehicle matches a predetermined condition with respect to the reference position. An operating state detection device comprising:
【請求項2】 請求項1に記載の運転状態検出装置であ
って、 前記車両状態検出手段は、ブレーキペダルの踏み込みの
有無と、操舵装置の操舵角とを検出し、 前記前方注視判断手段は、ブレーキペダルが踏み込まれ
且つ操舵角がほぼ中立位置にあるときに運転者が車両前
方を注視している確率が高いと判断することを特徴とす
る運転状態検出装置。
2. The driving state detection device according to claim 1, wherein the vehicle state detection unit detects whether a brake pedal is depressed and a steering angle of a steering device, and the front gaze determination unit includes: A driving state detection device that determines that the probability that the driver is gazing ahead of the vehicle is high when the brake pedal is depressed and the steering angle is substantially at the neutral position.
【請求項3】 請求項1に記載の運転状態検出装置であ
って、 前記車両状態検出手段は、アクセルペダルの踏み込みの
有無と、操舵装置の操舵角とを検出し、 前記前方注視判断手段は、アクセルペダルが踏み込まれ
且つ操舵角がほぼ中立位置にあるときに運転者が車両前
方を注視している確率が高いと判断することを特徴とす
る運転状態検出装置。
3. The driving state detection device according to claim 1, wherein the vehicle state detection unit detects whether or not an accelerator pedal is depressed, and a steering angle of a steering device, and the front gaze determination unit includes: A driving state detection device that determines that the probability that the driver gazes ahead of the vehicle is high when the accelerator pedal is depressed and the steering angle is substantially at the neutral position.
【請求項4】 請求項1に記載の運転状態検出装置であ
って、 前記車両状態検出手段は、車両走行方向前後の加減速度
と、操舵装置の操舵角とを検出し、 前記前方注視判断手段は、操舵角がほぼ中立位置にあり
且つ検出された加減速度が予め定められた加減速度とな
ったときに運転者が車両前方を注視している確率が高い
と判断することを特徴とする運転状態検出装置。
4. The driving state detection device according to claim 1, wherein the vehicle state detection unit detects acceleration / deceleration in the vehicle traveling direction and a steering angle of a steering device, and the front gaze determination unit. Driving, when the steering angle is substantially at the neutral position and when the detected acceleration / deceleration becomes a predetermined acceleration / deceleration, it is determined that the probability that the driver is gazing ahead of the vehicle is high. State detection device.
【請求項5】 請求項1に記載の運転状態検出装置であ
って、 前記検出された眼位置が予め定められた時間内、同じ位
置に滞留しているか否かを判断する滞留判断手段を設
け、 前記車両状態検出手段は、操舵装置の操舵角を検出し、 前記前方注視判断手段は、前記検出された眼位置が予め
定められた時間内、同じ位置に滞留し且つ操舵角が中立
位置にあるときに運転者が車両前方を注視している確率
が高いと判断することを特徴とする運転状態検出装置。
5. The driving state detecting device according to claim 1, further comprising a stay determination unit that determines whether the detected eye position stays at the same position within a predetermined time. The vehicle state detecting means detects a steering angle of a steering device, and the forward gaze determining means determines that the detected eye position stays at the same position within a predetermined time and the steering angle is in a neutral position. A driving state detection device that determines that the probability that the driver is gazing at the front of the vehicle at a certain time is high.
【請求項6】 顔の画像データを入力する画像入力手段
と、 前記入力された画像データから眼位置を検出する眼位置
検出手段と、 前記検出された眼位置が予め定められた時間内、同じ位
置に滞留しているか否かを判断する滞留判断手段を設
け、 前記滞留判断手段の判断に基づき運転者が車両前方を注
視している確率が高いか否かを判断する前方注視判断手
段と、 前記眼位置が予め定められた時間内、同じ位置に滞留し
て運転者が車両前方を注視している確率が高いと判断さ
れたときに前記検出された眼位置を基準位置として記憶
する記憶手段と、 車両走行時に検出された眼位置が前記基準位置に対し予
め定められた条件に合致するか否かを比較する比較手段
とを備えてなることを特徴とする運転状態検出装置。
6. An image input unit for inputting image data of a face, an eye position detecting unit for detecting an eye position from the input image data, and wherein the detected eye position is the same within a predetermined time. Providing stay determination means for determining whether or not staying at the position, forward gaze determination means to determine whether the probability that the driver gazes in front of the vehicle is high based on the determination of the stay determination means, Storage means for storing the detected eye position as a reference position when it is determined that the eye position stays at the same position within a predetermined time and the probability of the driver gazing ahead of the vehicle is high. And a comparing means for comparing whether or not the eye position detected during running of the vehicle matches a predetermined condition with respect to the reference position.
【請求項7】 請求項1〜6のいずれかに記載の運転状
態検出装置であって、 前記眼位置の基準位置を記憶する記憶手段は、運転者が
車両前方を注視している確率が高いことをイグニッショ
ンスイッチをONにしてから最初に前記前方注視判断手
段が判断したときの眼位置を基準位置として記憶するこ
とを特徴とする運転状態検出装置。
7. The driving state detection device according to claim 1, wherein the storage unit that stores the reference position of the eye position has a high probability that the driver is gazing ahead of the vehicle. The driving state detecting device is characterized in that the eye position determined when the front gaze determining means first determines after turning on the ignition switch is stored as a reference position.
【請求項8】 請求項1〜6のいずれかに記載の運転状
態検出装置であって、 前記眼位置の基準位置を記憶する記憶手段は、運転者が
車両前方を注視している確率が高いと前記前方注視判断
手段が判断したときから、所定時間内に前記眼位置検出
手段が検出した複数の眼位置に基づいて眼位置の基準位
置を記憶することを特徴とする運転状態検出装置。
8. The driving state detection device according to claim 1, wherein the storage unit that stores the reference position of the eye position has a high probability that the driver is gazing ahead of the vehicle. And a reference position of the eye position based on the plurality of eye positions detected by the eye position detection means within a predetermined time from when the front gaze determination means determines the driving state.
【請求項9】 請求項1〜6のいずれかに記載の運転状
態検出装置であって、 前記眼位置の基準位置を記憶する記憶手段は、運転者が
車両前方を注視している確率が高いと前記前方注視判断
手段が判断する度に基準位置を更新して記憶することを
特徴とする運転状態検出装置。
9. The driving state detection device according to claim 1, wherein the storage unit that stores the reference position of the eye position has a high probability that the driver is gazing ahead of the vehicle. And the reference position is updated and stored each time the forward-looking determination means determines.
【請求項10】 請求項1〜9のいずれかに記載の運転
状態検出装置であって、 前記比較手段による比較結果に基づいて運転者に注意を
喚起する警報手段を備えることを特徴とする運転状態検
出装置。
10. The driving state detection device according to claim 1, further comprising: an alarm unit for calling a driver's attention based on a comparison result by the comparison unit. State detection device.
JP9361411A 1997-12-26 1997-12-26 Operating state detecting device Pending JPH11195200A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9361411A JPH11195200A (en) 1997-12-26 1997-12-26 Operating state detecting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9361411A JPH11195200A (en) 1997-12-26 1997-12-26 Operating state detecting device

Publications (1)

Publication Number Publication Date
JPH11195200A true JPH11195200A (en) 1999-07-21

Family

ID=18473470

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9361411A Pending JPH11195200A (en) 1997-12-26 1997-12-26 Operating state detecting device

Country Status (1)

Country Link
JP (1) JPH11195200A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352400A (en) * 2001-05-25 2002-12-06 Toyota Central Res & Dev Lab Inc Face image processor
JP2003099899A (en) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc Device for operating degree of risk of driving behavior
JP2004130940A (en) * 2002-10-10 2004-04-30 Nissan Motor Co Ltd Gazing direction detection device
JP2006227811A (en) * 2005-02-16 2006-08-31 Denso Corp Driving support apparatus
JP2007233475A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Doze determination device and drowsy driving warning device
JP2007280375A (en) * 2006-03-14 2007-10-25 Omron Corp Detector, detection method, storage medium, and program
CN102988067A (en) * 2012-11-01 2013-03-27 奇瑞汽车股份有限公司 Method and device for detecting fatigue driving

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07280592A (en) * 1994-04-08 1995-10-27 Nissan Motor Co Ltd Meter device for vehicle
JPH07309151A (en) * 1994-05-16 1995-11-28 Mitsubishi Motors Corp Awakening level deciding device and electronic control type power steering device
JPH08145627A (en) * 1994-11-17 1996-06-07 Toyota Motor Corp Apparatus for deciding face position and wink detector
JPH08207617A (en) * 1995-02-08 1996-08-13 Toyota Motor Corp Inattentive driving determining device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07280592A (en) * 1994-04-08 1995-10-27 Nissan Motor Co Ltd Meter device for vehicle
JPH07309151A (en) * 1994-05-16 1995-11-28 Mitsubishi Motors Corp Awakening level deciding device and electronic control type power steering device
JPH08145627A (en) * 1994-11-17 1996-06-07 Toyota Motor Corp Apparatus for deciding face position and wink detector
JPH08207617A (en) * 1995-02-08 1996-08-13 Toyota Motor Corp Inattentive driving determining device

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002352400A (en) * 2001-05-25 2002-12-06 Toyota Central Res & Dev Lab Inc Face image processor
JP2003099899A (en) * 2001-09-25 2003-04-04 Toyota Central Res & Dev Lab Inc Device for operating degree of risk of driving behavior
JP2004130940A (en) * 2002-10-10 2004-04-30 Nissan Motor Co Ltd Gazing direction detection device
JP2006227811A (en) * 2005-02-16 2006-08-31 Denso Corp Driving support apparatus
JP4517393B2 (en) * 2005-02-16 2010-08-04 株式会社デンソー Driving assistance device
JP2007233475A (en) * 2006-02-27 2007-09-13 Toyota Motor Corp Doze determination device and drowsy driving warning device
JP2007280375A (en) * 2006-03-14 2007-10-25 Omron Corp Detector, detection method, storage medium, and program
CN102988067A (en) * 2012-11-01 2013-03-27 奇瑞汽车股份有限公司 Method and device for detecting fatigue driving

Similar Documents

Publication Publication Date Title
US11820383B2 (en) Apparatus detecting driving incapability state of driver
US10909399B2 (en) Apparatus detecting driving incapability state of driver
US7152000B2 (en) Vehicle traveling state determining apparatus
US10089543B2 (en) System and method for detecting distraction and a downward vertical head pose in a vehicle
US7331671B2 (en) Eye tracking method based on correlation and detected eye movement
JP4173896B2 (en) Vehicle periphery monitoring device
JP6350145B2 (en) Face orientation detection device and vehicle warning system
CN100369071C (en) Vehicle traveling state determining apparatus
US20140226015A1 (en) Apparatus for monitoring surroundings of vehicle
JP2000142282A (en) Safety promoting device for automobile
JPH11195200A (en) Operating state detecting device
JP4325271B2 (en) Status detection device and status detection system
JP3312562B2 (en) Dozing state detection device
JP4173083B2 (en) Arousal state determination device and arousal state determination method
JP3039327B2 (en) Vehicle running state detection device and drowsy driving alarm device
JPH1044824A (en) Driver's-eye open/closed state determination device for vehicle
JP7046748B2 (en) Driver status determination device and driver status determination method
JPH0793700A (en) Driver state monitoring device
JP2000172966A (en) Alarm device
JPH09243326A (en) Road white line recognition system
JP7192668B2 (en) Arousal level determination device
JP2000326758A (en) Preventive safety device
JP4196458B2 (en) Vehicle alarm device
JP2000199703A (en) Device for detecting state of eyes and device for warning on dozing at wheel
JP2002002325A (en) Vehicle alarm device

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040720