JPH03254291A - 車両運転者監視装置 - Google Patents

車両運転者監視装置

Info

Publication number
JPH03254291A
JPH03254291A JP2051332A JP5133290A JPH03254291A JP H03254291 A JPH03254291 A JP H03254291A JP 2051332 A JP2051332 A JP 2051332A JP 5133290 A JP5133290 A JP 5133290A JP H03254291 A JPH03254291 A JP H03254291A
Authority
JP
Japan
Prior art keywords
eyes
neural network
driver
neural
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2051332A
Other languages
English (en)
Inventor
Setsuo Tokoro
節夫 所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2051332A priority Critical patent/JPH03254291A/ja
Publication of JPH03254291A publication Critical patent/JPH03254291A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Emergency Alarm Devices (AREA)
  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Regulating Braking Force (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は車両運転者監視装置、特にニューラルネットワ
ークを用いて車両運転者の顔の向きや目の状態を監視す
る装置に関する。
[従来の技術] 従来より、自動車等の車両の安全走行を確保するための
種々の支援システムが提案されている。
このような支援システムは、主に車両運転者の居眠り状
態や脇見状態を検出して運転者に警報を与え、安全走行
を可能とするものである。
このような安全走行のための支援システムとしては、例
えば特開昭63−222940号公報に開示された自動
車安全走行支援方式がある。この支援方式においては、
運転者の目を監視する監視装置を設け、この監視装置か
らの情報により運転者の目の方向が正しい前方を向いて
いるか、また目の開き程度が所定値以上かどうか力付I
]断される。
この判断は、目の方向が前方方向中心線から一定以上離
れているか否か、また目の視野が所定範囲内か否かをC
PUによって判断することにより行われる。そして、脇
見運転や居眠り運転が発生していると判断された時には
、警報や自動ブレーキを緩かにかけるものである。
あるいは、特に居眠り運転を検出するためのシステムと
して、特開昭60−178596号公報に開示された居
眠り運転防止装置が知られている。
この装置においては、車両運転者の状態位置を検出する
検出手段を設け、検出された状態位置の周期的な変動か
ら居眠り運転を検知し運転者に警報を発するものである
[発明が解決しようとする課題] しかしながら、特開昭63−222940号公報に開示
された自動車安全走行支援方式においては、運転者の目
の状態のみを監視して脇見運転や居眠り運転を検出する
ものであり、特徴部分、すなわち眼球部分を正確に抽出
しなければならず、計測が容易でないという問題があっ
た。また、運転者は車両運転中宮に前方のみを注視して
いるとは限らず、顔の向きを適宜左右いずれかの方向に
向けて運転することがしばしばあり、このような場合に
は正確に視野を測定することが困難であるという問題も
あった。
勿論、このような問題を解決すべく計測すべき特徴部分
に予め光学的マーカを貼付することも提案されているが
(テレビジョン学会技能、Vow、 12、No、24
、ppl”3−18)、実際の車両運転時にこのような
光学的マーカを貼付することは実用的でない。あるいは
、顔の向きを検出するために目萌と唇の端点を基準点と
し、顔の構造の面対称性に着目して顔の向きを検出する
方法も考えられているが(情報処理学会、5C−2、p
p162−163) 、車両運転者は不特定多数であり
、全ての運転者に適用できない問題がある。
また、特開昭60−178596号公報に開示された居
眠り運転防止装置においては、居眠り運転発生時に生じ
る運転者の特有のパターン、すなわち位置の周期的な変
動を検出して居眠り運転と判断するものであり、必ずし
も居眠り運転発生時にこのような特有のパターンが出現
するとは限らず、正確に検出することができないという
問題があった。
本発明は上記従来技術の有する課題に鑑みなされたもの
であり、その目的は不特定多数の車両運転者の顔の向き
や目の状態を高速かつ確実に検出する車両運転者監視装
置を提供することにある。
[課題を解決するための手段] 上記目的を達成するために、本発明に係る車両運転者監
視装置は車両運転者の顔部を撮影する撮像手段と、この
撮像手段からの顔部画像情報を入力し、入力の加重和に
応じて出力するニューラルユニット群からなる層を多層
接続してなるニューラルネットワークを用いて前記車両
運転者の顔の方向及び目の状態を検出する検出手段とを
具備することを特徴としている。
[作用] 本発明の車両運転者監視装置はこのような構成を有して
おり、撮像手段にて撮影された運転者の顔部画像情報は
予め学習されたニューラルネットワークによって処理さ
れ、顔の方向及び目の状態が検出される。
ニューラルネットワークは所定のアルゴリズムを考慮す
る必要がなく、多数のパラメータを高速処理することが
できるので、本発明のように短時間に多数の画像情報を
処理する必要がある場合に特に好適であり、また学習に
より種々の画像パターンに対応できる流化能力を有する
ため、不特定多数の運転者にも対応できる。
そして、ニューラルネットワークを用いて検出された運
転者の顔の向き及び目の状態により脇見運転あるいは居
眠り運転の発生を検出することが可能となり、安全走行
を行うための有効な情報が得られることとなる。
[実施例] 以下、図面を用いながら本発明に係る車両運転者監視装
置の好適な実施例を説明する。
第1実施例 第1図は本発明の第1実施例の構成ブロック図であり、
第2図は同実施例の動作フローチャートである。撮像手
段としてのTVカメラ10は車両のフロントパネル近傍
に設置され、車両運転者の顔部を撮影する(ステップ1
00)。このTVカメラ10は例えばCCD (Cha
rge CoupledDevice )固体撮像索子
等で構成される。なお、このTVカメラ10にて明瞭な
画像を得るために、車両の所定位置に照明装置を設けて
運転者の顔に照明を当てても良い。この時、照明光とし
ては運転の妨げとならないよう近赤外光(波長700〜
1000μm)を用いるのが良く、また通常の白色光を
可視光カットフィルタにてカットして照射光に用いるこ
ともできる。そして、TVカメラ10にはこの照明装置
からの照射光のみが入射するようにフィルタをかけても
良く、また必ずしも運転者の正面像を撮影する必要はな
く、例えば所定の斜め方向の像でも良い。
そして、TVカメラ10によって撮影された運転者の顔
部画像情報は二値化回路12に送られ、所定の閾値を用
いて白あるいは黒レベルに二値化処理される(ステップ
102)。なお、顔部画像情報をアナログデータとして
用いることも可能であるが、本実施例においては二値化
した場合を例にとり説明する。
白あるいは黒レベルに二値化処理された顔部画像情報は
更に切出し回路14に送られ、処理すべき所定の領域の
みにウィンドウを設定して顔部画像情報から切り出す(
ステップ104)。第3図にウィンドウ設定の一例を示
す。第3図(A)はTVカメラ10にて撮影された車両
運転者の顔部であり、この顔部画像から目の近傍の所定
範囲にウィンドウを設定し、第3図(B)に示すように
この部分の画像情報を切り出す。なお、前述したように
CCD固体撮像素子等をTVカメラ10として用いた場
合、顔部画像情報は第3図(B)に示されるように二次
元配列された複数の画素情報から構成されており、各画
素情報は白あるいは黒レベルに二値化されて出力される
こととなる。今、このように二次元配列した複数の画素
に番号を付し、第i行第j列に位置する画素をa、jと
記し、その画素情報を1.と記す。そして、このように
して切り出された顔部画像情報IIj(白レベルに相当
する論理レベル1あるいは黒レベルに相当する論理レベ
ル0のいずれかの値を有する)はニューラルネットワー
ク16に入力され、後述の処理が行われる。なお、これ
ら二値化処理、切り出し処理及び以下に示すニューラル
ネットワーク処理はD S P (Digltal S
ignal Processor)を用いて行っても良
い。
以下、このニューラルネットワーク16に行われる処理
を第4図を用いて詳細に説明する。周知の如く、ニュー
ラルネットワークは人力層、中間層及び出力層の階層構
造からなり、各層はニューラルユニット群から構成され
る。ニューラルユニットは所定の重み付け(結合係数)
wjjが付加された人力の総和に応じて一定の規則で変
換し出力するユニットである。この規則としては秤々の
関数が用いられるが、本実施例においては入力の総和”
net’を net−ΣWlj11 とした時、 f=1/ (1+exp [−(ne t+α)] l
但し、αは定数 なるsigmoid関数を用いることとした。この関数
の値域は0〜1で、人力値が大きくなるにっれ1に、そ
して小さくなるにっれOに近づく特性を示す。
さて、切出し回路14からの二値化された顔部画像情報
、すなわち切り出された画像を構成する画素a1.の画
像情報1.、(0または1)は第4図IJ      
     IJ に示されたニューラルネットワークの入力層を構成する
各ニューラルユニットに入力される(ステップ106)
。従って、切り出された画像情報が240X40個の画
素から構成されている場合には、この画素数と同数の9
600個のニューラルユニットが存在することとなる。
なお、入力層におけるニューラルユニットの数を減らし
たい場合には、切り出された画像をいくつかの小領域に
分割し、分割された小領域内の画素情報を足し合せる平
均処理を行いニューラルユニットの個数を減らせば良い
。例えば、小領域を4X4に設定すると、ニューラルユ
ニットは60X10−600個に減少する。
このように切り出された画像を構成する各画素の画素情
報Iljが人力層の各ニューラルユニットに入力された
後、同様のニューラルユニット群からなる中間層及び出
力層で所定の変換処理が行われる。すなわち、中間層の
第j番目に位置するニューラルユニットに人力される入
力層の第i番目ノ二二一うルユニットの出力値を11、
′この時の重み付けすなわち結合係数をWijとすると
、この第j番目のニューラルユニットに入力される入力
値の総和net、は、 コ net、−ΣV’/ Ij” I r コ であり、その出力は前述したようにs1gmoid関数
を用いて、 ’1.−f  (net、) コJ となる。そして、中間層に存在する全てのニューラルユ
ニットにて前述の処理が行われ、その出力値が出力層の
各ニューラルユニットに入力される。
出力層のニューラルユニットにおいても、中間層と同様
の変換処理・が行われる。すなわち、出力層に位置する
第j番目の二二一うルユニットに入力される中間層の第
1番目の二二一うルユニットからの出力をy 1この時
の重み付けをWt j−とすると、この第j番目のニュ
ーラルユニットに入力される入力値の総和net、−は net、  −ΣWMj −yI となり、この時の出力値O3は、 O,−f (net、1 コJ となる。なお、人力層から中間層への重み付けw、、及
び中間層から出力層への重み付けwlj−のJ 値は、出力層からの実際の出力値と望ましい出力値との
差が減少するように予め学習により調整しておく。また
、各ニューラルユニットにて入力値の総和から出力値を
変換する際に、その都度変換関数fを用いて演算するの
ではなく、ROM等に予め人力される総和値とその時の
出力値とをマツプとして記憶させ、演算処理を行うこと
なくこのROMから読み出すことにより変換処理を行っ
ても良い。
このようにニューラルネットワークを用いることにより
、−却の人力画像情報からこれに対応した一組の出力値
が得られることとなるが、出力層を構成する各ニューラ
ルユニット1,2.・・・・・・1には所定の状態が対
応し、ており、この出力層からの出力値により車両運転
者の顔の方向及び目の状態を判定することができる。
すなわち、第4図に示されるように出力層の第1番目の
二二一うルユニットからの出力は運転者の顔が正面方向
を向いていることを意味し、第2番目のニューラルユニ
ットからの出力値は運転者の目が閉じている状態に対応
し、そして第1番目のニューラルユニットからの出力値
は運転者がインストルメントパネル方向に向いているこ
とに対応している。従って、出力層を構成する1個のニ
ューラルユニットからの出力価がそれぞれ(1゜0.0
.・・・・・・、0)である場合には、車両運転者の顔
は正面を向き、かつ開眼状態にあると検出される。そし
て、このようにして検出された車両運転者の顔の方向や
目の状態に関する情報は車両の電子制御を行うE CU
 (Electronic Controlυnlt 
)に入力される。
このECU18では人力した運転者の顔の向きや目の状
態に関する情報及びレーザレーダ等の障害物センサ20
やカメラ等の車両が走行する道路環境全認識する環境認
識センサ22からの情報に基づき車両を安全に走行させ
るべく、警報装置やアクセルアクチュエータ、ブレーキ
アクチュエータをm制御する。例えば、 (イ)車両運転者の顔及び目が横を向いている場合には
、前方車両との車間距離を大きくすべくブレーキ操作を
行う。
(ロ)車両運転者の目が長時開閉じており居眠り運転と
検出された場合には、警報手段を介して運転者に警報を
与える。
(ハ)車両運転者の顔及び目が横を向いている場合であ
って、かつ車両がカーブを走行中の場合には警報手段を
介して警報を与えると共にブレーキ操作を行う。
(ニ)車両運転者の目がルームミラーまたは右サイドミ
ラ一方向に向いておらず、かつ車両が右折または右隣接
斜線への斜線変更を行う場合には、警報手段を介して警
報を与える。
などの制御を行い、車両を安全に走行させる。
なお、本第1実施例においては入力層から中間層、さら
には出力層へと順次出力される、いわゆる順方向結合タ
イプのニューラルネットワークを用いたが、出力層から
入力層への結線も存在するいわゆる相互結合タイプのニ
ューラルネットワークを用いても良い。
また、本第1実施例においては中間層は一層のみである
が、この中間層を複数層設けても同様の処理を行うこと
が可能である。
第2実施例 第5図は本発明に係る車両運転者監視装置の第2実施例
の構成ブロック図、そして第6図に同実施例における動
作フローチャートを示す。第1実施例と同様にTVカメ
ラ10にて車両運転者の顔部が撮影され、得られた顔部
画像情報は二鎖化回路12に送られて白または黒レベル
に二値化処理される。そして、二値化処理された顔部画
像情報は切り出し回路14にて運転者の目の近傍の所定
範囲に位置する画素情報のみが取り出され出力される(
ステップ100〜104)。なお、この二値化処理、切
り出し処理及び以下の処理は第1実施例と同様に高速、
高精度の演算処理か可能なり S P (Diglta
l Signal Processer)を用いて行っ
ても良い。
そして、切り出された画像情報は本第2実施例において
は演算装置24に人力される。
このfri算装置24では以下の演算が行われる。
すなわち、車両運転者は運転中宮にその顔部をほぼ一定
に保って運転しているわけではなく、適宜左右いずれか
の方向に傾けて運転する場合がしばしばある。この時、
TVカメラ10にて得られる運転者の顔部画像情報は左
右いずれかにシフトすることとなる。そこで、この演算
装置24においては、左右いずれかにシフトした顔部画
像情報を電気的に処理して切り出し回路14にて設定さ
れたウィンドウのほぼ中心位置に顔部の中心が位置する
ように補正するのである。第1実施例において詳述した
ように、切出し回路14から送られてくる顔部画像情報
は第3図(B)に示されるように水平方向及び垂直方向
に二次元配列した複数の画素情報から構成されており、
各画素は白あるいは黒いずれかの二値レベルを有してい
る。演算装置24においては、このような二次元配列し
た画素情報を水平位置に対して積分し、水平方向の画像
情報の明るさの分布を算出する(ステップ200)。第
7図(A)にこのようにして算出された顔部画像情報の
周辺分布が示されており、この第7図(A)において横
軸は水平位置を、そして縦軸はこの水平位置における積
分値、すなわち画像情報の明るさの程度を示しており、
上にいくほど画像情報が白レベルに近くなることを示し
ている。切り出し回路14にて切り出された顔部画像情
報は運転者の目の近傍の所定範囲であるので、このよう
な周辺分布を算出すると、運転名の黒い眼球部分に極小
値を持つプロファイルを示すこととなる。そして、この
ような周辺分布が算出された後、演算装置24ではこの
周辺分布プロファイルからその重心位置を算出する(ス
テップ202)。この重心位置は、運転者の顔の中心に
ほぼ一致し、従って運転者の顔が左右いずれかに傾いて
いる場合にはこの重心位置もそれに伴ってシフトするこ
ととなる。そこで、算出されたこの重心位置を周辺分布
プロファイルの中心に再設定し、周辺分布の中心を補正
する(ステップ204)。
そして、このように演算装置24にて周辺分布の中心補
正が行われた画像情報は、所定の処理を行うニューラル
ネットワーク26に入力される。
第8図は本第2実施例におけるニューラルネットワーク
の構成図である。このニューラルネットワーク26はニ
ューラルユニット群から構成される入力層、中間層及び
出力層の多層構造からなるニューラルネットワーク26
a及び26bから構成されており、両ニューラルネット
ワーク26a126bはニューラルネットワーク26a
の出力をニューラルネットワーク26bの入力層の1つ
に人力することにより接続されている。
そして、ニューラルネットワーク26aの入力層を構成
するn個のニューラルユニットには演算装置24によっ
て周辺分布の中心が補正された複数の画素情報がそれぞ
れ人力される(ステップ206)。さらに、中間層及び
出力層にて第1実施例と同様の入力の加重和に応じてs
1ga+o1d関数で変換し、入力画像情報を処理して
出力層から出力する。このニューラルネットワーク26
aの出力層は1個のニューラルユニットから構成されて
おり、このニューラルユニットの出力値は車両運転者の
顔の向きに対応させておく。すなわち、中間層及び出力
層にて行われた処理(ステップ208)の結果、出力層
のニューラルユニットから出力値1が出力された場合に
は、運転者の顔が正面を向いていると判断される(ステ
ップ210.212)。そして、出力値がOである場合
には運転者の顔が正面を向いていない、すなわち脇見運
転が発生していると判断され、ECU18を介してブレ
ーキやアクセル等の制御を行う(ステップ214)。
一方、ニューラルネットワーク26 aの出力値によっ
て運転者の顔が正面を向いていると判断された場合には
、ニューラルネットワーク26bにて引き続き処理が行
われる。このニューラルネットワーク26bも入力層、
中間層及び出力層の多層構造であり、各層はニューラル
ユニット群から構成されている。そして、人力層の第1
番目のニューラルユニットには前述のニューラルネット
ワーク26aの出力の一部が入力され、他のニューラル
ユニットには車両運転者の左右の目に関する画像情報が
入力される。すなわち、切り出し回路14にて目の近傍
の所定範囲が切り出された画像情報から更に運転者の左
右の目の近傍に位置する画素のみを切り出しくステップ
216)、前述したステップ200〜204と同様に演
算装置24にて左右の目の周辺分布を算出してその中心
位置を補正する(ステップ218〜ステツプ222)。
第7図(B)、(C)には演算装置24にて算出される
運転者の右目及び左目の周辺分布のプロファイルが示さ
れている。第7図(A)と同様に横軸は水平位置、そし
て縦軸はこの水平位置に対応した垂直方向の画素情報を
積分した値、すなわち画素情報の明るさの程度を示して
おり、両図においてピークに相当する水平位置はそれぞ
れ運転者の眼球部分に相当している。そして、周辺分布
の中心補正が行われた右目及び左目に関する画像情報は
ニューラルネットワーク26bの入力層を構成する各ニ
ューラルユニットに入力され(ステップ224)、中間
層及び出力層にて前述と同様の処理が行われる(ステッ
プ226)。そして、このニューラルネットワーク26
bの出力層を構成する各ニューラルユニット群の出力は
それぞれ運転者の目の状態に対応している。すなわち、
例えば第1番目のニューラルユニットの出力値は目が閉
じている閉眼状態にあることを意味しており、また第2
番目のニューラルユニットの出力値はペタル方向に、そ
して第1番目のニューラルユニットの出力値は運転者の
目がインストルメントパネル方向に向いていることを意
味している。従って、ニューラルネットワーク26bの
出力層からの出力値が(1,O,・・・・・・、0)で
ある場合には、運転者は閉眼状態、つまり居眠り状態に
あると判断しくステップ228)、この情報は車両の電
子制御を行うECU18に入力され、ブレーキ制御が行
われる(ステップ214)。
このように、本第2実施例においては入力層、中間層及
び出力層を有する2つのニューラルネットワークを接続
し、この2つのニューラルネットワークにより運転者の
顔の向き及び目の状態を検出するものであり、TVカメ
ラ10によって得られた画像が左右いずれかにシフトし
ている場合にも正確に車両運転者を監視することが可能
となる。
なお、第1及び第2実施例において車両運転者の顔の方
向や目の状態を正面か否か、あるいは特定の方向かを認
識しているが、これらを所定方向からの偏位、すなわち
所定方向からの角度を出力結果としても良い。
また、第1及び第2実施例においては、ニュラルネット
ワークの変換規則としてのsigmold関数として、
例えば f−2/ (1+exp  [−(ne t−zz) 
] ) −1を用いても良い。また、s1gmoid関
数以外の他の関数でも良い。
また、第2実施例で、通常の2次元カメラから得た画像
データを処理して水平方向の明るさの分布を求めるかわ
りに、リニアCCD等を利用して、直接水平方向の明る
さを検出しても良い。
さらに、第1実施例と第2実施例を組み合わせても良く
、第1実施例、第2実施例共に例えば、顔部画像全体の
明るさの平均値で割る等して人力データを正規化しても
良い。
また、走行前にドライバーが、正面インストルメントパ
ネル方向等を見て、正しい方向を入力し、事前に学習さ
せるようにしても良い。
以上説明したように、本発明に係る車両運転者監視装置
によれば、流化能力を有するニューラルネットワークを
利用することにより、不特定多数の車両運転者の顔の向
きや目の状態を少ないメモリ容量で高速かつ高精度に検
出することが可能となり、車両の安全走行を可能とする
効果がある。
【図面の簡単な説明】
第1図は本発明に係る車両運転者監視装置の第1実施例
の構成ブロック図、 第2図は同第1実施例におけるフローチャート図、 第3図は同第1実施例におけるウィンドウ設定説明図、 第4図は同第1実施例におけるニューラルネットワーク
の+14成図、 第5図は本発明に係る車両運転者監視装置の第2実施例
の構成ブロック図、 第6図は同第2実施例におけるフローチャート図、 第7図は同第2実施例における周辺分布の説明図、 第8図は同第2実施例におけるニューラルネットワーク
の構成図である。 10 ・・・ TVカメラ 12 ・・・ 二値化回路 14 ・・・ 切出し回路 16 ・・・ ニューラルネットワーク18 ・・・ 
ECU 24 ・・・ 演算装置

Claims (1)

  1. 【特許請求の範囲】 車両運転者の顔部を撮影する撮像手段と、 この撮像手段からの顔部画像情報を入力し、入力の加重
    和に応じて出力するニューラルユニット群からなる層を
    多層接続してなるニューラルネットワークを用いて前記
    車両運転者の顔の方向及び目の状態を検出する検出手段
    と、 を具備することを特徴とする車両運転者監視装置。
JP2051332A 1990-03-02 1990-03-02 車両運転者監視装置 Pending JPH03254291A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2051332A JPH03254291A (ja) 1990-03-02 1990-03-02 車両運転者監視装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2051332A JPH03254291A (ja) 1990-03-02 1990-03-02 車両運転者監視装置

Publications (1)

Publication Number Publication Date
JPH03254291A true JPH03254291A (ja) 1991-11-13

Family

ID=12883969

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2051332A Pending JPH03254291A (ja) 1990-03-02 1990-03-02 車両運転者監視装置

Country Status (1)

Country Link
JP (1) JPH03254291A (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468500A (ja) * 1990-07-09 1992-03-04 Toyota Motor Corp 車両運転者監視装置
JPH06178302A (ja) * 1992-12-02 1994-06-24 Mitsubishi Electric Corp 運転者撮影装置
GB2301922A (en) * 1995-06-07 1996-12-18 Automotive Tech Int Vehicle interior and exterior monitoring systems
JPH09254742A (ja) * 1996-03-22 1997-09-30 Nissan Diesel Motor Co Ltd 車両における覚醒度低下検出装置
GB2289332B (en) * 1994-05-09 1999-01-06 Automotive Tech Int Vehicle interior identification and monitoring system
JP2008079737A (ja) * 2006-09-26 2008-04-10 Toyota Motor Corp 集中度評価装置及びこれを用いた車両用表示装置
US7596242B2 (en) 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
US7655895B2 (en) 1992-05-05 2010-02-02 Automotive Technologies International, Inc. Vehicle-mounted monitoring arrangement and method using light-regulation
US7660437B2 (en) 1992-05-05 2010-02-09 Automotive Technologies International, Inc. Neural network systems for vehicles
US7734061B2 (en) 1995-06-07 2010-06-08 Automotive Technologies International, Inc. Optical occupant sensing techniques
US7788008B2 (en) 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
US7831358B2 (en) 1992-05-05 2010-11-09 Automotive Technologies International, Inc. Arrangement and method for obtaining information using phase difference of modulated illumination
US7887089B2 (en) 1992-05-05 2011-02-15 Automotive Technologies International, Inc. Vehicular occupant protection system control arrangement and method using multiple sensor systems
US8152198B2 (en) 1992-05-05 2012-04-10 Automotive Technologies International, Inc. Vehicular occupant sensing techniques
WO2020189182A1 (ja) * 2019-03-18 2020-09-24 株式会社デンソー 運転者の状態監視装置
CN112419670A (zh) * 2020-09-15 2021-02-26 深圳市点创科技有限公司 融合关键点定位及图像分类的驾驶员疲劳驾驶检测方法、设备、介质

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0468500A (ja) * 1990-07-09 1992-03-04 Toyota Motor Corp 車両運転者監視装置
US7831358B2 (en) 1992-05-05 2010-11-09 Automotive Technologies International, Inc. Arrangement and method for obtaining information using phase difference of modulated illumination
US7655895B2 (en) 1992-05-05 2010-02-02 Automotive Technologies International, Inc. Vehicle-mounted monitoring arrangement and method using light-regulation
US8152198B2 (en) 1992-05-05 2012-04-10 Automotive Technologies International, Inc. Vehicular occupant sensing techniques
US7660437B2 (en) 1992-05-05 2010-02-09 Automotive Technologies International, Inc. Neural network systems for vehicles
US7887089B2 (en) 1992-05-05 2011-02-15 Automotive Technologies International, Inc. Vehicular occupant protection system control arrangement and method using multiple sensor systems
JPH06178302A (ja) * 1992-12-02 1994-06-24 Mitsubishi Electric Corp 運転者撮影装置
GB2289332B (en) * 1994-05-09 1999-01-06 Automotive Tech Int Vehicle interior identification and monitoring system
US7596242B2 (en) 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
GB2301922B (en) * 1995-06-07 1999-12-22 Automotive Tech Int Optical identification and monitoring system using pattern recognition for use with vehicles
US7734061B2 (en) 1995-06-07 2010-06-08 Automotive Technologies International, Inc. Optical occupant sensing techniques
US7788008B2 (en) 1995-06-07 2010-08-31 Automotive Technologies International, Inc. Eye monitoring system and method for vehicular occupants
GB2301922A (en) * 1995-06-07 1996-12-18 Automotive Tech Int Vehicle interior and exterior monitoring systems
JPH09254742A (ja) * 1996-03-22 1997-09-30 Nissan Diesel Motor Co Ltd 車両における覚醒度低下検出装置
JP2008079737A (ja) * 2006-09-26 2008-04-10 Toyota Motor Corp 集中度評価装置及びこれを用いた車両用表示装置
WO2020189182A1 (ja) * 2019-03-18 2020-09-24 株式会社デンソー 運転者の状態監視装置
CN112419670A (zh) * 2020-09-15 2021-02-26 深圳市点创科技有限公司 融合关键点定位及图像分类的驾驶员疲劳驾驶检测方法、设备、介质

Similar Documents

Publication Publication Date Title
JP2546415B2 (ja) 車両運転者監視装置
JPH03254291A (ja) 車両運転者監視装置
JP5171629B2 (ja) 走行情報提供装置
CN102447911B (zh) 图像获取单元、其方法以及相关控制单元
US6927694B1 (en) Algorithm for monitoring head/eye motion for driver alertness with one camera
JP4899059B2 (ja) 眠気検知装置
CN102971776B (zh) 障碍物检测系统以及方法、障碍物检测装置
US20020181774A1 (en) Face portion detecting apparatus
JP5435307B2 (ja) 車載カメラ装置
JPH0761257A (ja) 車両用表示装置
WO2007092512A2 (en) Driver drowsiness and distraction monitor
JP2013005234A5 (ja)
EP2060993B1 (en) An awareness detection system and method
US20050163383A1 (en) Driver's eye image detecting device and method in drowsy driver warning system
KR101905538B1 (ko) 다중 카메라를 이용한 속도 계도 시스템
Chang et al. Driver fatigue surveillance via eye detection
US20230174074A1 (en) In-cabin safety sensor installed in vehicle and method of providing service platform thereof
KR102211903B1 (ko) 컴퓨터비전 기술을 이용한 주행차량 내 승차인원을 검지하기 위한 촬영 방법 및 장치
Turan A image enhancement method for night-way images
JP2009159568A (ja) 異常検出装置および方法、並びに、プログラム
CN113879321B (zh) 驾驶员监视装置及驾驶员监视方法
KR102264266B1 (ko) 단속 대상 전반을 단속처리하기 위한 인공지능 영상판독 기반 장애인 전용 주차구역 단속 시스템
JPH03255793A (ja) 車両運転者監視装置
JP7212251B2 (ja) 眼の開閉検出装置、乗員監視装置
Hamada et al. Detecting method applicable to individual features for drivers' drowsiness