JP3843513B2 - Vehicle alarm device - Google Patents

Vehicle alarm device Download PDF

Info

Publication number
JP3843513B2
JP3843513B2 JP34288096A JP34288096A JP3843513B2 JP 3843513 B2 JP3843513 B2 JP 3843513B2 JP 34288096 A JP34288096 A JP 34288096A JP 34288096 A JP34288096 A JP 34288096A JP 3843513 B2 JP3843513 B2 JP 3843513B2
Authority
JP
Japan
Prior art keywords
driver
vehicle
inter
vehicle distance
concentration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP34288096A
Other languages
Japanese (ja)
Other versions
JPH10181380A (en
Inventor
節夫 所
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP34288096A priority Critical patent/JP3843513B2/en
Publication of JPH10181380A publication Critical patent/JPH10181380A/en
Application granted granted Critical
Publication of JP3843513B2 publication Critical patent/JP3843513B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Auxiliary Drives, Propulsion Controls, And Safety Devices (AREA)
  • Traffic Control Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は車両用警報装置、特に運転者の集中力低下時の警報発生に関する。
【0002】
【従来の技術】
従来より、車両運転者の集中力低下を検出して警報を出力する装置が知られている。例えば、特開平3−260900号公報には、先行車に対する自車両の相対速度が予め定めた許容相対速度以上になったときに警報を与える警報発生手段を備え、脇見運転や居眠り運転が検出された場合に前記許容相対速度を低く補正して警報を発生し易くする技術が開示されている。
【0003】
【発明が解決しようとする課題】
しかしながら、運転者は現在の走行状態(先行車との相対速度や車間距離等)が自己のコントロールの範囲内であって安全であると判断して一時的に後測方確認や車載オーディオの操作等を行う場合も多く、これらを一義的に脇見運転と判定して警報を与えてしまうのは、運転者の運転フィーリングに合致せず運転者が煩わしいと感じる問題があった。
本発明は、上記従来技術の有する課題に鑑みなされたものであり、その目的は、不要な警報を確実に抑制して、適当なタイミングで運転者に警報を与えることができる警報装置を提供することにある。
【0004】
【課題を解決するための手段】
上記目的を達成するために、第1の発明は、走行状態量を検出する検出手段と、運転者の集中力低下を評価する評価手段と、運転者の集中力が低下した時点における走行状態量を基準とし、該基準走行状態量と現在の走行状態量が所定値以上相違する場合に警報を出力する制御手段とを有することを特徴とする。
【0005】
また、第2の発明は、第1の発明において、前記評価手段は、前記運転者の顔部を撮影して得られる運転者顔部画像情報を処理することで取得される前記運転者の顔の方向及び目の状態に関する情報に基づいて前記運転者の脇見を検出して前記集中力低下を評価することを特徴とする。
【0006】
また、第3の発明は、第1の発明において、前記評価手段は、運転者の車載機器の操作により前記集中力低下を評価することを特徴とする。
【0007】
また、第4の発明は、第1〜第3の発明において、前記検出手段は、前記走行状態量として車間距離を検出することを特徴とする。
【0008】
また、第5の発明は、第1〜第3の発明において、前記検出手段は、前記走行状態量として道路の曲率または勾配を検出することを特徴とする。
【0009】
また、第6の発明は、第1〜第3の発明において、前記検出手段は、前記走行状態量として走行レーンに対する車両の横変位量を検出することを特徴とする。
【0010】
【発明の実施の形態】
以下、図面に基づき本発明の実施形態について説明する。
【0011】
<第1実施形態>
図1は本実施形態の構成ブロック図である。TVカメラ10は車両のフロントパネル近傍に設置され、車両運転者の顔部を撮影する。このTVカメラ10は例えばCCD(Charge Coupled Device )固体撮像素子等で構成される。なお、このTVカメラ10にて明瞭な画像を得るために、車両の所定位置に照明装置を設けて運転者の顔に照明を当てても良い。この時、照明光としては運転の妨げとならないよう近赤外光(波長700〜1000μm)を用いるのが良く、また通常の白色光を可視光カットフィルタにてカットして照射光に用いることもできる。そして、TVカメラ10にはこの照明装置からの照射光のみが入射するようにフィルタをかけても良く、また必ずしも運転者の正面像を撮影する必要はなく、例えば所定の斜め方向の像でも良い。
【0012】
そして、TVカメラ10によって撮影された運転者の顔部画像情報は二値化回路12に送られ、所定の閾値を用いて白あるいは黒レベルに二値化処理される。顔部画像情報をアナログデ―タとして用いることも可能である。白あるいは黒レベルに二値化処理された顔部画像情報は更に切り出し回路14に送られ、処理すべき所定の領域のみにウインドウを設定して顔部画像情報から切り出す。なお、CCD固体撮像素子等をTVカメラ10として用いた場合、顔部画像情報は二次元配列された複数の画素情報から構成されており、各画素情報は白あるいは黒レベルに二値化されて出力されることとなる。今、このように二次元配列した複数の画素に番号を付し、第i行第j列に位置する画素をaijと記し、その画素情報をIijと記す。そして、このようにして切り出された顔部画像情報Iij(白レベルに相当する論理レベル1あるいは黒レベルに相当する論理レベル0のいずれかの値を有する)はニューラルネットワーク16に入力されて処理される。なお、これら二値化処理、切り出し処理及び以下に示すニューラルネットワーク処理はDSP(Digital Signal Processor)を用いて行っても良い。周知の如く、ニューラルネットワークは入力層、中間層及び出力層の階層構造からなり、各層はニューラルユニット群から構成される。ニューラルユニットは所定の重み付け(結合係数)wijが付加された入力の総和に応じて一定の規則で変換し出力するユニットである。この規則としては種々の関数が用いられるが、本実施例においては入力の総和“net”を
net=ΣwijIi
とした時、
f=1/{1+exp[−(net+α)]} 但し、αは定数
なるsigmoid 関数を用いることとした。この関数の値域は0〜1で、入力値が大きくなるにつれ1に、そして小さくなるにつれ0に近づく特性を示す。
【0013】
さて、切り出し回路14からの二値化された顔部画像情報、すなわち切り出された画像を構成する画素aijの画像情報Iij(0または1)はニューラルネットワークの入力層を構成する各ニューラルユニットに入力される。従って、切り出された画像情報が240×40個の画素から構成されている場合には、この画素数と同数の9600個のニューラルユニットが存在することとなる。なお、入力層におけるニューラルユニットの数を減らしたい場合には、切り出された画像をいくつかの小領域に分割し、分割された小領域内の画素情報を足し合せる平均処理を行いニューラルユニットの個数を減らせば良い。例えば、小領域を4×4に設定すると、ニューラルユニットは60×10=600個に減少する。
【0014】
このように切り出された画像を構成する各画素の画素情報Iijが入力層の各ニューラルユニットに入力された後、同様のニューラルユニット群からなる中間層及び出力層で所定の変換処理が行われる。すなわち、中間層の第j番目に位置するニューラルユニットに入力される入力層の第i番目のニューラルユニットの出力値をIi 、この時の重み付けすなわち結合係数をwijとすると、この第j番目のニューラルユニットに入力される入力値の総和netj は、
netj =Σwij・Ii
であり、その出力は前述したようにsigmoid 関数を用いて、
yj =f(netj )
となる。そして、中間層に存在する全てのニューラルユニットにて前述の処理が行われ、その出力値が出力層の各ニューラルユニットに入力される。出力層のニューラルユニットにおいても、中間層と同様の変換処理が行われる。なお、入力層から中間層への重み付け及び中間層から出力層への重み付けの値は、出力層からの実際の出力値と望ましい出力値との差が減少するように予め学習により調整しておく。
【0015】
このようにニューラルネットワークを用いることにより、一組の入力画像情報からこれに対応した一組の出力値が得られることとなるが、出力層を構成する各ニューラルユニット1,2,……には所定の状態が対応しており、この出力層からの出力値により車両運転者の顔の方向及び目の状態を判定することができる。すなわち、出力層の第1番目のニューラルユニットからの出力は運転者の顔が正面方向を向いていることを意味し、第2番目のニューラルユニットからの出力値は運転者の目が閉じている状態に対応し、そして第3番目のニューラルユニットからの出力値は運転者がインストルメントパネル方向に向いていることに対応している。従って、出力層からの出力値がそれぞれ(1,0,0,……,0)である場合には、車両運転者の顔は正面を向き、かつ開眼状態にあると検出される。そして、検出された車両運転者の顔の方向や目の状態に関する情報に基づいて運転者の集中力を評価し、評価結果を車両の電子制御を行うECU(Electronic Control Unit)に出力する。なお、運転者の集中力は、例えば運転者の脇見が検出された場合に低いと評価する。
【0016】
そして、ECU18では、運転者の集中力の評価結果及び走行状態を検出するセンサ20からの情報に基づき警報装置を作動させて運転者に警報を与える。具体的には、センサ20として先行車との車間距離を検出するレーダ装置等が用いられ、ECU18は運転者の集中力が低下した時点の先行車との車間距離を基準値として一時的に記憶し、運転者の集中力低下が継続している状態で車間距離が基準の車間距離に対して所定値以上減少した場合に警報を与える。もちろん、警報の代わりに、あるいは警報とともにブレーキアクチュエータを制御することも可能である。
【0017】
図2には、本実施形態における処理フローチャートが示されている。まず、センサ20で先行車との車間距離を検出し(S101)、ニューラルネットワーク16で運転者(ドライバ)の集中力低下を評価するために運転者の脇見を検出する(S102)。次に、先行車が存在するか否かを確認する(S103)。この確認は、センサ20から有限の車間距離データが出力されているか否かで判定する。先行車が存在しない場合には、基準となる車間距離LTに初期値として所定値LW(例えば80m)を与える(S109)。先行車が存在する場合、次に運転者が脇見をしているか否かを判定する(S104)。運転者が脇見をしていない場合、すなわち運転者の集中力が低下していない場合には、S109と同様に所定値LWを基準車間距離LTに代入し(S110)、現在の車間距離Lと許容車間距離L0(例えば30m)を比較する(S111)。運転者の集中力が低下していなくても現在の車間距離Lが許容車間距離L0より小さい場合には、運転者に注意を促すべく警報を出力する(S108)。一方、運転者が脇見をしている場合には、さらに前回も脇見をしていたか否かを判定する(S105)。この判定は、脇見運転が継続しているか否かを確認するためのものであり、前回は脇見をしておらず今回初めて脇見をした場合(運転者の集中力低下の開始)には、その時点の車間距離Lを基準車間距離LTに設定する(S106)。また、前回も脇見をしている場合(運転者の集中力低下の継続状態)には、S106の処理は行わず集中力低下時点における基準車間距離の値が維持される。そして、現在の車間距離Lと基準車間距離LTとを比較し、両者が所定値以上相違するか否か、すなわち現在の車間距離LがLT−ΔL1より小さいか否かを判定する(S107)。但し、ΔL1は所定の許容変化値であり、例えば10mに設定される。そして、現在の車間距離Lが基準車間距離LTに対して所定値以上減少した場合には、運転者に注意を促すべく警報を出力する(S108)。一方、運転者の集中力が低下しても現在の車間距離Lが基準車間距離LTに対してほとんど変化していない場合には、安全性が確保されていると判定して警報を出力しない。
【0018】
このように、本実施形態では、運転者が脇見をした時点における車間距離を基準とし、たとえ脇見状態が継続しても現在の車間距離が基準の車間距離に対して所定値以上変化していない場合には警報を出力しないので、運転者が十分安全と判断して一時的に脇見をした場合等に不要な警報を与えることを防止することができる。
<第2実施形態>
上述した第1実施形態では、運転者が脇見をしているか否かにより運転者の集中力低下を評価したが、本実施形態では、車載の携帯電話を操作しているか否かにより集中力低下を評価する。基本的な構成は図1とほぼ同様であるが、TVカメラ10やニューラルネットワーク16等の代わりに携帯電話の操作の有無を検出する回路が設けられ、携帯電話が操作状態のときには運転者の集中力が低下していると判定する点が異なる。
【0019】
図3には、本実施形態の処理フローチャートが示されている。センサ20で先行車との車間距離を検出し(S201)、運転者(ドライバ)の集中力低下を評価するために携帯電話の操作を検出する(S202)。次に、先行車が存在するか否かを確認する(S203)。先行車が存在しない場合には、基準となる車間距離LTに初期値として所定値LW(例えば80m)を与える(S209)。先行車が存在する場合、次に運転者が携帯電話を操作しているか否かを判定する(S204)。運転者が携帯電話を操作していない場合、すなわち運転者の集中力が低下していない場合には、S209と同様に所定値LWを基準車間距離LTに代入し(S210)、現在の車間距離Lと許容車間距離L0(例えば30m)を比較する(S211)。運転者の集中力が低下していなくても現在の車間距離Lが許容車間距離L0より小さい場合には、運転者に注意を促すべく警報を出力する(S208)。一方、運転者が携帯電話を操作している場合には、さらに前回も携帯電話を操作していたか否かを判定する(S205)。この判定は、携帯電話の操作が継続しているか否かを確認するためのものであり、前回は操作しておらず今回初めて操作した場合には、その時点の車間距離Lを基準車間距離LTに設定する(S206)。また、前回も携帯電話を操作している場合には、S206の処理は行わず集中力低下時点における基準車間距離の値が維持される。そして、現在の車間距離Lと基準車間距離LTとを比較し、両者が所定値以上相違するか否か、すなわち現在の車間距離LがLT−ΔL2より小さいか否かを判定する(S207)。但し、ΔL2は所定の許容変化値であり、例えば8mに設定される。そして、現在の車間距離Lが基準車間距離LTに対して所定値以上減少した場合には、運転者に注意を促すべく警報を出力する(S208)。一方、運転者の集中力が低下しても現在の車間距離Lが基準車間距離LTに対してほとんど変化していない場合には、安全性が確保されていると判定して警報を出力しない。
【0020】
このように、本実施形態では、運転者が携帯電話を操作した時点における車間距離を基準とし、たとえ携帯電話の操作状態が継続しても現在の車間距離が基準の車間距離に対して所定値以上変化していない場合には警報を出力しないので、運転者が十分安全と判断して一時的に携帯電話を操作した場合等に不要な警報を与えることを防止できる。
【0021】
<第3実施形態>
上述した第2実施形態では、携帯電話の操作により運転者の集中力低下を評価したが、本実施形態では、車載ナビゲーション装置を操作しているか否か、特に目的地等を音声入力しているか否かにより集中力低下を評価する。基本的な構成は図1とほぼ同様であるが、TVカメラ10やニューラルネットワーク16等の代わりに車載ナビゲーションの音声入力のON/OFFを検出する回路が設けられ、音声入力があるときには運転者の集中力が低下していると判定する点が異なる。
【0022】
図4には、本実施形態の処理フローチャートが示されている。センサ20で先行車との車間距離を検出し(S301)、運転者(ドライバ)の集中力低下を評価するために車載ナビゲーションの音声入力を検出する(S302)。次に、先行車が存在するか否かを確認する(S303)。先行車が存在しない場合には、基準となる車間距離LTに初期値として所定値LW(例えば80m)を与える(S309)。先行車が存在する場合、次に運転者が目的地等を音声で入力しているか否かを判定する(S304)。運転者が音声入力していない場合、すなわち運転者の集中力が低下していない場合には、S309と同様に所定値LWを基準車間距離LTに代入し(S310)、現在の車間距離Lと許容車間距離L0(例えば30m)を比較する(S311)。運転者の集中力が低下していなくても現在の車間距離Lが許容車間距離L0より小さい場合には、運転者に注意を促すべく警報を出力する(S308)。一方、運転者が音声入力している場合には、さらに前回も音声入力していたか否かを判定する(S305)。この判定は、音声入力状態が継続しているか否かを確認するためのものであり、前回は音声入力しておらず今回初めて音声入力した場合には、その時点の車間距離Lを基準車間距離LTに設定する(S306)。また、前回も音声入力している場合には、S306の処理は行わず集中力低下時点における基準車間距離の値が維持される。そして、現在の車間距離Lと基準車間距離LTとを比較し、両者が所定値以上相違するか否か、すなわち現在の車間距離LがLT−ΔL3より小さいか否かを判定する(S307)。但し、ΔL3は所定の許容変化値であり、例えば9mに設定される。そして、現在の車間距離Lが基準車間距離LTに対して所定値以上減少した場合には、運転者に注意を促すべく警報を出力する(S308)。一方、運転者の集中力が低下しても現在の車間距離Lが基準車間距離LTに対してほとんど変化していない場合には、安全性が確保されていると判定して警報を出力しない。
【0023】
このように、本実施形態では、運転者が車載ナビゲーションの音声入力をした時点における車間距離を基準とし、たとえ音声入力状態が継続しても現在の車間距離が基準の車間距離に対して所定値以上変化していない場合には警報を出力しないので、運転者が十分安全と判断して一時的に音声入力した場合等に不要な警報を与えることを防止できる。
なお、本実施形態において、音声入力ではなく手動で目的地等を設定する場合にも同様に適用できることは言うまでもない。
【0024】
<第4実施形態>
上述した第1〜第3実施形態では、車両の走行状態量として先行車との車間距離を検出したが、本実施形態では道路の曲率を走行状態量として検出する場合を示す。基本的な構成は図1とほぼ同様であり、センサ20として道路の曲率を検出するセンサが設けられており、運転者の集中力低下時の曲率を基準の曲率とする点が異なる。なお、曲率センサは、例えば車載ナビゲーションの地図データとGPSで構成することができ、検出した現在位置に対応する地図データ上の道路の曲率を検索すればよい。
【0025】
図5には、本実施形態の処理フローチャートが示されている。まず、GPS等で現在位置を検出し(S401)、ニューラルネットワーク16で運転者(ドライバ)の脇見を検出する(S402)。そして、脇見をしているか否かを判定し(S403)、脇見をしている場合にはさらに前回も脇見をしていたか否かを判定する(S404)。今回初めて脇見をした場合(運転者の集中力低下の開始)には、そのときの曲率ρを基準の曲率ρTとする(S407)。一方、前回も脇見である場合(集中力低下が継続している状態)には、現在位置から所定前方(例えば10m先)の曲率ρ1が基準の曲率ρTと等しいか否かを判定する(S405)。現在位置から所定前方の曲率は、車載ナビゲーションの地図データから検索することができ、両者が等しくない、すなわち所定値以上相違する場合には運転者に注意を促すべく警報を出力する(S406)。一方、運転者の集中力が低下しても道路の曲率が基準の曲率から変化しない場合には、安全性が確保されていると判定して警報を出力しない。従って、本実施形態では直線道路を走行していて運転者が一時的に脇見をしても直線道路を走行している限り警報は与えられないが、直線道路走行中に一時的に脇見をしたが、前方にカーブ路が存在する場合には警報が与えられることになる。
【0026】
本実施形態によっても、運転者にとり不要と考えられる警報が頻繁に発生するのを防止することができるとともに、真に必要と考えられるタイミングでは警報を与えることができる。
【0027】
なお、本実施形態において、運転者の集中力の低下を携帯電話の操作や音声入力等で評価することもできる。
【0028】
<第5実施形態>
上述した第4実施形態では、車両の走行状態量として道路の曲率を検出したが、本実施形態では道路の勾配を走行状態量として検出する場合を示す。基本的な構成は図1とほぼ同様であり、センサ20として道路の勾配を検出するセンサが設けられており、運転者の集中力低下時の勾配を基準の勾配とする点が異なる。なお、勾配センサは、例えば車載ナビゲーションの地図データとGPSで構成することができ、検出した現在位置に対応する地図データ上の道路の勾配を検索すればよい。
【0029】
図6には、本実施形態の処理フローチャートが示されている。まず、GPS等で現在位置を検出し(S501)、ニューラルネットワーク16で運転者(ドライバ)の脇見を検出する(S502)。そして、脇見をしているか否かを判定し(S503)、脇見をしている場合にはさらに前回も脇見をしていたか否かを判定する(S504)。今回初めて脇見をした場合(運転者の集中力低下の開始)には、そのときの勾配θを基準の勾配θTとする(S507)。一方、前回も脇見である場合(集中力低下が継続している状態)には、現在位置から所定前方(例えば10m先)の勾配θ1が基準の勾配θTと等しいか否かを判定する(S505)。現在位置から所定前方の勾配は、車載ナビゲーションの地図データから検索することができ、両者が等しくない、すなわち所定値以上相違する場合には運転者に注意を促すべく警報を出力する(S506)。一方、運転者の集中力が低下しても道路の勾配が基準の勾配から変化しない場合には、安全性が確保されていると判定して警報を出力しない。従って、本実施形態では平坦道路を走行していて運転者が一時的に脇見をしても平坦道路を走行している限り警報は与えられないが、平坦道路走行中に一時的に脇見をしたが、前方に下り坂(あるいは上り坂)が存在する場合には警報が与えられることになる。
【0030】
本実施形態によっても、運転者にとり不要と考えられる警報が頻繁に発生するのを防止することができるとともに、真に必要と考えられるタイミングでは警報を与えることができる。
【0031】
また、本実施形態でも、運転者の集中力低下を携帯電話等で評価することもできる。
【0032】
<第6実施形態>
上述した各実施形態では、車両の走行状態量として先行車との車間距離や道路曲率あるいは勾配を検出したが、本実施形態では車両の走行状態量として車両の走行レーンに対する横変位量を検出する場合を示す。基本的な構成は図1とほぼ同様であり、センサ20として走行レーンに対する車両の横変位量を検出するセンサが設けられており、運転者の集中力低下時の横変位量を基準の横変位量とする点が異なる。
【0033】
図7には、本実施形態の処理フローチャートが示されている。センサ20で走行レーン内の横変位量ΔXを検出し(S601)、ニューラルネットワーク16で運転者(ドライバ)の脇見を検出する(S602)。次に、走行レーンを検出できたか否かを確認する(S603)。走行レーンを検出できない場合(白線がない場合等)には、基準となる左横変位量ΔXTl、右横変位量ΔXTrに初期値としてそれぞれ所定値ΔXw(例えば0.4m)を与える(S609)。走行レーンを検出できる場合、次に運転者が脇見をしているか否かを判定する(S604)。運転者が脇見をしていない場合、すなわち運転者の集中力が低下していない場合には、S609と同様に所定値ΔXWを基準横変位量ΔXTl、ΔXTrに代入し(S610)、現在の横変位量ΔXと許容横変位量Δx1(例えば0.8m)を比較する(S611)。運転者の集中力が低下していなくても現在の横変位量ΔXが許容横変位量Δx1を越えている場合には、運転者に注意を促すべく警報を出力する(S608)。一方、運転者が脇見をしている場合には、さらに前回も脇見をしていたか否かを判定する(S605)。この判定は、脇見が継続しているか否かを確認するためのものであり、前回は脇見をしておらず今回初めて脇見した場合には、その時点の横変位量ΔXの大きさに許容量を加算した横変位量を基準横変位量に設定する(S606)。具体的には、以下の通りである。
【0034】
<車両が走行レーン中央に対して左側に変位している場合>
基準となる左横変位量ΔXTLは、ΔXTl=|ΔX|+ΔXww
基準となる右横変位量ΔXtrは、ΔXTr=ΔXw
<車両が走行レーン中央に対して右側に変位している場合>
基準となる左横変位量ΔXTlは、ΔXTl=ΔXw
基準となる右横変位量ΔXTrは、ΔXTr=|ΔX|+ΔXww
但し、ΔXwwは許容量であり、|ΔX|が小さいときは0.4m、|ΔX|が大きいときは0.2m等とΔXに応じて変化させるのが好適である。また、前回も脇見をしている場合には、S606の処理は行わず集中力低下時点における基準横変位量の値が維持される。そして、現在の横変位量ΔXと基準横変位量ΔXTl、ΔXTrとを比較し、現在の横変位量が基準横変位量を越えるか否かを判定する(S607)。現在の横変位量が基準横変位量を越えた場合には、運転者に注意を促すべく警報を出力する(S608)。一方、運転者の集中力が低下しても現在の横変位量が基準横変位量に対してほとんど変化していない場合には、たとえ走行レーンの中央を走行していなくても安全性が確保されていると判定して警報を出力しない。
【0035】
このように、本実施形態では、脇見状態が継続しても脇見開始時点の横変位量と現在の横変位量に相違がない場合には警報を出力しないので、運転者が十分安全と判断して一時的に脇見をした場合等に不要な警報を与えることを防止できる。
【0036】
なお、本実施形態において、運転者の集中力低下を携帯電話の操作等で評価してもよく、また、横変位量が基準横変位量を越えた場合に、ECU18は警報を発生するとともにステアリングアクチュエータを駆動して車両を走行レーン中央に戻すように制御することも可能である。
【0037】
さらに、本実施形態におけるΔx1やΔXw、ΔXwwを車速やレーン幅、曲率等に応じて変化させることも可能である。
【0038】
【発明の効果】
以上説明したように、本発明によれば、運転者にとり煩わしいと感じる不要な警報を確実に抑制して、適当なタイミングで運転者に警報を与えることができる。
【図面の簡単な説明】
【図1】 本発明の実施形態の構成ブロック図である。
【図2】 第1実施形態の処理フローチャートである。
【図3】 第2実施形態の処理フローチャートである。
【図4】 第3実施形態の処理フローチャートである。
【図5】 第4実施形態の処理フローチャートである。
【図6】 第5実施形態の処理フローチャートである。
【図7】 第6実施形態の処理フローチャートである。
【符号の説明】
10 TVカメラ、12 二値化回路、14 切り出し回路、16 ニューラルネットワーク、18 ECU(電子制御装置)、20 センサ。
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an alarm device for a vehicle, and more particularly to generation of an alarm when a driver's concentration is reduced.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known a device that outputs a warning by detecting a decrease in concentration of a vehicle driver. For example, Japanese Patent Laid-Open No. 3-260900 includes alarm generation means for giving an alarm when the relative speed of the host vehicle with respect to the preceding vehicle is equal to or higher than a predetermined allowable relative speed, and detects aside driving or dozing operation. In such a case, a technique is disclosed in which the allowable relative speed is corrected to be low so that an alarm is easily generated.
[0003]
[Problems to be solved by the invention]
However, the driver determines that the current driving state (relative speed with respect to the preceding vehicle, inter-vehicle distance, etc.) is within the range of his / her control and is safe, and temporarily confirms the post-measurement and operates the in-vehicle audio. In many cases, it is determined that the driving is unambiguously determined to be a side-viewing operation, and the alarm is given because there is a problem that the driver feels troublesome because it does not match the driving feeling of the driver.
The present invention has been made in view of the above-described problems of the prior art, and an object of the present invention is to provide an alarm device that can reliably suppress unnecessary alarms and give an alarm to a driver at an appropriate timing. There is.
[0004]
[Means for Solving the Problems]
In order to achieve the above object, the first invention provides a detecting means for detecting a running state quantity, an evaluating means for evaluating a driver's concentration reduction, and a running state quantity at the time when the driver's concentration falls. And a control means for outputting an alarm when the reference running state quantity differs from the current running state quantity by a predetermined value or more.
[0005]
In a second aspect based on the first aspect, the evaluation means comprises: The driver's face is detected based on information on the driver's face direction and eye state obtained by processing driver face image information obtained by photographing the driver's face. The The decrease in concentration is evaluated.
[0006]
In addition, a third invention is characterized in that, in the first invention, the evaluation means evaluates the concentration reduction by a driver's operation of the in-vehicle device.
[0007]
According to a fourth aspect, in the first to third aspects, the detecting means detects an inter-vehicle distance as the travel state quantity.
[0008]
According to a fifth invention, in the first to third inventions, the detecting means detects a curvature or a slope of a road as the running state quantity.
[0009]
According to a sixth invention, in the first to third inventions, the detecting means detects a lateral displacement amount of the vehicle with respect to a travel lane as the travel state amount.
[0010]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0011]
<First Embodiment>
FIG. 1 is a configuration block diagram of the present embodiment. The TV camera 10 is installed in the vicinity of the front panel of the vehicle and photographs the face of the vehicle driver. The TV camera 10 is composed of, for example, a CCD (Charge Coupled Device) solid-state image sensor. In order to obtain a clear image with the TV camera 10, an illumination device may be provided at a predetermined position of the vehicle to illuminate the driver's face. At this time, near-infrared light (wavelength 700 to 1000 μm) is preferably used as illumination light so as not to hinder driving. Ordinary white light may be cut with a visible light cut filter and used as irradiation light. it can. The TV camera 10 may be filtered so that only the illumination light from the illumination device is incident, and it is not always necessary to take a front image of the driver. For example, an image in a predetermined oblique direction may be used. .
[0012]
The driver's face image information photographed by the TV camera 10 is sent to the binarization circuit 12 and binarized to a white or black level using a predetermined threshold. It is also possible to use face image information as analog data. The face image information binarized to the white or black level is further sent to the cutout circuit 14, where a window is set only for a predetermined area to be processed and cut out from the face image information. When a CCD solid-state imaging device or the like is used as the TV camera 10, the face image information is composed of a plurality of pixel information arranged two-dimensionally, and each pixel information is binarized to a white or black level. Will be output. Now, a number is assigned to the plurality of pixels arranged two-dimensionally in this way, the pixel located in the i-th row and j-th column is denoted as aij, and the pixel information is denoted as Iij. The face image information Iij cut out in this way (having a value of either logic level 1 corresponding to the white level or logic level 0 corresponding to the black level) is input to the neural network 16 and processed. The Note that these binarization processing, clipping processing, and neural network processing described below may be performed using a DSP (Digital Signal Processor). As is well known, a neural network has a hierarchical structure of an input layer, an intermediate layer, and an output layer, and each layer is composed of a group of neural units. The neural unit is a unit that converts and outputs a predetermined rule according to the total sum of inputs to which a predetermined weight (coupling coefficient) wij is added. Various functions are used as this rule. In this embodiment, the total sum “net” of the inputs is used.
net = ΣwijIi
When
f = 1 / {1 + exp [− (net + α)]} where α is a constant
I decided to use the sigmoid function. This function has a value range of 0 to 1 and shows a characteristic that approaches 1 as the input value increases and approaches 0 as the input value decreases.
[0013]
Now, the binarized face image information from the cut-out circuit 14, that is, the image information Iij (0 or 1) of the pixel aij constituting the cut-out image is input to each neural unit constituting the input layer of the neural network. Is done. Therefore, when the cut out image information is composed of 240 × 40 pixels, there are 9600 neural units equal to the number of pixels. If you want to reduce the number of neural units in the input layer, divide the clipped image into several small areas, and add the pixel information in the divided small areas to perform the averaging process to calculate the number of neural units. Should be reduced. For example, if the small area is set to 4 × 4, the number of neural units is reduced to 60 × 10 = 600.
[0014]
After the pixel information Iij of each pixel constituting the image cut out in this way is input to each neural unit in the input layer, a predetermined conversion process is performed in the intermediate layer and the output layer made up of similar neural unit groups. That is, if the output value of the i-th neural unit in the input layer input to the j-th neural unit in the intermediate layer is I i and the weighting, that is, the coupling coefficient at this time is w ij, the j-th neural The total netj of input values input to the unit is
netj = Σwij · Ii
The output is as described above using the sigmoid function,
yj = f (netj)
It becomes. The above-described processing is performed in all the neural units existing in the intermediate layer, and the output value is input to each neural unit in the output layer. Also in the output layer neural unit, the same conversion processing as in the intermediate layer is performed. The weighting from the input layer to the intermediate layer and the weighting from the intermediate layer to the output layer are adjusted in advance by learning so that the difference between the actual output value from the output layer and the desired output value is reduced. .
[0015]
By using the neural network in this way, a set of output values corresponding to the set of input image information can be obtained. However, each of the neural units 1, 2,. The predetermined state corresponds, and the direction of the face and the state of the eyes of the vehicle driver can be determined from the output value from the output layer. That is, the output from the first neural unit in the output layer means that the driver's face is facing the front, and the output value from the second neural unit is that the driver's eyes are closed. Corresponds to the state, and the output value from the third neural unit corresponds to the driver facing the instrument panel. Therefore, when the output values from the output layer are (1, 0, 0,..., 0), respectively, it is detected that the face of the vehicle driver faces the front and is in an open state. Then, the driver's concentration is evaluated based on the detected information on the face direction and eye state of the vehicle driver, and the evaluation result is output to an electronic control unit (ECU) that performs electronic control of the vehicle. Note that the driver's concentration is evaluated to be low when, for example, the driver's aside is detected.
[0016]
Then, the ECU 18 activates an alarm device based on the evaluation result of the driver's concentration and information from the sensor 20 that detects the running state to give an alarm to the driver. Specifically, a radar device or the like that detects the inter-vehicle distance from the preceding vehicle is used as the sensor 20, and the ECU 18 temporarily stores the inter-vehicle distance from the preceding vehicle when the driver's concentration is reduced as a reference value. Then, an alarm is given when the inter-vehicle distance is decreased by a predetermined value or more with respect to the reference inter-vehicle distance while the driver's concentration is continuing to decrease. Of course, it is also possible to control the brake actuator instead of or together with the alarm.
[0017]
FIG. 2 shows a processing flowchart in the present embodiment. First, the distance between the preceding vehicle and the preceding vehicle is detected by the sensor 20 (S101), and the driver's look-ahead is detected by the neural network 16 in order to evaluate the driver's (driver) concentration reduction (S102). Next, it is confirmed whether a preceding vehicle exists (S103). This confirmation is determined by whether or not finite inter-vehicle distance data is output from the sensor 20. When there is no preceding vehicle, a predetermined value LW (for example, 80 m) is given as an initial value to the reference inter-vehicle distance LT (S109). If there is a preceding vehicle, it is next determined whether or not the driver is looking aside (S104). When the driver is not looking aside, that is, when the driver's concentration is not reduced, the predetermined value LW is substituted for the reference inter-vehicle distance LT as in S109 (S110), and the current inter-vehicle distance L is calculated. The allowable inter-vehicle distance L0 (for example, 30 m) is compared (S111). Even if the driver's concentration is not reduced, if the current inter-vehicle distance L is smaller than the allowable inter-vehicle distance L0, an alarm is output to alert the driver (S108). On the other hand, if the driver is looking aside, it is further determined whether the driver was looking aside last time (S105). This determination is to confirm whether or not the driver is looking aside. If the driver does not look aside last time and does this for the first time this time (starting to reduce the driver's concentration), The inter-vehicle distance L at the time is set to the reference inter-vehicle distance LT (S106). Further, when looking aside again (continuation state where the driver's concentration is lowered), the process of S106 is not performed, and the value of the reference inter-vehicle distance at the time of concentration reduction is maintained. Then, the current inter-vehicle distance L is compared with the reference inter-vehicle distance LT, and it is determined whether or not the two are different by a predetermined value or more, that is, whether the current inter-vehicle distance L is smaller than LT−ΔL1 (S107). However, ΔL1 is a predetermined allowable change value, and is set to 10 m, for example. When the current inter-vehicle distance L decreases by a predetermined value or more with respect to the reference inter-vehicle distance LT, an alarm is output to alert the driver (S108). On the other hand, if the current inter-vehicle distance L has hardly changed with respect to the reference inter-vehicle distance LT even if the driver's concentration is reduced, it is determined that safety is secured and no alarm is output.
[0018]
As described above, in the present embodiment, the inter-vehicle distance at the time when the driver looks aside is used as a reference, and the current inter-vehicle distance does not change by a predetermined value or more with respect to the reference inter-vehicle distance even if the looking-aside state continues. In this case, since no warning is output, it is possible to prevent an unnecessary warning from being given when the driver judges that the safety is sufficient and temporarily looks aside.
Second Embodiment
In the first embodiment described above, the driver's concentration reduction is evaluated based on whether or not the driver is looking aside. However, in this embodiment, the concentration decreases depending on whether the on-vehicle mobile phone is operated or not. To evaluate. The basic configuration is almost the same as in FIG. 1, but instead of the TV camera 10 and the neural network 16, a circuit for detecting the presence or absence of operation of the mobile phone is provided, and when the mobile phone is in an operating state, the driver's concentration It is different in that it is determined that the power is decreasing.
[0019]
FIG. 3 shows a processing flowchart of the present embodiment. The distance between the preceding vehicle and the preceding vehicle is detected by the sensor 20 (S201), and the operation of the mobile phone is detected in order to evaluate the driver's (driver) concentration reduction (S202). Next, it is confirmed whether there is a preceding vehicle (S203). If there is no preceding vehicle, a predetermined value LW (for example, 80 m) is given as an initial value to the reference inter-vehicle distance LT (S209). If there is a preceding vehicle, it is next determined whether or not the driver is operating the mobile phone (S204). When the driver is not operating the mobile phone, that is, when the driver's concentration is not reduced, the predetermined value LW is substituted for the reference inter-vehicle distance LT as in S209 (S210), and the current inter-vehicle distance L is compared with the allowable inter-vehicle distance L0 (for example, 30 m) (S211). Even if the driver's concentration is not reduced, if the current inter-vehicle distance L is smaller than the allowable inter-vehicle distance L0, an alarm is output to alert the driver (S208). On the other hand, if the driver is operating the mobile phone, it is further determined whether or not the mobile phone was operated last time (S205). This determination is for confirming whether or not the operation of the mobile phone is continued. When the operation is not performed last time and this operation is performed for the first time, the inter-vehicle distance L at that time is set as the reference inter-vehicle distance LT. (S206). Further, when the mobile phone has been operated last time, the process of S206 is not performed, and the value of the reference inter-vehicle distance at the time of concentration reduction is maintained. Then, the current inter-vehicle distance L is compared with the reference inter-vehicle distance LT, and it is determined whether or not both are different by a predetermined value or more, that is, whether the current inter-vehicle distance L is smaller than LT−ΔL 2 (S207). However, ΔL2 is a predetermined allowable change value, for example, set to 8 m. When the current inter-vehicle distance L decreases by a predetermined value or more with respect to the reference inter-vehicle distance LT, an alarm is output to alert the driver (S208). On the other hand, if the current inter-vehicle distance L has hardly changed with respect to the reference inter-vehicle distance LT even if the driver's concentration is reduced, it is determined that safety is secured and no alarm is output.
[0020]
Thus, in the present embodiment, the inter-vehicle distance at the time when the driver operates the mobile phone is a reference, and even if the operation state of the mobile phone continues, the current inter-vehicle distance is a predetermined value with respect to the reference inter-vehicle distance. Since no warning is output when there is no change, it is possible to prevent an unnecessary warning from being given when the driver determines that the safety is sufficient and temporarily operates the mobile phone.
[0021]
<Third Embodiment>
In the second embodiment described above, the driver's concentration reduction is evaluated by operating the mobile phone. However, in this embodiment, whether or not the in-vehicle navigation device is operated, in particular whether the destination is input by voice. Evaluate the decline in concentration based on whether or not The basic configuration is almost the same as that shown in FIG. 1, but a circuit for detecting ON / OFF of voice input for in-vehicle navigation is provided instead of the TV camera 10 and the neural network 16, and the driver's The difference is that it is determined that the concentration is reduced.
[0022]
FIG. 4 shows a processing flowchart of the present embodiment. The distance between the preceding vehicle and the preceding vehicle is detected by the sensor 20 (S301), and in-vehicle navigation voice input is detected in order to evaluate the driver's (driver) concentration reduction (S302). Next, it is confirmed whether there is a preceding vehicle (S303). When there is no preceding vehicle, a predetermined value LW (for example, 80 m) is given as an initial value to the reference inter-vehicle distance LT (S309). If there is a preceding vehicle, it is next determined whether or not the driver inputs a destination or the like by voice (S304). When the driver is not inputting voice, that is, when the driver's concentration is not reduced, the predetermined value LW is substituted for the reference inter-vehicle distance LT as in S309 (S310), and the current inter-vehicle distance L is calculated. The allowable inter-vehicle distance L0 (for example, 30 m) is compared (S311). Even if the driver's concentration is not reduced, if the current inter-vehicle distance L is smaller than the allowable inter-vehicle distance L0, an alarm is output to alert the driver (S308). On the other hand, if the driver is inputting voice, it is further determined whether or not the previous voice input was made (S305). This determination is for confirming whether or not the voice input state is continued. When the voice input is not input last time and the voice is input for the first time this time, the inter-vehicle distance L at that time is set as the reference inter-vehicle distance. Set to LT (S306). In addition, when voice is input last time, the process of S306 is not performed, and the value of the reference inter-vehicle distance at the time when the concentration is lowered is maintained. Then, the current inter-vehicle distance L is compared with the reference inter-vehicle distance LT, and it is determined whether or not the two are different by a predetermined value or more, that is, whether the current inter-vehicle distance L is smaller than LT−ΔL3 (S307). However, ΔL3 is a predetermined allowable change value, for example, set to 9 m. If the current inter-vehicle distance L decreases by a predetermined value or more with respect to the reference inter-vehicle distance LT, an alarm is output to alert the driver (S308). On the other hand, if the current inter-vehicle distance L has hardly changed with respect to the reference inter-vehicle distance LT even if the driver's concentration is reduced, it is determined that safety is secured and no alarm is output.
[0023]
As described above, in the present embodiment, the vehicle-to-vehicle distance at the time when the driver inputs voice for in-vehicle navigation is used as a reference, and even if the voice input state continues, the current vehicle-to-vehicle distance is a predetermined value with respect to the reference vehicle-to-vehicle distance. Since no warning is output when there is no change, it is possible to prevent an unnecessary warning from being given when the driver judges that the safety is sufficient and temporarily inputs voice.
In the present embodiment, it goes without saying that the present invention can be similarly applied to a case where a destination or the like is manually set instead of voice input.
[0024]
<Fourth embodiment>
In the first to third embodiments described above, the inter-vehicle distance from the preceding vehicle is detected as the travel state quantity of the vehicle. However, in this embodiment, the case where the curvature of the road is detected as the travel state quantity is shown. The basic configuration is almost the same as that of FIG. 1 except that a sensor for detecting the curvature of the road is provided as the sensor 20, and the curvature at the time when the driver's concentration is reduced is used as a reference curvature. The curvature sensor can be composed of, for example, map data for in-vehicle navigation and GPS, and the curvature of the road on the map data corresponding to the detected current position may be searched.
[0025]
FIG. 5 shows a processing flowchart of the present embodiment. First, the current position is detected by GPS or the like (S401), and the driver (driver) looking aside is detected by the neural network 16 (S402). Then, it is determined whether or not the person is looking aside (S403). If the person is looking aside, it is further determined whether or not the person was looking aside again (S404). When looking aside for the first time this time (start of the driver's concentration reduction), the curvature ρ at that time is set as the reference curvature ρT (S407). On the other hand, in the case where the last time was a side look (a state in which the concentration reduction continued), it is determined whether or not the curvature ρ1 ahead of the current position (for example, 10 m ahead) is equal to the reference curvature ρT (S405). ). The curvature ahead of the current position can be searched from the map data of the in-vehicle navigation, and if they are not equal, that is, if they differ by more than a predetermined value, an alarm is output to alert the driver (S406). On the other hand, if the curvature of the road does not change from the reference curvature even if the driver's concentration is reduced, it is determined that safety is secured and no warning is output. Therefore, in this embodiment, even if the driver is temporarily looking aside while traveling on a straight road, no warning is given as long as the driver is traveling on a straight road, but he was temporarily looking aside while traveling on a straight road. However, if there is a curved road ahead, an alarm will be given.
[0026]
Also according to the present embodiment, it is possible to prevent a warning that is considered unnecessary for the driver from occurring frequently, and to give a warning at a timing that is considered to be truly necessary.
[0027]
In the present embodiment, the reduction in the driver's concentration can be evaluated by operating a mobile phone or inputting voice.
[0028]
<Fifth Embodiment>
In the fourth embodiment described above, the curvature of the road is detected as the travel state quantity of the vehicle. However, in the present embodiment, a case where the road gradient is detected as the travel state quantity is shown. The basic configuration is almost the same as that in FIG. 1 except that a sensor for detecting a road gradient is provided as the sensor 20, and the gradient at the time when the driver's concentration is reduced is used as a reference gradient. The gradient sensor can be composed of, for example, map data for in-vehicle navigation and GPS, and it is only necessary to search for the gradient of the road on the map data corresponding to the detected current position.
[0029]
FIG. 6 shows a processing flowchart of the present embodiment. First, the current position is detected by GPS or the like (S501), and the driver (driver) looking aside is detected by the neural network 16 (S502). Then, it is determined whether or not the person is looking aside (S503). If the person is looking aside, it is further determined whether or not the person was looking aside last time (S504). When looking aside for the first time this time (start of reduction of driver's concentration), the gradient θ at that time is set as a reference gradient θT (S507). On the other hand, if the previous look was also a side look (a state in which the concentration reduction continued), it is determined whether or not the gradient θ1 that is a predetermined forward (for example, 10 m ahead) from the current position is equal to the reference gradient θT (S505). ). The gradient ahead of the current position can be searched from the map data of in-vehicle navigation, and if they are not equal, that is, if they differ by more than a predetermined value, an alarm is output to alert the driver (S506). On the other hand, if the road gradient does not change from the reference gradient even when the driver's concentration is reduced, it is determined that safety is ensured and no warning is output. Therefore, in this embodiment, even if the driver is temporarily looking aside while driving on a flat road, no warning is given as long as the driver is driving on a flat road, but he was temporarily looking aside while driving on a flat road. However, if there is a downhill (or uphill) ahead, an alarm will be given.
[0030]
Also according to the present embodiment, it is possible to prevent a warning that is considered unnecessary for the driver from occurring frequently, and to give a warning at a timing that is considered to be truly necessary.
[0031]
Also in this embodiment, the driver's concentration reduction can be evaluated with a mobile phone or the like.
[0032]
<Sixth Embodiment>
In each of the above-described embodiments, the inter-vehicle distance, road curvature, or gradient with respect to the preceding vehicle is detected as the travel state amount of the vehicle, but in this embodiment, the lateral displacement amount with respect to the travel lane of the vehicle is detected as the travel state amount of the vehicle. Show the case. The basic configuration is almost the same as in FIG. 1, and a sensor 20 is provided as a sensor 20 for detecting the lateral displacement of the vehicle with respect to the travel lane, and the lateral displacement when the driver's concentration is reduced is used as a reference lateral displacement. The amount is different.
[0033]
FIG. 7 shows a processing flowchart of the present embodiment. The sensor 20 detects the lateral displacement amount ΔX in the travel lane (S601), and the neural network 16 detects the driver (driver) looking aside (S602). Next, it is confirmed whether or not a travel lane has been detected (S603). When the traveling lane cannot be detected (when there is no white line, etc.), a predetermined value ΔXw (for example, 0.4 m) is given as an initial value to the reference left lateral displacement amount ΔXTl and right lateral displacement amount ΔXTr, respectively (S609). If the travel lane can be detected, it is next determined whether or not the driver is looking aside (S604). When the driver is not looking aside, that is, when the driver's concentration is not reduced, the predetermined value ΔXW is substituted for the reference lateral displacement amounts ΔXTl and ΔXTr as in S609 (S610), The displacement amount ΔX is compared with the allowable lateral displacement amount Δx1 (for example, 0.8 m) (S611). If the current lateral displacement amount ΔX exceeds the allowable lateral displacement amount Δx1 even if the driver's concentration is not reduced, an alarm is output to alert the driver (S608). On the other hand, if the driver is looking aside, it is further determined whether the driver was looking aside last time (S605). This determination is for confirming whether or not the look-aside is continued. If the look-ahead is not looked aside last time and the look is looked aside for the first time this time, the amount of lateral displacement ΔX at that time is an allowable amount. Is set as the reference lateral displacement amount (S606). Specifically, it is as follows.
[0034]
<When the vehicle is displaced to the left with respect to the center of the lane>
The reference left lateral displacement amount ΔXTL is ΔXTl = | ΔX | + ΔXww
The reference right lateral displacement amount ΔXtr is ΔXTr = ΔXw
<When the vehicle is displaced to the right with respect to the center of the lane>
The reference amount of left lateral displacement ΔXTl is ΔXTl = ΔXw
The reference right lateral displacement amount ΔXTr is ΔXTr = | ΔX | + ΔXww
However, ΔXww is an allowable amount, and is preferably changed according to ΔX, such as 0.4 m when | ΔX | is small and 0.2 m when | ΔX | is large. In addition, when looking aside last time, the process of S606 is not performed and the value of the reference lateral displacement amount at the time of concentration reduction is maintained. Then, the current lateral displacement amount ΔX and the reference lateral displacement amounts ΔXT1, ΔXTr are compared, and it is determined whether or not the current lateral displacement amount exceeds the reference lateral displacement amount (S607). If the current lateral displacement amount exceeds the reference lateral displacement amount, an alarm is output to alert the driver (S608). On the other hand, if the current lateral displacement has hardly changed relative to the reference lateral displacement even if the driver's concentration is reduced, safety is ensured even if the vehicle is not driving in the center of the driving lane. It is judged that the alarm has been made and no alarm is output.
[0035]
As described above, in this embodiment, even if the aside look state continues, if there is no difference between the lateral displacement amount at the start of looking aside and the current lateral displacement amount, an alarm is not output, so the driver determines that it is sufficiently safe. It is possible to prevent an unnecessary alarm from being given when looking aside.
[0036]
In this embodiment, the driver's concentration reduction may be evaluated by operating a mobile phone or the like. When the lateral displacement amount exceeds the reference lateral displacement amount, the ECU 18 generates an alarm and performs steering. It is also possible to control to return the vehicle to the center of the traveling lane by driving the actuator.
[0037]
Furthermore, Δx1, ΔXw, and ΔXww in the present embodiment can be changed according to the vehicle speed, the lane width, the curvature, and the like.
[0038]
【The invention's effect】
As described above, according to the present invention, it is possible to reliably suppress unnecessary alarms that are bothersome for the driver and to give the driver an alarm at an appropriate timing.
[Brief description of the drawings]
FIG. 1 is a configuration block diagram of an embodiment of the present invention.
FIG. 2 is a process flowchart of the first embodiment.
FIG. 3 is a processing flowchart of the second embodiment.
FIG. 4 is a process flowchart of the third embodiment.
FIG. 5 is a process flowchart of the fourth embodiment.
FIG. 6 is a process flowchart of the fifth embodiment.
FIG. 7 is a processing flowchart of the sixth embodiment.
[Explanation of symbols]
10 TV camera, 12 binarization circuit, 14 clipping circuit, 16 neural network, 18 ECU (electronic control unit), 20 sensor.

Claims (6)

走行状態量を検出する検出手段と、
運転者の集中力低下を評価する評価手段と、
運転者の集中力が低下した時点における走行状態量を基準とし、該基準走行状態量と現在の走行状態量が所定値以上相違する場合に警報を出力する制御手段と、
を有することを特徴とする車両用警報装置。
Detecting means for detecting a running state quantity;
An evaluation means for evaluating the driver's concentration reduction,
Control means for outputting a warning when the driving state amount at the time when the driver's concentration is reduced, and when the reference driving state amount is different from the current driving state amount by a predetermined value or more,
A vehicular alarm device comprising:
前記評価手段は、前記運転者の顔部を撮影して得られる運転者顔部画像情報を処理することで取得される前記運転者の顔の方向及び目の状態に関する情報に基づいて前記運転者の脇見を検出して前記集中力低下を評価することを特徴とする請求項1記載の車両用警報装置。The evaluation means is based on information about the driver's face direction and eye state obtained by processing driver face image information obtained by photographing the driver's face. The vehicle alarm device according to claim 1, wherein the side-by-side detection is detected to evaluate the concentration reduction. 前記評価手段は、運転者の車載機器の操作により前記集中力低下を評価することを特徴とする請求項1記載の車両用警報装置。  The vehicle alarm device according to claim 1, wherein the evaluation unit evaluates the concentration reduction by a driver's operation of an in-vehicle device. 前記検出手段は、前記走行状態量として車間距離を検出することを特徴とする請求項1、2、3のいずれかに記載の車両用警報装置。  The vehicle alarm device according to claim 1, wherein the detection unit detects an inter-vehicle distance as the travel state quantity. 前記検出手段は、前記走行状態量として道路の曲率または勾配を検出することを特徴とする請求項1、2、3のいずれかに記載の車両用警報装置。  The vehicle alarm device according to any one of claims 1, 2, and 3, wherein the detection means detects a curvature or a slope of a road as the travel state quantity. 前記検出手段は、前記走行状態量として走行レーンに対する車両の横変位量を検出することを特徴とする請求項1、2、3のいずれかに記載の車両用警報装置。  The vehicle alarm device according to claim 1, wherein the detection unit detects a lateral displacement amount of the vehicle with respect to a travel lane as the travel state amount.
JP34288096A 1996-12-24 1996-12-24 Vehicle alarm device Expired - Fee Related JP3843513B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP34288096A JP3843513B2 (en) 1996-12-24 1996-12-24 Vehicle alarm device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP34288096A JP3843513B2 (en) 1996-12-24 1996-12-24 Vehicle alarm device

Publications (2)

Publication Number Publication Date
JPH10181380A JPH10181380A (en) 1998-07-07
JP3843513B2 true JP3843513B2 (en) 2006-11-08

Family

ID=18357225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP34288096A Expired - Fee Related JP3843513B2 (en) 1996-12-24 1996-12-24 Vehicle alarm device

Country Status (1)

Country Link
JP (1) JP3843513B2 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6925425B2 (en) * 2000-10-14 2005-08-02 Motorola, Inc. Method and apparatus for vehicle operator performance assessment and improvement
JP2002329300A (en) * 2001-04-27 2002-11-15 Honda Motor Co Ltd Travel safety device for vehicle
DE10210130B4 (en) * 2002-03-08 2014-12-24 Robert Bosch Gmbh Method and device for driver warning
JP4370915B2 (en) * 2004-01-14 2009-11-25 オムロン株式会社 In-vehicle application selection system and in-vehicle application selection device
BRPI0606576A2 (en) 2005-01-19 2009-07-07 Takata Petri Ag Steering wheel set for motor vehicle and method for setting a speed limit value of a motor vehicle
EP1781491A2 (en) 2005-01-19 2007-05-09 Takata-Petri AG Safety device for an automotive seat and method for controlling the same
JP2006331323A (en) * 2005-05-30 2006-12-07 Toyota Motor Corp Vehicle deviation alarm device
JP2007001402A (en) * 2005-06-23 2007-01-11 Nissan Motor Co Ltd Vehicular driving operation auxiliary device and vehicle with vehicular driving operation auxiliary device
JP4810321B2 (en) * 2006-06-14 2011-11-09 キヤノン株式会社 Electronic equipment and computer program
US9248796B2 (en) 2011-10-06 2016-02-02 Honda Motor Co., Ltd. Visually-distracted-driving detection device
KR101327007B1 (en) * 2011-10-17 2013-11-13 현대자동차주식회사 A system and method for detection of concentration grade wherein car driving
US10336326B2 (en) * 2016-06-24 2019-07-02 Ford Global Technologies, Llc Lane detection systems and methods
CN109803583A (en) * 2017-08-10 2019-05-24 北京市商汤科技开发有限公司 Driver monitoring method, apparatus and electronic equipment
JP7257889B2 (en) * 2019-06-19 2023-04-14 三菱電機株式会社 Driver monitoring device and monitoring system
CN110281766A (en) * 2019-07-22 2019-09-27 江苏常荣电器有限公司 Contactless motor vehicle alcohol testing device and method based on dynamic human face identification
CN113370786B (en) * 2021-06-10 2023-04-28 桂林电子科技大学 Vehicle-mounted drunk driving comprehensive detection system for unit vehicle based on multi-source information fusion

Also Published As

Publication number Publication date
JPH10181380A (en) 1998-07-07

Similar Documents

Publication Publication Date Title
JP3843513B2 (en) Vehicle alarm device
US6734787B2 (en) Apparatus and method of recognizing vehicle travelling behind
US7983475B2 (en) Vehicular actuation system
JP4690543B2 (en) Information instruction method in vehicle
JP2546415B2 (en) Vehicle driver monitoring device
EP1542194B1 (en) Device for the active monitoring of the safety perimeter of a motor vehicle
JP3102250B2 (en) Ambient information display device for vehicles
US20150009010A1 (en) Vehicle vision system with driver detection
CN111699680B (en) Automobile data recorder, display control method, and storage medium
JP2009015548A (en) Drive assisting device and method, and program
CN108885866B (en) Vehicle effect sound generating device
JP2007226666A (en) Driving support method and driving support device
WO2018168051A1 (en) Degree of concentration determination device, degree of concentration determination method, and program for determining degree of concentration
CN109074801B (en) Vehicle effect sound generating device
KR20180065527A (en) Vehicle side-rear warning device and method using the same
WO2019188926A1 (en) Looking-away determining device, looking-away determining system, looking-away determining method, and storage medium
JPH03254291A (en) Monitor for automobile driver
JP2022139524A (en) Drive support device and recording medium
WO2018168099A1 (en) Concentration degree determination device, concentration degree determination method, and program for determining concentration degree
JP6778941B1 (en) Road rage detection system
CN113408331A (en) Gaze object detection device
JP3405820B2 (en) Vehicle running state determination device
JP3405819B2 (en) Vehicle running state determination device
JP7158502B2 (en) Information processing device and information processing system
KR102616205B1 (en) Back Warning Apparatus, Method thereof and Control System

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060404

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060605

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20060605

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060807

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100825

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110825

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120825

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130825

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees