JP5488105B2 - 車両の運転支援装置 - Google Patents

車両の運転支援装置 Download PDF

Info

Publication number
JP5488105B2
JP5488105B2 JP2010071376A JP2010071376A JP5488105B2 JP 5488105 B2 JP5488105 B2 JP 5488105B2 JP 2010071376 A JP2010071376 A JP 2010071376A JP 2010071376 A JP2010071376 A JP 2010071376A JP 5488105 B2 JP5488105 B2 JP 5488105B2
Authority
JP
Japan
Prior art keywords
vehicle
distance
driving
line
sight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010071376A
Other languages
English (en)
Other versions
JP2011204054A (ja
Inventor
恵子 神田
司 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mazda Motor Corp
Original Assignee
Mazda Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mazda Motor Corp filed Critical Mazda Motor Corp
Priority to JP2010071376A priority Critical patent/JP5488105B2/ja
Publication of JP2011204054A publication Critical patent/JP2011204054A/ja
Application granted granted Critical
Publication of JP5488105B2 publication Critical patent/JP5488105B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)

Description

この発明は、自車を運転する運転者の視線を認識する視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置に関する。
従来より、自車の車外走行環境を判定し、その判定結果に応じて運転補助を実行する運転支援装置が知られている。
運転支援装置では、一般的に、車外走行環境の判定において、前方物体の有無を判定する。そして、前方物体が存在した時には、自車から前方物体までの距離を求め、その距離に基づいて所定の運転補助を実行する。
図13は、従来の運転支援装置を備えた車両(自車)Vが、右カーブの直前の直線道路を走行している状態を示している。図13では、車両Vが走行する走行帯Zaの右側に対向車用の走行帯Zbが隣接しており、車両Vの前方で同じ走行帯Zaを走行している他車Vaと、走行帯Zbを走行している他車Vbとが存在している。
車両Vには、自車の車外走行環境を判定すべく、前方物体を検出する検出手段114が備えられており、この検出手段114は、例えば、所定周波数の電波や、赤外線等の電磁波を送信するレーダー装置、または公知のステレオカメラ等によって構成される。ここで、図中二点鎖線で示す領域Aは、検出手段114によって前方物体の検出が行われる検出領域を示している。
図13の場合、走行帯Za、Zbとの間で車線変更を行うことができないため、通常であれば、車両Vにおいて運転補助を実行する際に考慮すべき対象物体は、同じ走行帯Zaを走行している先行走行車両(他車Va)のみであり、隣接する走行帯Z2を走行する対向車(他車Vb)については、接近状態になったとしても上述した上記対象物体になることはない。
しかしながら、従来、図示のように右カーブ前方から接近してきた他車Vbが他車Vaよりも車両Vの手前側に進入することによって、車両Vの視認面上で他車Vaと他車Vbとが略近づいて(略重なって)見える状態になると、他車Vbが上記対象物体であると誤判定される場合があった。
このような誤判定が発生すると、他車Vbとの距離が求められ、しかも他車Vbは車両Vに接近する方向に走行していることから、運転支援装置は、結果としてこの他車Vbとの接触を回避しようとして誤って運転補助を実行してしまう。
つまり、従来の運転支援装置では、上記対象物体を正確に認識できない場合があり、その結果、不適切な運転補助が実行される虞があった。
ところで、従来、車両を運転する運転者の視線を認識し、認識された視線情報に基づいて車両の運転補助を実行するものが提案されている。下記特許文献1では、運転者の視線情報に基づいて自車の進行路形状を推定するものが開示されており、進行路形状としてカーブ形状(カーブの曲率半径)を推定している。そして、同文献では、推定されたカーブ形状に応じて速度警告や、車線認識追従走行等の運転補助を実行している。
また、下記特許文献2には、運転者の視線情報と、運転者の眼球運動の特性とに基づいて、自車前方の注意対象に対する運転者の視認状態を判定するものが開示されている。この場合、運転者が本当に注意対象を視認しているか否かを精度良く判定でき、上記注意対象を視認していないと判定した時には、所定の運転補助を実行することにより、上記注意対象との接触を回避する等して、自車の走行に関連する緊急度を低減した走行を実現可能にしている。
特開平11−348696号公報 特開2007−68917号公報
しかしながら、上記特許文献1、2のいずれの場合においても、自車から前方物体(先行走行車両)までの距離は、レーダー装置から出力されるデータのみによって求められている。このため、図13を参照して説明した場合と同様、対象物体を正確に認識できない場合が生じてしまう。
この発明は、運転補助を実行する際に考慮すべき対象物体を正確に認識することで、適切な運転補助を実行することを可能にする車両の運転支援装置を提供することを目的とする。
この発明の車両の運転支援装置は、自車を運転する運転者の視線を認識する視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、上記視線認識手段は、運転者の両眼の視線に基づいて、自車から運転者が視認している視認物体までの第1距離を判定するとともに、上記第1距離に基づいて、運転を補助する運転補助手段を備え、自車前方の車外走行環境を、電磁波の反射、または自車前方を撮影した撮影画像の処理により認識する車外走行環境認識手段を備え、該車外環境認識手段は、自車から上記前方物体までの第2距離の算出を行うとともに、上記運転補助手段は、上記第1距離に基づいて運転を補助する第1運転補助部と、上記第1距離よりも上記第2運転距離を主体とした距離に基づいて運転を補助する第2運転補助部とを備え、上記車外環境認識手段により認識した車外走行環境に基づいて、第1運転補助部による運転補助、第2運転補助部による運転補助のいずれかを選定するものである。
この構成によれば、運転補助を実行する際に考慮すべき対象物体を、運転者が視認物体を注視している時の視線に基づいて正確に認識することができ、適切な運転補助を実行することが可能になる。
また、上記対象物体を、様々な車外走行環境に応じて的確に認識することができ、最適な運転補助を実行することが可能になる。
なお、本発明で言うところの、上記第1距離よりも上記第2運転距離を主体とした距離に基づいて運転を補助するとは、第2距離に基づく運転補助に高い優先度が設定されていることを意味している。従って、重み付け等によって、第1距離に基づく運転補助よりも第2距離に基づく運転補助のほうが高い確率で選定されるような制御であってもよい。
この発明の一実施態様においては、上記視線認識手段が、両眼の瞳孔の状態に基づいて上記視認物体までの距離を判定するものである。
この構成によれば、瞳孔の状態の認識により、上記対象物体までの距離をより高精度に判定することが可能になる。
この発明の一実施態様においては、上記運転補助手段が、所定の車外走行環境時において、上記第1距離と上記第2距離とが実質的に不一致の時には、上記第1運転補助部による運転補助を優先するものである。
この構成によれば、上記対象物体を、車外走行環境に応じてより高精度に認識することができる。これにより、例えば、自車の走行に関連する緊急度が低い状態(所定の車外走行環境時)であるにも関わらず、過剰な運転補助が実行されることを回避でき、過剰な運転補助による煩わしさを低減できる。
また、この発明の車両の運転支援装置は、自車を運転する運転者の視線を認識する視線認識手段を備え、該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、上記視線認識手段は、運転者の両眼の視線に基づいて、自車から運転者が視認している視認物体までの第1距離を判定するとともに、上記第1距離に基づいて、運転を補助する運転補助手段を備え、自車前方の車外走行環境を、電磁波の反射、または自車前方を撮影した撮影画像の処理により認識する車外走行環境認識手段と、自車前方の車線形状を認識する車線形状認識手段とを備え、上記車外走行環境認識手段は、自車から上記前方物体までの第2距離の算出を行うとともに、上記運転補助手段は、上記第1距離、若しくは上記第2距離に基づいて、自車から上記前方物体までの距離を確定する距離確定部を備え、該距離確定部は、上記車線形状認識手段による車線形状認識に基づき、上記車線形状が所定のカーブ形状と判定した場合には、上記第1距離を確定するものである。
この構成によれば、運転補助を実行する際に考慮すべき対象物体を、運転者が視認物体を注視している時の視線に基づいて正確に認識することができ、適切な運転補助を実行することが可能になる。
また、例えば、隣接する走行帯に他車が存在し、所定のカーブ形状により先行走行車両と上記他車とが略近づいて(略重なって)見える場合であっても、運転者は先行走行車両を視認する可能性が高いと判定し、該先行走行車両を上記対象物体として運転補助を実行することができる。
この発明の一実施態様においては、上記視線認識手段が、両眼の瞳孔の状態に基づいて上記視認物体までの距離を判定するものである。
この構成によれば、瞳孔の状態の認識により、上記対象物体までの距離をより高精度に判定することが可能になる。
この発明の一実施態様においては、上記車外走行環境認識手段が、更に前方物体の位置を認識するとともに、上記運転補助手段は、上記車外走行環境認識手段により認識した前方物体の位置の移動と、上記視線認識手段により認識した視認物体の位置の移動とが、実質的に同じ状態の後、上記視線が実質的に変化せずに、上記第1距離と上記第2距離とが実質的に不一致となった時、上記第1距離に基づいて運転を補助するものである。
この構成によれば、所定期間前までの上記前方物体及び上記視認物体の移動軌跡を解析することで、第1、第2距離が不一致となった原因を認識でき、その結果、車外走行環境の変化を高精度に認識することができる。このため、第1距離に基づく運転補助、第2距離に基づく運転補助の選定をより高精度に行うことが可能になる。
この発明によれば、運転補助を実行する際に考慮すべき対象物体を、運転者が視認物体を注視している時の視線に基づいて正確に認識することができ、適切な運転補助を実行することが可能になる。
この発明の実施形態に係る運転支援装置を備える車両の概略的な構成を示すブロック図。 直線道路を走行する自車の前方に先行走行車両が存在している状態を例として、自車から先行走行車両までの第1距離を求める方法を説明するための概略説明図。 直線道路を自車が走行している状態を示す概略平面図であり、自車の前方に先行走行車両が存在している状態を示す図。 図2、図3に示す状態において生成される前方物体認識データを示す図。 視認物体を認識する方法を説明するための説明図。 右カーブの手前の直線道路を自車が走行している状態を示す概略平面図であり、自車の前方で同じ走行帯を走行している他車と、自車が走行する走行帯の右側に隣接する対向車用の走行帯を走行している他車とが存在している状態を示す図。 図6に示す状態に対応する前方物体認識データを示す図。 直線道路上を自車が走行している状態を示す概略平面図であり、自車の前方に先行走行車両が存在するとともに、距離の閾値の範囲外において、侵入物体が自車と先行走行車両との間の道路上を横切っている状態を示す図。 図8に示す状態に対応する前方物体認識データを示す図。 直線道路上を自車が走行している状態を示す概略平面図であり、自車の前方に先行走行車両が存在するとともに、距離の閾値の範囲内において、侵入物体が自車と先行走行車両との間の道路上を横切っている状態を示す図。 図10に示す状態に対応する前方物体認識データを示す図。 車両に備えられた運転支援装置の動作を示すフローチャート。 従来の運転支援装置を備えた自車が、右カーブの手前の直線道路を走行している状態を示す概略平面図であり、自車の前方で同じ走行帯を走行している他車と、自車が走行する走行帯の右側に隣接する対向車用の走行帯を走行している他車とが存在している状態を示す図。
以下、図面に基づいて本発明の実施形態を詳述する。
図1は、本発明の実施形態に係る運転支援装置1を備える車両Vの概略的な構成を示すブロック図である。図1に示す車両Vの運転支援装置1は、パワートレイン2やブレーキ装置3等を制御する制御装置としてのCPU10、該CPU10に接続され、これに各種データを出力する車速センサ11、前方撮影カメラ12、レーダー装置14、及び視線検出カメラ13を備えている。
さらに、運転支援装置1は、運転者に対して所定の警報を行うワーニング装置15と、各種制御プログラムや、CPU10に出力された各種データを記憶する記憶装置16とを備えている。
また、運転支援装置1は、その車速を制御して定速走行させるか、または先行車両に追従走行させる公知のACC制御システムを備えており、このACC制御システムによる運転補助を実行可能としている。
ここで、車速センサ11は、車両Vの車速を検出して、検出した車速に対応するデータをCPU10に出力するものであり、上記ACC制御では、CPU10が、車速センサ11からのデータに基づいてパワートレイン2やブレーキ装置3を適宜制御し、先行走行車両が存在しない時には車両Vを一定の目標速度で定速走行させる定速走行制御(所謂クルーズ走行制御)を、先行走行車両が存在する時には該先行走行車両に対して一定の目標車間距離を維持した状態で車両Vを追従走行させる追従走行制御を行う。
前方撮影カメラ12は、主に車両Vの前方の道路を撮影することにより車線形状を認識するものである。この前方撮影カメラ12は、車室のルーフ前端部に取付けられ、例えばCCDやCMOSセンサを利用したデジタル式のカメラにより構成され、撮影データをCPU10に出力する。
視線検出カメラ13は、可視光領域や赤外線領域にて運転者の両眼の瞳孔を撮影して視線を認識する手段である。この視線検出カメラ13は、車室内のインストルメントパネル上部に配設され、ステアリングホイール4のコラム付近に位置している。視線検出カメラ13は、撮影した瞳孔の画像を利用して認識した運転者の視線に関連する情報を視線情報としてCPU10に出力する。
ワーニング装置15は、車両Vの運転者に対して音声や画面表示等で所定の警報を行うものであり、例えば、車両Vと前方の前方物体とが急接近した時等、自車の走行に関連する緊急度が高まった時に、CPU10からの制御信号を受信して所定の警報を行う。
レーダー装置14は、車両Vの前方の走行環境を認識するためのものであり、例えば、前方物体の検出が行われる。レーダー装置14は、フロントバンパの前端部に取付けられ、所定周波数の電波を送信する。そして、車両Vの前方の物体に当たって反射してきた電波を受信し、この受信信号を物体情報としてCPU10に出力する。この時、送信波と受信波との時間差から、自車(車両V)から物標(前方物体)までの距離が求められる。また、送信波に対する受信波の波長シフトから、自車と前方物体との相対速度が求められる。
なお、レーダー装置14としては、電磁波を送信するものであればよく、例えば赤外線を送信するものであってもよい。この場合、電波と同様、赤外線の反射により自車から前方物体までの距離、及び自車と前方物体との相対速度を求めることができる。また、本実施形態では、車両Vがレーダー装置14を備えているが、2つのカメラ装置により撮影された画像を処理することによって前方物体までの距離を求めることができる公知のステレオカメラであってもよい。
記憶装置16は、各種制御プログラムや、CPU10に出力された各種データの他、運転補助の実行に際して考慮すべき対象物体を判定する際に用いられる閾値として、車両Vから前方物体までの距離に関連する閾値D1、D2、車両Vと前方物体との相対速度に関連する閾値ΔD3を記憶している。なお、上記対象物体の判定については後述する。
次に、本実施形態に係る運転支援装置1の動作について説明する。図2、図3は、直線道路を車両(自車)Vが走行している状態を示しており、車両Vの前方には先行走行車両として他車V1が存在している。図示の場合、前方撮影カメラ12(図1参照)により、車線L1、L2が撮影され、この車線L1、L2の撮影画像から前方の車線形状が直線であると認識される。
この場合、通常であれば、車両Vの運転者Mは、図2に示すように他車V1を注視している。この時、運転者Mの両眼の視線Xは、略他車V1を指向しており、運転者Mの両眼の視線Xが交わる焦点Fは、他車V1に位置している。
そこで、本実施形態では、視線検出カメラ13によって撮影した撮影画像から、両眼の瞳孔の状態が認識され、この瞳孔の状態に基づいて視線Xの方向が認識される。そして、認識された視線Xの方向と車両Vの進行方向のとの角度のずれΔθが算出され、この角度のずれΔθに基づいて焦点Fの位置が検出されるようになっている。
さらに、本実施形態では、上述した焦点Fの検出により、運転者Mから、該運転者Mが視認している視認物体(図2では、他車V1)までの距離De1′が求められ、この距離De1′に基づいて車両Vから他車V1までの第1距離De1が求められるようになっている。
また、図1に示す運転支援装置1のうち、レーダー装置14では、図3にて二点鎖線で示すように車両Vの進行方向に対して左右に所定角度広がりをもつ電波W1の照射領域Aが設定されており、図3では、照射領域Aに他車V1が入っている。この時、他車V1で反射された受信波W2に基づいて、車両Vから他車V1までの第2距離Dr1、及び車両Vと他車V1との相対速度ΔDr1が求められる。
また、レーダー装置14は、前方物体で反射される受信波W2に基づき、この前方物体の像(輪郭線)に対応するエッジを検出し、図4、図5に示すような仮想の視認面上に前方物体認識データを生成する。図3の場合、レーダー装置14は、他車V1の像に対応するエッジを検出し、このエッジの検出によって、他車V1は、図4にて太い破線で示すような前方物体PFM1として認識される。そして、レーダー装置14は、この前方物体PFM1の認識結果を示す前方物体認識データを生成し、これを物体情報としてCPU10に出力する。この前方物体認識データにより、CPU10は、車両Vに対する前方物体PFM1の相対的な位置を認識することが可能になる。
なお、上述したエッジは、レーダー装置14から送信した電波W1に対して受信波W2を受けたものについてのみ検出される。このため、例えば、図3に示す車線L1、L2については、レーダー装置14から電波W1を送信したとしても電波の反射がなく、受信波W2を受信できないため、前方物体認識データでは、車線L1、L2に対応するエッジが検出されることはない。図4、図5では、便宜上車線L1等を仮想線(二点鎖線)で示している。
また、本実施形態では、視線検出カメラ13が焦点Fの位置を所定時間毎にサンプリングしている。そして、焦点Fのサンプリング結果は、視線情報としてCPU10に送信され、CPU10では、サンプリングされた焦点Fを、図5に示すように前方物体認識データ上に重畳し、焦点Fの分布を解析するようになっている。
ここで、図2に示すように、運転者Mが他車V1を注視している場合について見てみると、この場合、焦点Fは、図5に示すように視認面上の限られた領域に略集中することになる。
そこで、焦点Fの分布解析では、先ず所定のフィルタ処理により、よそ見や検出誤差等によって他から大きく離間した焦点Foutが除去される。そして、上記フィルタ処理後に残った焦点Fはグループ化され、グループ化された焦点Fが集中している集中領域が特定される。
この場合、特定された集中領域と視認面上で対応する位置に運転者Mが注視している他車V1が存在していると推測できることから、本実施形態では、この集中領域の特定によって、他車V1が、図4、図5にて細い破線で示すような視認物体ELM1として認識される。ここでは、視認物体ELM1のエッジが、上記集中領域の縁部によって設定される。
上述した前方物体認識データでは、最終的に前方物体PFM1及び視認物体ELM1が、1つの視認面上に重畳される。そして、CPU10は、前方物体PFM1及び視認物体ELM1の位置データを含む前方物体認識データを所定時間毎に記憶装置16に記憶させる。記憶装置16では、上記前方物体認識データが所定期間分蓄積される。
図2〜図5に示す場合には、運転者Mが注視している前方物体と、レーダー装置14が検出している前方物体とが同じ他車V1であることから、前方物体認識データでは、視認物体ELM1と前方物体PFM1とが図4、図5に示すように略同じ領域に位置している。そして、この場合、視線検出カメラ13の視線情報により求められる視認物体ELM1までの第1距離De1と、レーダー装置14から出力される上記受信信号により求められる前方物体PFM1までの第2距離Dr1とは略同じになる。
ところで、運転支援装置1では、運転補助を実行する際に考慮すべき対象物体を判定し、この対象物体までの距離に基づいて所定の運転補助を実行するようになっている。
具体的には、車両Vの前方に存在する前方物体を上記対象物体とし、車両Vから前方物体までの距離、及び車両Vと前方物体との相対速度に基づいて、該前方物体との接近状態が判定される。ここでは、該前方物体との距離が所定の閾値D1未満であって、かつ上記相対速度が所定の負(進行方向の速度を正とする)の値ΔD3未満、つまりは前方物体の移動速度が車両Vの車速に比べて著しく低速であった場合、両者が所定の接近状態であると判定される。
このように、所定の接近状態であると判定されると、車両Vの車外走行環境が大きく変化していることから、運転補助が実行されるようになっている。ここでは、ワーニング装置15による警報が行われる。
一方、所定の接近状態ではないと判定された場合には、上述したACC制御システムが作動し、上記定速走行制御や、上記追従走行制御が実行される。
ここで、図2〜図5の場合について見てみると、上述したように、視認物体ELM1と前方物体PFM1とは同じ領域に位置しており、しかも車両Vからの第1、第2距離De1、Drが略同じである。この場合、運転者Mのよそ見や微細な視線Xの変化による第1距離Deの誤差を考慮して、図4、図5にてハッチングで示す前方物体PFM1が上記対象物体とされ、この前方物体PFM1までの第2距離Dr1を主体として運転補助が実行されるようになっている。
図6は、右カーブの手前の直線道路を車両(自車)Vが走行している状態を示しており、図6では、車両Vが走行する走行帯Z1の右側に隣接する位置に対向車用の走行帯Z2が隣接している。図示の場合、前方撮影カメラ12により、車線L4〜L5が撮影され、この車線L3〜L5の撮影画像から前方の車線形状が右カーブであると認識される。
また、図6では、車両Vの前方で同じ走行帯Z1を走行している他車V2と、走行帯Z2を走行している他車V3とが存在している。そして、右カーブ前方から接近してきた他車V3が、他車V2よりも手前側に進入することによって、車両Vの視認面上で他車V2と他車V3とが略近づいて(略重なって)見える状態になっている。
この場合、走行帯Z1、Z2は車線変更ができないため、通常であれば、上記対象物体となるのは、同じ走行帯Z1を走行している先行走行車両(他車V2)のみであり、隣接する走行帯Z2を走行する対向車(他車V3)については、接近状態になったとしても上記対象物体となることはない。
このため、運転者Mは、先行走行車両である他車V2のみを注視しており、視線Xはこの他車V2の方向を指向したまま変化しない。この場合、上述した焦点Fの分布解析により、前方物体認識データ上では、他車V2が、図7に示すように視認物体ELM2として認識される。
一方、照射領域Aには他車V2、V3が入っているものの、他車V2は、他車V3によって略隠れた状態であることから、ここでは、他車V3までの第2距離Dr3、及びV3との相対速度ΔDr3が求められるとともに、他車V3のエッジが検出され、前方物体認識データ上では、他車V3が、図7に示すように前方物体PFM3として認識される。
この場合、車線変更ができない点を考慮しなければ、対向車である他車V3が車両Vに接近する方向に走行していることから、前方物体PFM3までの第2距離Dr3を主体として運転補助が実行されることになるが、この場合は誤判定となってしまう。
そこで、本実施形態では、他車V3と他車V2とが略近づいて(略重なって)見えるカーブにおいて、視認物体ELM2と前方物体PFM3とが同じ領域に位置しているものの、車両Vからの第1、第2距離De2、Dr3が実質的に不一致となった場合には、所定期間前における視認物体及び前方物体の移動軌跡が解析されるようになっている。
図7では、視認物体ELM2と前方物体PFM3とが同じ領域に位置する少し前の視認物体、前方物体をそれぞれ符号ELM2′、PFM2′で示している。図7では、視認物体ELM2′、前方物体PFM2′の移動軌跡が略同じであり、つまりは、第1、第2距離De2′、Dr2′は所定期間前まで略同じである。
このことから、運転者Mは、以前から他車V2を注視していると推測することができ、第1、第2距離De3、Dr2が不一致となったのは、運転者Mのよそ見が原因ではなく、他車V2が他車V3によって隠れた状態になっても、運転者Mの視線Xが他車V2を向いたまま実質的に変化していないことが原因であると推測できる。
このように、所定期間前における視認物体ELM2の移動軌跡が、前方物体PFM2の移動軌跡と実質的に同じであった後、視線Xが他車V2を注視したまま視線Xが変化せず、第1、第2距離De2、Dr3が不一致となった場合には、前方物体PFM3ではなく、図7にてハッチングで示す視認物体ELM2が対象物体とされ、この視認物体ELM2までの第1距離De2を主体として運転補助が実行されるようになっている。
図8は、直線道路上を車両(自車)Vが走行している状態を示している。図示の場合、前方撮影カメラ12により、車線L6、L7が撮影され、この車線L6、L7の撮影画像から前方の車線形状が直線であると認識される。
また、図8では、車両Vの前方に先行走行車両として他車V4が存在するとともに、車両Vと他車V1との間の道路上を侵入物体iが横切っている。但し、運転者Mは、他車V4のみを注視しており、視線Xはこの他車V4の方向を指向している。
この場合、図9に示すように、他車V4、侵入物体iのエッジが検出され、物体認識データ上では、他車V4が前方物体PFM4、侵入物体iが前方物体PFMiとして認識される一方、焦点Fの分布解析により、他車V4が、視認物体ELM4として認識される。
この場合、通常であれば、侵入物体iのほうが車両Vに接近していることから、前方物体PFMiを主体として運転補助が実行されることになるが、車両Vと侵入物体iとの距離が十分大きければ、侵入物体iは、車両Vが接近するまでに道路を渡りきって道路の外に出る可能性が高い。この場合、車両Vの走行に関連する緊急度は低く、侵入物体iを考慮した運転補助は不要である。
そこで、本実施形態では、車両Vが直線道路を走行中、視認物体ELM4と、最も車両Vに接近している前方物体PFMiとが物体認識データ上で略同じ領域に位置しているものの、視認物体ELM4の第1距離De4と、前方物体PFMiの第2距離Driとが実質的に不一致の場合、前方物体PFMiが、図8に示す所定の距離の閾値D2の範囲内であるか否かが判定されるようになっている。
図8の場合、前方物体PFMiが閾値D2の範囲外であるため、侵入物体iに対する上記緊急度は低いと判定される。そして、前方物体PFMiではなく、図7にてハッチングで示す視認物体ELM4が対象物体とされ、この視認物体ELM4までの第1距離De4を主体として運転補助が実行されるようになっている。
一方、図10に示すように、車両Vと侵入物体iとの第2距離Diが閾値D2の範囲内であるにも関わらず、運転者Mが他車V4を注視しており、視線Xが他車V4を指向している場合には、他車V4に対して注意が集中しているために、運転者Mが侵入物体iを見落としていると推測できる。
このように、視認物体ELM4の第1距離De4と、前方物体PFMiの第2距離Driとが実質的に不一致の場合、前方物体PFMiが閾値D2の範囲内である時には、視認物体ELM4ではなく、図11にてハッチングで示す前方物体PFMiが対象物体とされ、この前方物体PFMiまでの第2距離Driを主体として運転補助が実行されるようになっている。
次に、図12に示すフローチャートとともに、車両Vに備えられた運転支援装置1の動作について説明する。
先ず、運転支援装置1では、ステップS1において、車速センサ11、前方撮影カメラ12、視線検出カメラ13、及びレーダー装置14から各種データがCPU10に入力される。
CPU10は、入力された各種データのうち、前方撮影カメラ12から入力される前方の撮影画像データに基づいて、前方の車線形状を認識する(ステップS2)。
さらに、CPU10は、ステップS3に移行して、レーダー装置14から入力されるデータに基づいて、前方物体PFM1、…(以下、前方物体PFM)の検出状態を認識するとともに、ステップS4では、視線検出カメラ13から入力されるデータに基づいて、焦点Fの分布を解析し、視認物体ELM1、…(以下、視認物体ELM)を認識する。
ここで、視認物体ELMを認識できた時には、CPU10は、運転者Mから視認物体ELMまでの距離に基づいて車両Vから視認物体ELMまでの第1距離De1、…(以下、第1距離De)を求める。
そして、ステップS3において、レーダー装置14により前方物体PFMが検出された時には(ステップS5:YES)、CPU10は、レーダー装置14から入力されるデータに基づいて車両Vから前方物体PFMまでの第2距離Dr1…(以下、第2距離Dr)、及び車両Vと前方物体との相対速度ΔDr1、…を求める。
その後、CPU10は、ステップS6に移行し、ステップS4で認識した視認物体ELMと前方物体PFMとが、前方物体認識データの視認面上で同じ領域に存在するか否かを判定する。
この時、視認物体ELMと前方物体PFMとが同じ領域に存在していれば(ステップS6:YES)、CPU10は、ステップS7に移行し、第1距離Deと第2距離Drとが実質的に不一致となったか否かを判定する。
ここで、第1、第2距離De、Drが実質的に不一致となった場合(ステップS7:YES)、CPU10は、ステップS8において、ステップS2で認識された車線形状が所定のカーブであったか否かを判定し、所定のカーブであれば(ステップS8:YES)、ステップS9に移行する。なお、ここで言う所定のカーブとは、例えば、図6に示すように、車両Vの走行帯Z1に隣接する走行帯Z2に他車V3が存在している時、カーブによって他車V3を上記対象物体と誤判定する可能性があるようなカーブ形状を意味する。
ステップS9では、CPU10が、所定期間前までの前方物体認識データを記憶装置16から読み出し、視認物体ELM及び前方物体PFMの移動軌跡を解析する。ここで、図7に示す視認物体ELM2、前方物体PFM2のように、視認物体ELMの移動軌跡と、前方物体PFMの移動軌跡とが同じであった場合(ステップS9:YES)、CPU10は、第1距離Deを確定距離D0に設定する(ステップS10)。
次に、CPU10は、ステップS11に移行し、確定距離D0と所定の閾値D1とを比較するとともに、視認物体ELMと車両Vとの相対速度ΔD0と所定の閾値ΔD3とを比較することにより、車両Vとの接近状態を判定する。
ここで、確定距離D0が閾値D1未満であって、かつ相対速度ΔD0が閾値ΔD3未満であった場合には(ステップS11:YES)、車両Vの走行に関連する緊急度が高い状態であると判定し、CPU10は、ステップS12に移行して、運転補助を実行する。ここでは、CPU10が、図1に示すワーニング装置15に所定の制御信号を送信して、ワーニング装置15による警報を行わせる。そして、一連の処理をステップS1にリターンする。
一方、確定距離D0が閾値D1以上であるか、相対速度ΔD0が閾値ΔD3以上であった場合には(ステップS11:NO)、上記緊急度が低い状態であると判定し、CPU10は、ステップS13に移行して、運転補助を実行する。ここでは、CPU10が、パワートレイン2やブレーキ装置3を適宜制御し、上述した追従走行制御を実行する。そして、一連の処理をステップS1にリターンする。
ところで、ステップS8において、ステップS2で認識された前方道路形状が所定のカーブでなかった場合(ステップS8:NO)、CPU10は、ステップS14に移行し、前方物体PFMが車両Vから所定の閾値D2の範囲内に存在するか否かを判定する。
ここで、前方物体PFMが所定の閾値D2の範囲外である場合(ステップS14:NO)、前方物体PFMに対する上記緊急度は低いと判定する。この時、CPU10は、ステップS10に移行して、第1距離Deを確定距離D0に設定し、ステップS11以降の処理を実行する。
一方、前方物体PFMが所定の閾値D2の範囲内であった場合(ステップS14:YES)、運転者Mが視認している視認物体ELMよりも、前方物体PFMに対する緊急度のほうが高いと判定する。この時、CPU10は、ステップS15に移行して、第2距離Drを確定距離D0に設定し、ステップS11以降の処理を実行する。
また、ステップS6において、視認物体ELMと前方物体PFMとが同じ領域に存在していなかった場合や(ステップS6:NO)、ステップS7において、第1、第2距離De、Drが実質的に一致していた場合(ステップS7:NO)、または、ステップS9において、視認物体ELMの移動軌跡と、前方物体PFMの移動軌跡とが同じでなかった場合は(ステップS9:NO)、運転者Mのよそ見や視線Xの微細な変化による第1距離Deの誤差を考慮して、いすれも、CPU10は、第2距離Drを確定距離D0に設定し(ステップS15)、ステップS11以降の処理を実行する。
また、ステップS5において、レーダー装置14により前方物体PFMが検出されなかった場合には(ステップS5:NO)、CPU10は、ステップS16に移行して運転補助を実行する。ここでは、CPU10が、パワートレイン2やブレーキ装置3等を適宜制御し、上述したクルーズ走行制御を実行する。そして、一連の処理をステップS1にリターンする。
このように、本実施形態では、CPU10が、視線検出カメラ17により認識された運転者Mの両眼の視線Xに基づいて、車両Vから運転者Mが視認する視認物体ELMまでの第1距離Deを求め、この第1距離Deに基づいて運転補助を実行している。これにより、運転補助を実行する際に考慮すべき対象物体を、運転者Mが視認物体ELMを注視している時の視線Xに基づいて正確に認識することができ、適切な運転補助を実行することが可能になる。
また、運転者Mの両眼の瞳孔の状態に基づいて、視認物体ELMまでの第1距離Deを求めることにより、上記対象物体までの距離をより高精度に判定することが可能になる。
但し、車線形状の違いや前方物体の状態等、車外走行環境の違いにより、第1距離Deよりも、第2距離Drを主体として運転補助を実行するのが適切な場合もある。
そこで、運転支援装置1は、車線形状を認識する前方撮影カメラ12と、車両Vの前方の走行環境を電波の反射により認識するレーダー装置14とを備え、道路形状(直線、カーブ形状)や前方物体への接近状態といった車外走行環境を認識するとともに、レーダー装置14から出力されるデータにより車両Vから前方物体PFMまでの第2距離Drを求め、第1距離Deに基づく運転補助と、第2距離Drに基づく運転補助とを、上記車外走行環境に基づいて選定している。
これにより、上記対象物体を、様々な車外走行環境に応じて的確に認識することができ、最適な運転補助を実行することが可能になる。
また、図8、図9に示すように、侵入物体iに対する上記緊急度が低い所定の車外走行環境時において、第1、第2距離De4、Driが実質的に不一致の時、視認物体ELM4を対象とした運転補助を優先することにより、上記対象物体をより高精度に認識することができる。
これにより、上記緊急度が低い状態であるにも関わらず、侵入物体iを上記対象物体として過剰な運転補助が実行されることを回避でき、過剰な運転補助による煩わしさを低減できる。
また、前方撮影カメラ12によって所定のカーブ形状を認識した時、第1距離Deを確定距離D0とすることにより、例えば、図6、図7に示すように、隣接する走行帯Z2に対向車(他車V3)が存在し、右カーブにより先行走行車両(他車V2)と他車V3とが略近づいて(略重なって)見える場合であっても、運転者Mは他車V2を視認する可能性が高いと判定し、他車V2を上記対象物体として運転補助を実行することができる。
ところで、上述したように、第1、第2距離De、Drが不一致となる場合としては、視認物体ELMと前方物体PFMとが視認面上で略近づいた(略重なった)場合以外に、例えば、運転者Mがよそ見をしている場合も考えられる。
そこで、本実施形態では、前方物体認識データにより前方物体の位置を認識するとともに、図6、図7に示すように、前方物体PFM2の移動軌跡と、視認物体ELM2の移動軌跡とが実質的に同じ状態の後、他車V2を注視したまま視線Xが実質的に変化せずに、第1、第2距離De2、Dr3が不一致となった時、第1距離De2を確定距離D0とし、視認物体ELM2を対象物体として運転補助を実行している。
このように、所定期間前までの視認物体ELM2及び前方物体PFM2の移動軌跡を解析することで、第1、第2距離De、Drが不一致となった原因を認識でき、その結果、車外走行環境の変化(例えば、視認物体ELM2と前方物体PFM3と視認面上で略近づいた(略重なった)状態)を高精度に認識することができる。このため、第1距離Deに基づく運転補助、第2距離Drに基づく運転補助の選定をより高精度に行うことが可能になる。
なお、本発明で言うところの運転補助は、ステップS12で実行される警報、ステップS13で実行される追従走行制御、及びステップS16で実行されるクルーズ走行制御に必ずしも限定されない。例えば、所定の認識手段により認識された車線に沿って車両を走行させる車線追従走行制御や、前照灯の光軸制御等であってもよい。
また、車両が目的地までの走行路を案内するナビゲーション装置を備えている場合であれば、該ナビゲーション装置の位置判定情報に基づいて車線形状を認識してもよい。
この発明の構成と、上述の実施形態との対応において、
この発明の、視線認識手段は、視線検出カメラ13、及びステップS4を実行するCPU10に対応し、
以下同様に、
運転補助手段は、ステップS6〜S16を実行するCPU10に対応し、
車外走行環境認識手段は、レーダー装置14、及びステップS3、S5を実行するCPU10に対応し、
第1運転補助部は、ステップS10〜S13を実行するCPU10に対応し、
第2運転補助部は、ステップS11〜S13、及びステップS15を実行するCPU10に対応し、
車線形状認識手段は、前方撮影カメラ12、及びステップS2を実行するCPU10に対応し、
距離確定部は、ステップS10、S15を実行するCPU10に対応するも、
この発明は、上述の実施形態の構成のみに限定されるものではなく、多くの実施の形態を得ることができる。
1…運転支援装置
10…CPU
12…前方撮影カメラ
13…視線検出カメラ
14…レーダー装置

Claims (6)

  1. 自車を運転する運転者の視線を認識する視線認識手段を備え、
    該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、
    上記視線認識手段は、運転者の両眼の視線に基づいて、自車から運転者が視認している視認物体までの第1距離を判定するとともに、
    上記第1距離に基づいて、運転を補助する運転補助手段を備え
    自車前方の車外走行環境を、電磁波の反射、または自車前方を撮影した撮影画像の処理により認識する車外走行環境認識手段を備え、
    該車外環境認識手段は、自車から上記前方物体までの第2距離の算出を行うとともに、
    上記運転補助手段は、上記第1距離に基づいて運転を補助する第1運転補助部と、
    上記第1距離よりも上記第2運転距離を主体とした距離に基づいて運転を補助する第2運転補助部とを備え、
    上記車外環境認識手段により認識した車外走行環境に基づいて、第1運転補助部による運転補助、第2運転補助部による運転補助のいずれかを選定する
    車両の運転支援装置。
  2. 上記視線認識手段は、両眼の瞳孔の状態に基づいて上記視認物体までの距離を判定する
    請求項1記載の車両の運転支援装置。
  3. 上記運転補助手段は、所定の車外走行環境時において、上記第1距離と上記第2距離とが実質的に不一致の時には、上記第1運転補助部による運転補助を優先する
    請求項1または2記載の車両の運転支援装置。
  4. 自車を運転する運転者の視線を認識する視線認識手段を備え、
    該視線認識手段により認識された視線情報に基づいて、自車の運転を支援する車両の運転支援装置であって、
    上記視線認識手段は、運転者の両眼の視線に基づいて、自車から運転者が視認している視認物体までの第1距離を判定するとともに、
    上記第1距離に基づいて、運転を補助する運転補助手段を備え、
    自車前方の車外走行環境を、電磁波の反射、または自車前方を撮影した撮影画像の処理により認識する車外走行環境認識手段と、
    自車前方の車線形状を認識する車線形状認識手段とを備え、
    上記車外走行環境認識手段は、自車から上記前方物体までの第2距離の算出を行うとともに、
    上記運転補助手段は、上記第1距離、若しくは上記第2距離に基づいて、自車から上記前方物体までの距離を確定する距離確定部を備え、
    該距離確定部は、上記車線形状認識手段による車線形状認識に基づき、上記車線形状が所定のカーブ形状と判定した場合には、上記第1距離を確定する
    車両の運転支援装置。
  5. 上記視線認識手段は、両眼の瞳孔の状態に基づいて上記視認物体までの距離を判定する
    請求項4記載の車両の運転支援装置。
  6. 上記車外走行環境認識手段は、更に前方物体の位置を認識するとともに、
    上記運転補助手段は、上記車外走行環境認識手段により認識した上記前方物体の位置の移動と、上記視線認識手段により認識した視認物体の位置の移動とが、実質的に同じ状態の後、上記視線が実質的に変化せずに、上記第1距離と上記第2距離とが実質的に不一致となった時、上記第1距離に基づいて運転を補助する
    請求項1〜5のいずれか一項に記載の車両の運転支援装置。
JP2010071376A 2010-03-26 2010-03-26 車両の運転支援装置 Expired - Fee Related JP5488105B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010071376A JP5488105B2 (ja) 2010-03-26 2010-03-26 車両の運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010071376A JP5488105B2 (ja) 2010-03-26 2010-03-26 車両の運転支援装置

Publications (2)

Publication Number Publication Date
JP2011204054A JP2011204054A (ja) 2011-10-13
JP5488105B2 true JP5488105B2 (ja) 2014-05-14

Family

ID=44880623

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010071376A Expired - Fee Related JP5488105B2 (ja) 2010-03-26 2010-03-26 車両の運転支援装置

Country Status (1)

Country Link
JP (1) JP5488105B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109562763A (zh) * 2016-08-09 2019-04-02 日产自动车株式会社 自动驾驶车辆的控制方法及控制装置

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6296684B2 (ja) * 2013-02-07 2018-03-20 三菱電機株式会社 運転支援装置
US9298994B2 (en) * 2014-01-09 2016-03-29 Harman International Industries, Inc. Detecting visual inattention based on eye convergence
TWI596580B (zh) * 2014-11-26 2017-08-21 Metal Ind Res And Dev Centre Obstacle warning system and its operation method
JP7068647B2 (ja) * 2017-03-07 2022-05-17 マツダ株式会社 運転支援装置
JP7064389B2 (ja) * 2018-06-07 2022-05-10 Jrcモビリティ株式会社 車両計測装置及び車両計測プログラム
WO2020170916A1 (ja) * 2019-02-22 2020-08-27 パナソニックIpマネジメント株式会社 状態検知装置及び状態検知方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11348696A (ja) * 1998-06-15 1999-12-21 Toyota Motor Corp 進行路形状推定装置及びこれを用いた走行支援装置
JP4815960B2 (ja) * 2005-09-09 2011-11-16 日産自動車株式会社 視認状態判断装置、自動車、及び視認状態判断方法
JP4926437B2 (ja) * 2005-09-28 2012-05-09 富士重工業株式会社 車両の運転支援装置
JP4420002B2 (ja) * 2006-09-14 2010-02-24 トヨタ自動車株式会社 視線先推定装置
JP4935571B2 (ja) * 2007-08-08 2012-05-23 株式会社デンソー 運転支援装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109562763A (zh) * 2016-08-09 2019-04-02 日产自动车株式会社 自动驾驶车辆的控制方法及控制装置
CN109562763B (zh) * 2016-08-09 2021-05-04 日产自动车株式会社 自动驾驶车辆的控制方法及控制装置

Also Published As

Publication number Publication date
JP2011204054A (ja) 2011-10-13

Similar Documents

Publication Publication Date Title
US10384681B2 (en) Vehicle cruise control device and cruise control method
US10486698B2 (en) Vehicle cruise control device and cruise control method
JP5488105B2 (ja) 車両の運転支援装置
US10013882B2 (en) Lane change assistance device
JP6507839B2 (ja) 車両の走行制御装置
US10037700B2 (en) Driving support apparatus for a vehicle
US20170329000A1 (en) Vehicle cruise control apparatus and vehicle cruise control method
JP6361366B2 (ja) 物体認識装置
US20160339919A1 (en) Lane merging determination apparatus
JP6363519B2 (ja) 車両制御装置
JP2016134092A (ja) 車両の走行制御装置
CN111226267A (zh) 驾驶辅助车辆的行驶控制方法及行驶控制装置
US10800395B2 (en) Driving assistance apparatus and driving assistance method
JP6430799B2 (ja) 車両の走行制御装置
CN107209998B (zh) 车道线识别装置以及车道线识别方法
WO2018173582A1 (ja) 運転支援装置
JP2014120111A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP6136238B2 (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
JP2016224712A (ja) 車両の運転支援装置、及び運転支援方法
JP2017186008A (ja) 情報表示システム
JP2011204053A (ja) 車両の運転支援装置
CN111373460A (zh) 车辆的物标检测装置
JP2014120113A (ja) 走行支援システム、走行支援方法及びコンピュータプログラム
US20230314158A1 (en) Vehicle drive assist apparatus
US20230141584A1 (en) Apparatus for displaying at least one virtual lane line based on environmental condition and method of controlling same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140210

R150 Certificate of patent or registration of utility model

Ref document number: 5488105

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees