JP2009110065A - 運転支援装置 - Google Patents

運転支援装置 Download PDF

Info

Publication number
JP2009110065A
JP2009110065A JP2007278894A JP2007278894A JP2009110065A JP 2009110065 A JP2009110065 A JP 2009110065A JP 2007278894 A JP2007278894 A JP 2007278894A JP 2007278894 A JP2007278894 A JP 2007278894A JP 2009110065 A JP2009110065 A JP 2009110065A
Authority
JP
Japan
Prior art keywords
information
driver
attention
feature
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007278894A
Other languages
English (en)
Inventor
Tetsuo Kurahashi
哲郎 倉橋
Takashi Machida
貴史 町田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2007278894A priority Critical patent/JP2009110065A/ja
Publication of JP2009110065A publication Critical patent/JP2009110065A/ja
Pending legal-status Critical Current

Links

Images

Abstract

【課題】運転者が見落としやすい対象物の検出して支援情報を提供することができる運転支援装置を提供する。
【解決手段】注意対象物特徴導出部46及び対象物特徴導出部48において、CCDカメラ16Aにより取得された状況情報に基づいて運転者が注意している注意対象物、及び車両の周辺の運転者が注意すべき対象物の特徴を示す特徴情報を対象物毎に導出し、類似判定部50において、注意対象物と各対象物の類似度を求めて特徴が類似するか否かを判定し、非類似と判定された対象物に関する情報を表示装置18に表示する。
【選択図】図3

Description

本発明は、運転支援装置に係り、特に、運転者が注意すべき対象物に関する情報を提供する運転支援装置に関する。
従来から運転者が注意すべき対象物に関する情報を提供することにより、運転者による車両の運転を支援する運転支援装置が各種提案されている。
例えば、特許文献1には、自車両の外部を撮影することにより得られた撮影画像から対象物を抽出して対象物の自車両に対する危険度を判定し、危険度が予め設定した所定値を超えた場合に対象物の画像を運転者の頭部に装着された副表示装置に表示する技術が開示されている。
また、特許文献2には、車両の位置情報を少なくとも含む車両情報を検出すると共に、運転者の視線を検出し、検出された車両情報及び運転者の視線に関する視線情報を通信手段を介して自車両周辺の他車両に送信し、他車両から受信される視線情報に基づいて他車両の運転者の視線が自車両に向けられているか否かを判定し、他車両の運転者の視線が自車両に向けられていないと判定される場合に通知を行なう技術が開示されている。
さらに、この運転者の視線に基づいて対象物を特定する技術として、特許文献3には、運転者の頭部運動及び眼球運動を検出し、頭部運動及び眼球運動の検出値に基づいて運転者の姿勢変化に対応した視線軸を算出し、撮像手段の撮像軸を基準とする撮像画像データを、運転者の視線軸を基準とする視野画像データに射影変換して運転者の視線の挙動を認識することにより、運転者の姿勢変化による運転者が注目する対象物の特定精度の低下を抑制する技術が開示されている。
特開2006−40123号公報 特開2006−268475号公報 特開2007−3462号公報
ところで、上記特許文献1〜特許文献3の技術を用いて、例えば、運転者の顔の向きや視線を検出すると共に、自車両の外部を撮影することにより得られた撮影画像から運転者が注意すべき対象物を抽出し、運転者の視線が向けられていない対象物に関する情報を支援情報として運転者に提供した場合、交通状況が複雑となるにつれ支援情報が過多となる。また、運転者が気づくことができる対象物であるにも関わらず、視線が向いていないために支援情報が提供されてしまい、運転者が見落としやすい対象物に十分に注意を促すことができない、という問題点があった。
本発明は上記問題点を解決するためになされたものであり、運転者が見落としやすい対象物の検出して支援情報を提供することができる運転支援装置を提供することを目的とする。
上記目的を達成するため、請求項1に記載の発明は、車両を運転する運転者の視線方向を検出する視線検出手段と、前記車両の周辺状況を示す状況情報を取得する取得手段と、前記取得手段により取得された状況情報により示される周辺状況から前記運転者が注意すべき対象物を抽出する抽出手段と、前記取得手段により取得された状況情報、及び前記視線検出手段により検出された視線方向に基づいて前記運転者が注意している注意対象物を特定する特定手段と、前記取得手段により取得された状況情報に基づいて前記特定手段により特定された注意対象物、及び前記抽出手段により抽出された対象物の特徴を示す特徴情報を対象物毎に導出する導出手段と、前記導出手段により導出された注意対象物及び対象物の特徴情報から前記注意対象物と各対象物の類似度を求めて特徴が類似するか否かを判定する判定手段と、前記判定手段により非類似と判定された対象物に関する情報を前記運転者に対して提供する提供手段と、を備えている。
請求項1記載の発明では、視線検出手段により、車両を運転する運転者の視線方向が検出され、取得手段により、車両の周辺状況を示す状況情報が取得されており、抽出手段により、取得手段により取得された状況情報により示される周辺状況から運転者が注意すべき対象物が抽出されると共に、特定手段により、取得手段により取得された状況情報、及び視線検出手段により検出された視線方向に基づいて運転者が注意している注意対象物が特定される。
そして、本発明では、導出手段により、取得手段により取得された状況情報に基づいて前記特定手段により特定された注意対象物、及び前記抽出手段により抽出された対象物の特徴を示す特徴情報が対象物毎に導出され、判定手段により、導出手段により導出された注意対象物及び対象物の特徴情報から注意対象物と各対象物の類似度が求められて特徴が類似するか否かが判定され、提供手段により、判定手段により非類似と判定された対象物に関する情報が運転者に対して提供される。
このように、請求項1記載の発明によれば、運転者が注意している注意対象物と運転者が注意すべき各対象物の類似度を求めて特徴が類似するか否かを判定し、非類似と判定された対象物に関する情報を運転者に対して提供しているので、運転者が見落としやすい対象物の検出して支援情報を提供することができ、これにより、運転者のより自然な気づきを支援することができる。
なお、本発明は、請求項2記載の発明のように、前記取得手段が、前記状況情報として、前記車両の周辺を撮像することにより画像情報を取得し、前記導出手段が、前記取得手段により取得された画像情報により示される画像から前記対象物の視覚的な特徴を示す特徴情報を導出し、前記判定手段が、前記対象物毎の特徴情報に基づいて前記注意対象物と各対象物が視覚的に類似するか否かを判定してもよい。
また、請求項2記載の発明は、請求項3記載の発明のように、前記導出手段が、前記特徴情報として、前記取得手段により取得された画像情報により示される画像において、前記対象物毎に当該対象物に対応する領域のエッジとなる部分の接線の傾きを所定部分毎に求めて当該傾き別に当該部分数をカウントした傾き情報、前記対象物毎に当該対象物に対応する領域の輝度を所定部分毎に求めて輝度別に当該部分数をカウントした輝度情報、前記対象物毎に当該対象物に対応する領域の色相を所定部分毎に求めて色相別に当該部分数をカウントした色相情報、及び前記対象物毎に当該対象物に対応する領域が経時的に所定方向に対して移動する移動量を所定部分毎に求めて移動量別に当該部分数をカウントした移動量情報、の少なくとも1つを導出してもよい。
また、本発明の特定手段は、請求項4記載の発明のように、前記抽出手段により抽出された対象物のうち、前記視線方向に対して他の対象物の陰とならずに所定時間以上前記視線方向に存在する対象物を前記注意対象物と特定してもよい。
また、本発明は、請求項5記載の発明のように、前記運転者による前記車両の運転操作状況を検出する操作状況検出手段をさらに備え、前記特定手段が、前記抽出手段により抽出された対象物のうち、前記視線方向に存在しており、前記操作状況検出手段により当該対象物との衝突を回避する運転操作が検出された対象物を前記注意対象物と特定してもよい。
以上説明したように、本発明によれば、運転者が注意している注意対象物と運転者が注意すべき各対象物の類似度を求めて特徴が類似するか否かを判定し、非類似と判定された対象物に関する情報を運転者に対して提供しているので、運転者が見落としやすい対象物の検出して支援情報を提供することができる、という優れた効果を有する。
以下、図面を参照して本発明の実施の形態について詳細に説明する。
図1には、本実施の形態に係る運転支援装置10の概略構成が示されている。
同図に示すように、運転支援装置10は、運転者による自車両の運転操作量を取得する運転操作量取得装置12と、運転者の視線を計測する視線計測装置14と、自車両の周辺状況を示す状況情報を取得する周辺状況取得装置16と、周辺状況取得装置16によって得られた状況情報により示される周辺状況から運転者が注意すべき対象物を抽出し、運転操作量取得装置12及び視線計測装置14により得られた情報に基づいて運転者が見落としやすい対象物を特定する装置本体20と、特定された対象物に関する情報を運転者に対して提供するための表示装置18と、を備えている。
本実施の形態に係る運転操作量取得装置12は、ステアリング、ウィンカ、アクセルペダル、ブレーキペダル、シフトポジション、ワイパ、その他、車内におけるオーディオ、カーナビ、エアコン等の設けられた各種のセンサと接続されており、運転者による操作状況を検出している。例えば、運転操作量取得装置12は、自車両のステアリングシャフトに設けられた、図示しない角度センサからステアリングの操舵角に応じた信号が入力しており、入力した当該信号に基づいてステアリングの操舵角を検出する。運転操作量取得装置12は、検出した各種の操作状況を示す操作状況情報を出力する。
本実施の形態に係る視線計測装置14は、運転者に対して赤外線を照射する赤外線照射器14Aと、運転者の顔を含む所定領域を連続的に撮影するCCD(Charge Coupled Device)カメラ14Bと、を含んで構成されており、CCDカメラ14Bは、撮影を行う毎に、撮影した画像を示す画像情報を出力する。
周辺状況取得装置16は、車両の周辺を撮像するCCDカメラ16Aとして構成されている。CCDカメラ16Aは、撮影を行う毎に、撮影した画像を示す画像情報を出力する。
図2には、本実施の形態に係る装置本体20の構成が示されている。
同図に示すように、装置本体20は、全体の動作を司るCPU(中央処理装置)22と、CPU22による各種処理プログラムの実行時のワークエリア等として用いられるRAM(Random Access Memory)24と、後述する運転支援処理プログラムを含む各種制御プログラムや各種パラメータ等が予め記憶されたROM(Read Only Memory)26と、各種情報を記憶して保持する不揮発性メモリ28と、運転操作量取得装置12、視線計測装置14、及び周辺状況取得装置16より出力された各種の情報が入力する入力インタフェース30と、表示装置18を制御するための表示制御部32と、を備えている。
さらに、本実施の形態に係る入力インタフェース30には、図示しない外部のGPS装置から自車両の位置を示す位置情報、及び地図情報が入力している。
CPU22、RAM24、ROM26、不揮発性メモリ28、入力インタフェース30、及び表示制御部32は、システムバスBUSを介して相互に接続されている。
従って、CPU22は、RAM24、ROM26、及び不揮発性メモリ28に対するアクセスと、表示制御部32を介した表示装置18に対する各種情報の表示の制御と、を各々行うことができる。また、CPU22は、入力インタフェース30より入力される各種情報を把握することができる。
図3には、本実施の形態に係る運転支援装置10の機能的な構成を示す機能ブロック図が示されている。
同図に示されるように、運転支援装置10は、CCDカメラ14Bによる撮影によって得られた画像情報に基づいて運転者の視線方向を検出する視線方向検出部40と、CCDカメラ16Aによる撮影によって得られた画像情報に基づいて車両周辺の運転者が注意すべき対象物を抽出する対象物抽出部42と、CCDカメラ16Aによる撮影によって得られた画像情報、及び視線方向検出部40により検出された視線方向に基づいて運転者が注意している注意対象物を特定する注意対象特定部44と、CCDカメラ16Aによる撮影によって得られた画像情報に基づいて注意対象特定部44により特定された注意対象物の特徴を示す特徴情報を導出する注意対象物特徴導出部46と、CCDカメラ16Aによる撮影によって得られた画像情報に基づいて対象物抽出部42により抽出された対象物の特徴を示す特徴情報を対象物毎に導出する対象物特徴導出部48と、注意対象物特徴導出部46及び対象物特徴導出部48により各々導出された注意対象物、及び対象物毎の特徴情報から注意対象物と各対象物の類似度を求めて特徴が類似するか否かを判定する類似判定部50と、類似判定部50により非類似と判定された対象物に関する情報を表示装置18に表示する制御を行なう表示制御部52と、を備えている。
なお、本実施の形態に係る視線方向検出部40は、CCDカメラ14Bから画像情報が入力する毎に、例えば、当該画像情報により示される画像から運転者の瞳孔中心及び赤外線照射による角膜反射中心点を特定する。そして、視線方向検出部40は、特定した瞳孔中心及び角膜反射中心点の位置に基づいて視線方向を検出する。なお、視線方向を検出する構成・手法はこれに限定されるものではなく、例えば、特許文献2や特許文献3に記載の構成・手法により検出してもよい。
本実施の形態に係る対象物抽出部42は、CCDカメラ16Aによる撮影によって得られた画像情報に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行い、二次元配列の画素からなる画像情報を生成する。そして、対象物抽出部42は、生成した画像情報に対して、例えば他車両や歩行者や標識等を運転者が注意すべき対象物とした特徴量算出および形状判別等の認識処理を行うことにより対象物を抽出する。なお、画像情報の認識処理において、特徴量算出の処理では、例えば二値化処理後の画像情報に対して、画素の連続性に基づく運転者が注意すべき対象物の抽出およびラベリングを行い、抽出した対象物の重心および面積および外接四角形の縦横比等を算出する。また、形状判別の処理では、例えば、注意すべき対象物毎に所定パターン(例えば輪郭等)を予め記憶しておき、当該所定パターンに基づき画像情報上の検索を行い、所定パターンとの類似性に応じて対象物を抽出する。
本実施の形態に係る注意対象特定部44は、CCDカメラ16Aによる撮影によって得られた画像情報に対して、上記対象物抽出部42と同様に、所定の画像処理を行った後に認識処理を行うことにより対象物を抽出する。そして、注意対象特定部44は、抽出された対象物のうち、視線方向に対して他の対象物の陰とならずに所定時間(例えば、3秒)以上視線方向に存在する対象物や、抽出された対象物のうち、視線方向に存在しており、運転操作量取得装置12により当該対象物との衝突を回避する運転操作(例えば、ブレーキ操作や対象物を避けるようなステアリング操作)が検出された対象物を注意対象物と特定する。なお、注意対象物を特定する構成・手法はこれに限定されるものではなく、例えば、特許文献2や特許文献3に記載の構成・手法により特定してもよい。
本実施の形態に係る注意対象物特徴導出部46は、CCDカメラ16Aによる撮影によって得られた画像情報により示される画像から注意対象特定部44により特定された注意対象物の視覚的な特徴を示す特徴情報を導出する。
この特徴情報は、人間の視覚特性を考慮して注意対象物の特徴をベクトルとして表したものである。この特徴情報としては、例えば、CCDカメラ16Aによる撮影によって得られた画像情報により示される画像において、図4(A)に示すように、注意対象物に対応する領域のエッジとなる部分の接線の傾きを所定部分毎に求めて、図4(B)に示すように、当該傾き別に当該部分数をカウントした傾き情報や、図5(A)に示すように、注意対象物に対応する領域の輝度を所定部分毎に求めて、図5(B)に示すように、輝度別に当該部分数をカウントした輝度情報、図6(A)に示すように、注意対象物に対応する領域の色相を所定部分毎に求めて、図6(B)に示すように、色相別に当該部分数をカウントした色相情報、図7(A)に示すように、注意対象物に対応する領域が経時的に所定方向(本実施の形態では、横方向(X方向)及び縦方向(Y方向))に対して移動する移動量を所定部分毎に求めて、図7(B)(C)に示すように、当該方向毎に移動量別に当該部分数をカウントした移動量情報が例示できる。なお、この所定部分としては、例えば、2×2画素単位や2×4画素単位としてもよく、また、1画素単位としてもよい。所定部分が複数画素により構成される場合、輝度及び色相は、複数画素の平均値であってもよく、また、最大値、又は最小値であってもよい。さらに、傾き情報、輝度情報、色相情報、移動量情報などの各情報を導出する単位で、所定部分のサイズを変更してもよい。
本実施の形態に係る注意対象物特徴導出部46は、視覚的な特徴を示す特徴情報として、傾き情報、輝度情報、色相情報、移動量情報を導出するものとするが、少なくとも1つ導出すればよい。
本実施の形態に係る対象物特徴導出部48は、CCDカメラ16Aによる撮影によって得られた画像情報により示される画像から、上記注意対象物特徴導出部46と同様に、対象物抽出部42により抽出された対象物の特徴を示す特徴情報を対象物毎に導出する。
本実施の形態に係る類似判定部50は、注意対象物特徴導出部46及び対象物特徴導出部48により各々導出された注意対象物、及び対象物毎の特徴情報を、特徴情報の各値を成分する特徴ベクトルとし、ベクトル空間上での注意対象物と対象物の特徴ベクトル間のユークリッド距離やマハラノビス距離を類似度として求め、当該距離が所定の閾値以下であるか否かにより特徴が類似するか否かを判定する。なお、上記所定の閾値としては、人間の視覚的に類似とを判別できる距離を実際の人間の視覚による実験や、コンピュータ・シミュレーション等によって得たものを適用している。この所定の閾値は、例えば、人や車など注意対象物とされた対象物毎に変化させてもよく、また、運転者によって類似の判断が若干変化するため、運転者に応じて変化させてもよい。
すなわち、本実施の形態では、傾き情報の各カウント値を各傾きをそれぞれ軸として配置した傾きベクトル、輝度情報の各カウント値を各輝度をそれぞれ軸として配置した輝度ベクトル、輝度情報の各カウント値を各輝度をそれぞれ軸として配置した輝度ベクトル、色相情報の各カウント値を各色相をそれぞれ軸として配置した色相ベクトル、及び移動量情報の各カウント値を各移動量をそれぞれ軸として配置した移動量ベクトルの各ベクトルを独立に加え合わせて拡張した軸によって示されるベクトル空間によって特徴ベクトルを示している
この特徴ベクトルの大きさは、人間の視覚的に対象物に導かれる誘目性の大きさを示しており、図8に示すように、当該ベクトル空間上での注意対象物と対象物の特徴ベクトルのユークリッド距離やマハラノビス距離が視覚的な類似度を示している。
本実施の形態に係る表示制御部52は、類似判定部50により非類似と判定された対象物の位置に関する情報を表示装置18に表示させることにより運転者に対して支援情報の提供を行なう。
ところで、以上のように構成された運転支援装置10の各構成要素(視線方向検出部40、対象物抽出部42、注意対象特定部44、注意対象物特徴導出部46、対象物特徴導出部48、類似判定部50、及び表示制御部52)による処理は、プログラムを実行することにより、コンピュータを利用してソフトウェア構成により実現することができる。但し、ソフトウェア構成による実現に限られるものではなく、ハードウェア構成や、ハードウェア構成とソフトウェア構成の組み合わせによって実現することもできることは言うまでもない。
以下では、本実施の形態に係る運転支援装置10が、運転支援処理プログラムを実行することにより上記各構成要素による処理を実現するものとされている場合について説明する。この場合、当該運転支援処理プログラムをROM26や不揮発性メモリ28に予めインストールしておく形態や、コンピュータ読み取り可能な記録媒体に格納された状態で提供される形態、有線又は無線による通信手段を介して配信される形態等を適用することができる。
次に、図9を参照して、本実施の形態に係る運転支援装置10の作用を説明する。なお、図9は、CPU22により実行される運転支援処理プログラムの処理の流れを示すフローチャートである。当該運転支援処理プログラムは、例えば、運転支援装置10が搭載された車両のエンジンスイッチがオンされるなどによって図示しない車両制御装置から処理開始の指示信号が受信されるとCPU22により実行される。
同図のステップ100では、CCDカメラ14Bからの画像情報の入力待ちを行っており、次のステップ102では、CCDカメラ14Bから入力された画像情報により示される画像から運転者の瞳孔中心及び赤外線照射による角膜反射中心点を特定し、特定した瞳孔中心及び角膜反射中心点の位置に基づいて運転者の視線方向を検出する。
次のステップ104では、CCDカメラ16Aからの画像情報の入力待ちを行っており、次のステップ106では、CCDカメラ16Aから入力された画像情報に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行なって二次元配列の画素からなる画像情報を生成し、生成した画像情報に対して、特徴量算出および形状判別等の認識処理を行うことにより車両周辺の運転者が注意すべき対象物を抽出する。
次のステップ108では、CCDカメラ16Aから入力された画像情報に対して、例えばフィルタリングや二値化処理等の所定の画像処理を行った後に特徴量算出および形状判別等の認識処理を行うことにより対象物を抽出し、上記ステップ102において検出された視線方向に基づいて運転者が注意している注意対象物を特定する。
次のステップ110では、CCDカメラ16Aから入力された画像情報により示される画像から上記ステップ108において特定された注意対象物の視覚的な特徴を示す特徴情報を導出する。
次のステップ112では、CCDカメラ16Aから入力された画像情報により示される画像から上記ステップ106において抽出された対象物の特徴を示す特徴情報を対象物毎に導出する。
次のステップ114では、上記ステップ110及び上記ステップ112において各々導出された注意対象物、及び対象物毎の特徴情報を、特徴情報の各値を成分する特徴ベクトルとし、ベクトル空間上での注意対象物と対象物の特徴ベクトル間のユークリッド距離を求め、当該距離が所定の閾値以下であるか否かにより特徴が類似するか否かを判定する。
次のステップ116では、上記ステップ114による判定により非類似と判定された対象物の位置に関する情報を表示装置18に表示させる。
次のステップ118では、例えば、車両のエンジンスイッチがオフされるなどによって図示しない車両制御装置から処理終了の指示信号が入力したか否かを判定し、否定判定となった場合はステップ100へ移行する一方、肯定判定となった場合は本運転支援処理プログラムの処理が処理終了となる。
これにより、例えば、図10に示すような状況の場合、自車両80の運転者の視線方向が破線に示すように検出される。また、歩行者82が注意対象物として特定され、車両84、歩行者86が運転者が注意すべき対象物として抽出される。
そして、歩行者82と歩行者86は視覚的な特徴が類似と判定されて、当該歩行者86に関する情報は提供されず、歩行者82と車両84は視覚的な特徴が非類似と判定されて車両84に関する情報は提供される。
すなわち、歩行者82と歩行者86は視覚的な特徴が類似し、運転者が気づき易いため、歩行者86に関する情報は提供されず、運転者が見落としやすい車両84に関する情報が提供される。
以上のように、本実施の形態によれば、運転者が注意している注意対象物と運転者が注意すべき各対象物の類似度を求めて特徴が類似するか否かを判定し、非類似と判定された対象物に関する情報を運転者に対して提供しているので、運転者が見落としやすい対象物の検出して支援情報を提供することができ、運転者のより自然な気づきを支援することができる。
なお、本実施の形態では、非類似と判定された対象物の位置に関する情報を表示装置18に表示させる場合について説明したが、本発明はこれに限定されるものではなく、例えば、特許文献1に記載のような、表示面が透過性を有し、運転者が頭部に装着して表示面を透過して外部を視認する表示装置において、表示面の非類似と判定された対象物と重なる領域に強調表示等を行なうものとしてもよい。
また、表示装置18に表示させるのみでなく、音声等により運転者に情報を提供するものとしもよい。
また、非類似と判定された対象物の挙動及び自車両の挙動から、自車両が現状の挙動を維持した場合の衝突の可能性を判定し、衝突する可能性が高い場合、ブレーキアシストや制動介入などの車両制御を行なうものとしもよい。
また、本実施の形態では、車両の周辺状況を、CCDカメラ16Aにより撮像することにより取得する場合について説明したが、本発明はこれに限定されるものではなく、例えば、レーザレーダ等によるスキャン動作により車両の周辺状況を取得し、周辺の対象物の形状や挙動等から対象物を抽出するものとしてもよい。
また、通信手段を介して自車両の外部から車両の周辺状況を示す状況情報を取得するものとしてもよい。
また、本実施の形態では、注意対象物特徴導出部46及び対象物特徴導出部48によりそれぞれ特徴情報を導出する場合について説明したが、本発明はこれに限定されるものではなく、例えば、1つの特徴導出部により、注意対象物の視覚的な特徴を示す特徴情報及び対象物抽出部42により抽出された対象物の特徴を示す特徴情報を各々導出するように構成してもよい。
また、本実施の形態では、対象物抽出部42は、CCDカメラ16Aによる撮影によって得られた画像情報により示される画像の全領域から運転者が注意すべき対象物を抽出するものとした場合について説明したが、本発明はこれに限定されるものではなく、例えば、視線方向検出部40により検出された視線方向の所定の範囲を注意すべき対象物の抽出対象外としてもよい。
その他、本実施の形態で説明した運転支援装置10の構成(図1及び図2参照。)、及び運転支援装置10の機能的な構成(図3参照。)は一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
また、本実施の形態で説明した運転支援処理プログラム(図9参照。)の処理の流れも一例であり、本発明の主旨を逸脱しない範囲内において適宜変更可能であることは言うまでもない。
実施の形態に係る運転支援装置の全体構成を示すブロック図である。 実施の形態に係る装置本体の構成を示すブロック図である。 実施の形態に係る運転支援装置の機能的な構成を示すブロック図である。 実施の形態に係る傾き情報の導出の説明に供する図である。 実施の形態に係る輝度情報の導出の説明に供する図である。 実施の形態に係る色相情報の導出の説明に供する図である。 実施の形態に係る移動量情報の導出の説明に供する図である。 実施の形態に係る特徴ベクトルのベクトル空間を概念的に示した図である。 実施の形態に係る運転支援処理プログラムの処理の流れを示すフローチャートである。 実施の形態に係る交差点における歩行者と車両との位置関係の一例を示す図である。
符号の説明
10 運転支援装置
12 運転操作量取得装置(操作状況検出手段)
14 視線計測装置
16A CCDカメラ(取得手段)
18 表示装置(提供手段)
40 視線方向検出部(視線検出手段)
42 対象物抽出部(抽出手段)
44 注意対象特定部(特定手段)
46 注意対象物特徴導出部(導出手段)
48 対象物特徴導出部(導出手段)
50 類似判定部(判定手段)

Claims (5)

  1. 車両を運転する運転者の視線方向を検出する視線検出手段と、
    前記車両の周辺状況を示す状況情報を取得する取得手段と、
    前記取得手段により取得された状況情報により示される周辺状況から前記運転者が注意すべき対象物を抽出する抽出手段と、
    前記取得手段により取得された状況情報、及び前記視線検出手段により検出された視線方向に基づいて前記運転者が注意している注意対象物を特定する特定手段と、
    前記取得手段により取得された状況情報に基づいて前記特定手段により特定された注意対象物、及び前記抽出手段により抽出された対象物の特徴を示す特徴情報を対象物毎に導出する導出手段と、
    前記導出手段により導出された注意対象物及び対象物の特徴情報から前記注意対象物と各対象物の類似度を求めて特徴が類似するか否かを判定する判定手段と、
    前記判定手段により非類似と判定された対象物に関する情報を前記運転者に対して提供する提供手段と、
    を備えた運転支援装置
  2. 前記取得手段は、前記状況情報として、前記車両の周辺を撮像することにより画像情報を取得し、
    前記導出手段は、前記取得手段により取得された画像情報により示される画像から前記対象物の視覚的な特徴を示す特徴情報を導出し、
    前記判定手段は、前記対象物毎の特徴情報に基づいて前記注意対象物と各対象物が視覚的に類似するか否かを判定する
    請求項1記載の運転支援装置。
  3. 前記導出手段は、前記特徴情報として、前記取得手段により取得された画像情報により示される画像において、前記対象物毎に当該対象物に対応する領域のエッジとなる部分の接線の傾きを所定部分毎に求めて当該傾き別に当該部分数をカウントした傾き情報、前記対象物毎に当該対象物に対応する領域の輝度を所定部分毎に求めて輝度別に当該部分数をカウントした輝度情報、前記対象物毎に当該対象物に対応する領域の色相を所定部分毎に求めて色相別に当該部分数をカウントした色相情報、及び前記対象物毎に当該対象物に対応する領域が経時的に所定方向に対して移動する移動量を所定部分毎に求めて移動量別に当該部分数をカウントした移動量情報、の少なくとも1つを導出する
    請求項2記載の運転支援装置。
  4. 前記特定手段は、前記抽出手段により抽出された対象物のうち、前記視線方向に対して他の対象物の陰とならずに所定時間以上前記視線方向に存在する対象物を前記注意対象物と特定する
    請求項1〜請求項3の何れか1項記載の運転支援装置。
  5. 前記運転者による前記車両の運転操作状況を検出する操作状況検出手段をさらに備え、
    前記特定手段は、前記抽出手段により抽出された対象物のうち、前記視線方向に存在しており、前記操作状況検出手段により当該対象物との衝突を回避する運転操作が検出された対象物を前記注意対象物と特定する
    請求項1〜請求項3の何れか1項記載の運転支援装置。
JP2007278894A 2007-10-26 2007-10-26 運転支援装置 Pending JP2009110065A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007278894A JP2009110065A (ja) 2007-10-26 2007-10-26 運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007278894A JP2009110065A (ja) 2007-10-26 2007-10-26 運転支援装置

Publications (1)

Publication Number Publication Date
JP2009110065A true JP2009110065A (ja) 2009-05-21

Family

ID=40778529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007278894A Pending JP2009110065A (ja) 2007-10-26 2007-10-26 運転支援装置

Country Status (1)

Country Link
JP (1) JP2009110065A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104512337A (zh) * 2013-10-04 2015-04-15 本田技研工业株式会社 车辆周围显示装置
WO2021230049A1 (ja) * 2020-05-12 2021-11-18 株式会社Nttドコモ 情報通知システム

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104512337A (zh) * 2013-10-04 2015-04-15 本田技研工业株式会社 车辆周围显示装置
CN104512337B (zh) * 2013-10-04 2017-03-29 本田技研工业株式会社 车辆周围显示装置
WO2021230049A1 (ja) * 2020-05-12 2021-11-18 株式会社Nttドコモ 情報通知システム
JPWO2021230049A1 (ja) * 2020-05-12 2021-11-18

Similar Documents

Publication Publication Date Title
US20210056850A1 (en) Drive assist device
JP5406328B2 (ja) 車両用表示装置、その制御方法及びプログラム
US10009580B2 (en) Method for supplementing a piece of object information assigned to an object and method for selecting objects in surroundings of a vehicle
JP6350145B2 (ja) 顔向き検出装置及び車両用警告システム
JP4872245B2 (ja) 歩行者認識装置
EP2352136A1 (en) System for monitoring the area around a vehicle
JP4263737B2 (ja) 歩行者検知装置
JP5482737B2 (ja) 視認負荷量推定装置、運転支援装置、および視認負荷量推定プログラム
JP4171501B2 (ja) 車両の周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP5895941B2 (ja) 画像表示装置及び画像表示方法
US10618467B2 (en) Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle
JPWO2011108218A1 (ja) 車両の周辺監視装置
JPWO2013046407A1 (ja) 画像表示装置及び画像表示方法
JP2008027309A (ja) 衝突判定システム、及び衝突判定方法
JP2010191793A (ja) 警告表示装置及び警告表示方法
JP2010026601A (ja) 車両周辺監視装置
JP2007334511A (ja) 対象物検出装置、車両、対象物検出方法、並びに対象物検出用プログラム
KR101730740B1 (ko) 운전지원장치
JP5192007B2 (ja) 車両の周辺監視装置
JP4701961B2 (ja) 歩行者検知装置
JP5445719B2 (ja) 画像表示装置及び画像表示方法
JP2011103058A (ja) 誤認識防止装置
CN109823344B (zh) 驾驶提示方法与系统
JP2009110065A (ja) 運転支援装置