JP2010108182A - 車両の運転支援装置 - Google Patents

車両の運転支援装置 Download PDF

Info

Publication number
JP2010108182A
JP2010108182A JP2008278719A JP2008278719A JP2010108182A JP 2010108182 A JP2010108182 A JP 2010108182A JP 2008278719 A JP2008278719 A JP 2008278719A JP 2008278719 A JP2008278719 A JP 2008278719A JP 2010108182 A JP2010108182 A JP 2010108182A
Authority
JP
Japan
Prior art keywords
image
vehicle
pseudo
imaging
driving support
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008278719A
Other languages
English (en)
Other versions
JP5004923B2 (ja
Inventor
Masato Watanabe
正人 渡辺
Yukihiro Matsuda
幸大 松田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2008278719A priority Critical patent/JP5004923B2/ja
Publication of JP2010108182A publication Critical patent/JP2010108182A/ja
Application granted granted Critical
Publication of JP5004923B2 publication Critical patent/JP5004923B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】撮像手段による撮像が不能となったときに、表示画像のフリーズにより運転者に違和感を与えることを緩和した車両の運転支援装置を提供する。
【解決手段】対象物画像抽出手段20により抽出された画像部分に対応する実空間上の対象物と、車両との相対速度を算出する相対速度算出手段24と、赤外線カメラ2R,2Lによる撮像が不能となったときに、画像メモリ28に保持された過去の画像のデータと、相対速度算出手段24により算出された相対速度とに基づいて、赤外線カメラ2R,2Lによる撮像が不能な期間における対象物の画像部分の変化を推定して表した擬似画像を生成し、該擬似画像を表示装置9に表示する擬似画像表示手段25とを備える。
【選択図】 図1

Description

本発明は、車両に搭載された撮像手段により撮像された画像を表示して、車両の周辺に存在する対象物を運転者に認識させる車両の運転支援装置に関する。
従来より、車両に搭載された赤外線カメラより撮像された車両前方の画像を、ナビゲーションシステムの表示部等に表示することによって、夜間走行時に、運転者に対して車両周辺に存在する歩行者等を認識させるようにした車両の運転支援装置が知られている(例えば、特許文献1参照)。
また、カメラの撮像素子は温度等により感度特性が変化するため、例えば、赤外線カメラにおいて、定期的に撮像素子の感度を再設定するキャリブレーションを行なうことが知られている(例えば、特許文献2参照)。キャリブレーションは、カメラのシャッターを閉じて撮像素子への入光が遮断された状態とし、この状態での撮像素子による撮像画像の輝度が一定となるように撮像素子の感度を設定して行われる。
特開2001−6096号公報 米国特許第6929410B2号公報
上述したように、運転者が表示部に表示される車両前方の画像を確認しながら車両を運転しているときに、赤外線カメラのキャリブレーションが実行されると、シャッターが閉じられて赤外線カメラによる撮像ができなくなる。そして、この場合には、それまで車両の走行に応じて変化していた表示部の画像が、突然更新されない状態(フリーズ状態)となるため、運転者に違和感を与えるおそれがある。
なお、このように、赤外線カメラによる撮像が不能となる状況は、キャリブレーションが実行されたとき以外にも、例えば、赤外線カメラへの同期信号の抜けが発生した場合にも生じる。
そこで、本発明は、撮像手段による撮像が不能となったときに、表示画像のフリーズにより運転者に違和感を与えることを緩和した車両の運転支援装置を提供することを目的とする。
車両に搭載された撮像手段により撮像された車両周辺の画像を、該車両に搭載された表示手段に表示する車両の運転支援装置の改良に関する。
そして、前記撮像手段により撮像された画像のデータを保持する画像メモリと、前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物画像抽出手段と、前記対象物画像抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、前記撮像手段による撮像が不能となったときに、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像を生成し、該擬似画像を前記表示手段に表示する擬似画像表示手段とを備えたことを特徴とする。
かかる本発明によれば、前記撮像手段による撮像が不能となったときに、前記擬似画像表示手段により、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像が生成される。そして、このように、前記車両と対象物との相対速度に基づいて、前記対象物の画像部分の変化を推定して表した前記擬似画像は、前記撮像手段による撮像が不能とならなかったときに、前記撮像手段により撮像される画像に近似するものとなる。そのため、前記撮像手段による撮像が不能となったときに、前記擬似画像表示手段により前記擬似画像を生成して前記表示手段に表示することによって、前記撮像手段による撮像が不能である間も、前記表示手段に表示される画像を変化させて運転者に視認させることができる。そのため、前記撮像手段による撮像が不能である間に、運転者に対して、表示画像がフリーズすることによる違和感を与えることを緩和することができる。
また、前記車両の走行速度を検出する車速検出手段を備え、前記擬似画像表示手段は、前記画像メモリに保持された過去の画像のデータのうち、対象物の画像部分を前記相対速度算出手段により算出された相対速度に基づいて拡大又は縮小した第1の推定画像と、対象物の画像部分以外の背景画像の変化を前記車速検出手段により検出された前記車両の走行速度に基づいて拡大又は縮小した第2の推定画像とを合成して、前記擬似画像を生成することを特徴とする。
かかる本発明によれば、前記撮像手段により撮像される画像における前記対象物の画像部分の大きさは、前記対象物と前記車両との相対速度に応じて拡大又は縮小する。それに対して、前記対象物の画像部分以外の背景画像については、前記車両の走行速度に応じて拡大または縮小する。このように、前記対象物の画像部分とそれ以外の背景画像では、大きさの変化の仕方が相違する。
そこで、前記擬似画像表示手段は、前記対象物の画像部分については、前記対象物と前記車両との相対速度に基づいて拡大又は縮小した前記第1の推定画像を生成し、前記対象物の画像部分以外の背景画像については、前記車両の走行速度に基づいて拡大又は縮小した前記第2の推定画像を生成して、前記第1の推定画像と前記第2の推定画像とを合成して前記擬似画像を生成する。そして、これにより、前記擬似画像を、前記撮像手段による撮像が可能な場合に撮像される画像に近づけて、運転者に違和感を与えることを一層緩和することができる。
また、前記車両の水平方向の変化と鉛直方向の変化とのうちの少なくともいずれか一方を、前記車両の挙動として検出する車両挙動検出手段を備え、前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第1の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする。
かかる本発明によれば、前記車両挙動検出手段により検出される前記車両の挙動に応じて、前記第1の推定画像と前記第2の推定画像との合成画像における前記第1の推定画像の位置を、前記車両の挙動に応じて変更することによって、前記擬似画像を、前記撮像手段による撮像が可能な場合に撮像される実際の画像に近づけて、運転者に違和感を与えることを一層緩和することができる。
また、前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第2の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする。
かかる本発明によれば、前記車両挙動検出手段により検出される前記車両の挙動に応じて、前記第1の推定画像と前記第2の推定画像との合成画像における前記第2の推定画像の位置を、前記車両の挙動に応じて変更することによって、前記擬似画像を、前記撮像手段による撮像が可能な場合に撮像される実際の画像に近づけて、運転者に違和感を与えることを一層緩和することができる。
また、前記撮像手段に設けられたシャッターを閉じた状態として、前記撮像手段のキャリブレーションを行うキャリブレーション手段を備え、前記擬似画像表示手段は、前記撮像手段のキャリブレーションの実行により前記撮像手段による撮像が不能となったときに、前記擬似画像を生成して前記表示手段に表示することを特徴とする。
かかる本発明によれば、前記キャリブレーション手段により前記撮像手段のキャリブレーションが実行されている間も、前記擬似画像表示手段により前記擬似画像が生成されて前記表示手段に表示される。そのため、前記撮像手段のキャリブレーションの実行中に、前記表示手段に表示される画像がフリーズした状態となって、運転者に違和感を与えることを緩和することができる。
本発明の実施の形態について、図1〜7を参照して説明する。図1は本発明の車両の運転支援装置の構成図であり、本発明の車両の運転支援装置は、画像処理ユニット1を用いて構成されている。画像処理ユニット1には、遠赤外線を検出可能な赤外線カメラ2R,2L(本発明の撮像手段に相当する)、車両のヨーレートを検出するヨーレートセンサ3(本発明の車両挙動検出手段に相当する)、車両の走行速度を検出する車速センサ4(本発明の車速検出手段に相当する)、運転者によるブレーキの操作量を検出するブレーキセンサ5、運転者によるステアリングホイールの操舵角を検出する操舵角センサ6(本発明の車両挙動検出手段に相当する)、車両のピッチ角度を検出するピッチ角センサ7(本発明の車両挙動検出手段に相当する)、音声により注意喚起を行うためのスピーカ8、及び、赤外線カメラ2R,2Lにより得られた画像を表示すると共に、接触の可能性が高い対象物を運転者に視認させる表示を行うための表示装置9(本発明の表示手段に相当する)が接続されている。
図2を参照して、赤外線カメラ2R,2Lは、車両10の前部に、車両10の車幅方向の中心部に対してほぼ対象な位置に配置され、2台の赤外線カメラ2R,2Lの光軸を互いに平行とし、各赤外線カメラ2R,2Lの路面からの高さを等しくして固定されている。なお、赤外線カメラ2R,2Lは、撮像物の温度が高い程出力レベルが高くなる(輝度が大きくなる)特性を有している。赤外線カメラ2Rには、撮像素子への入光を遮断するためのシャッター30Rが設けられており、同様に、赤外線カメラ2Lにはシャッター30Lが設けられている。また、表示装置7は、車両10のフロントウィンドウの運転者側の前方位置に画面7aが表示されるように設けられている。
また、図1を参照して、画像処理ユニット1は、マイクロコンピュータ(図示しない)等により構成された電子ユニットであり、赤外線カメラ2R,2Lから出力されるアナログの映像信号をデジタルデータに変換して画像メモリ28に取り込み、画像メモリ28に取り込んだ車両前方の画像に対して該マイクロコンピュータにより各種演算処理を行う機能を有している。
そして、該マイクロコンピュータに、車両の運転支援用プログラムを実行させることによって、該マイクロコンピュータが、赤外線カメラ2Rにより撮像された画像から、実空間上の対象物の画像部分を抽出する対象物抽出手段20、赤外線カメラ2Lにより撮像された画像から、対象物の画像部分と相関性を有する画像部分を抽出する対応画像抽出手段21、対象物抽出手段20により抽出された対象物の画像部分と対応画像抽出手段21により抽出された画像部分との視差を算出する視差算出手段22、視差算出手段22により算出された視差に基づいて対象物と車両10間の距離を算出する距離算出手段23、対象物と車両10間の相対速度を算出する相対速度算出手段24、赤外線カメラ2R,2Lによる撮像が不能となったときに擬似画像を生成して表示装置9に表示する擬似画像表示手段25、赤外線カメラ2R,2Lのキャリブレーションを行うキャリブレーション手段26、及び、車両10と対象物との接触可能性を判定する接触判定手段27として機能する。
そして、このように画像処理ユニット1により構成される対象物抽出手段20、相対速度算出手段24、擬似画像表示手段25、及びキャリブレーション手段26と、画像メモリ28と、ヨーレートセンサ3と、車速センサ4と、操舵角センサ6と、ピッチ角センサ7とにより、本発明の車両の運転支援装置が構成されている。
ここで、赤外線カメラ2R,2Lの撮像素子は温度等により感度特性が変化するため、定期的に撮像素子の感度を再設定するキャリブレーションを行うことで、より良好な画像を得ることができる。そして、キャリブレーション手段26は、赤外線カメラ2R,2Lのシャッター30R,30Lを閉じて撮像素子への入光が遮断された状態とし、この状態で撮像した画像の輝度が一定となるように撮像素子の感度を設定して、キャリブレーションを行う。
また、キャリブレーションは、撮像素子の感度特性だけでなく、赤外線カメラ2R,2L(左右のステレオカメラ)のパン角誤差についても、例えば、赤外線カメラ2R,2Lからの距離が既知である対象物を基準とした補正等により、行うことができる。
このように、キャリブレーションは赤外線カメラ2R,2Lのシャッターを閉じて行われるため、キャリブレーションの実行中は、赤外線カメラ2R,2Lにより車両10の前方を撮像することが不能となる。また、画像処理ユニット1と赤外線カメラ2R,2L間の映像同期信号の入出力が途切れたときにも、赤外線カメラ2R,2Lにより車両10の前方を撮像することが不能となる。
そこで、画像処理ユニット1は、赤外線カメラ2R,2Lによる撮像が可能であるか否かを判断する。そして、画像処理ユニット1は、赤外線カメラ2R,2Lによる撮像が可能であるときは、図3に示したフローチャートに従って、赤外線カメラ2R,2Lにより撮像された画像に基づく車両10の周辺の監視処理を実行する。
一方、赤外線カメラ2R,2Lによる撮像が不能であるときには、画像処理ユニットは、図4〜図5に示したフローチャートに従って、擬似画像を生成して表示装置9に表示する処理を実行する。
先ず、図3に示したフローチャートに従って、画像処理ユニット1による車両10の周辺の監視処理について説明する。
画像処理ユニット1は、STEP1で、赤外線カメラ2R,2Lから出力される赤外線画像のアナログ信号を入力し、続くSTEP2で該アナログ信号をA/D変換によりデジタル化したグレースケール画像を画像メモリ28に保持する。
なお、STEP1〜STEP2では、赤外線カメラ2Rによるグレースケール画像(以下、右画像という。)と、赤外線カメラ2Lによるグレースケール画像(以下、左画像という。)とが取得される。そして、右画像と左画像では、同一の対象物の画像部分の水平位置にずれ(視差)が生じるため、この視差に基づいて実空間における車両10から該対象物までの距離を算出することができる。
続くSTEP3で、画像処理ユニット1は、右画像を基準画像として2値化処理(輝度が閾値以上の画素を「1(白)」とし、該閾値よりも小さい画素を「0(黒)」とする処理)を行って2値画像を生成する。次のSTEP4〜STEP6は、対象物抽出手段20による処理である。
対象物抽出手段20は、STEP4で、2値画像に含まれる各白領域の画像部分をランレングスデータ(2値画像のx(水平)方向に連続する白の画素のラインのデータ)化する。また、対象物抽出手段20は、STEP5で、2値画像のy(垂直)方向に重なる部分があるラインを一つの画像部分としてラベリングし、STEP6で、ラベリングした画像部分を監視対象物の画像候補として抽出する。
次のSTEP7で、画像処理ユニット1は、各画像候補の重心G、面積S、及び外接四角形の縦横比ASPECTを算出する。なお、具体的な算出方法については、前掲した特開2001−6096号公報に詳説されているので、ここでは説明を省略する。そして、画像処理ユニット1は、続くSTEP8〜STEP9と、STEP20〜STEP22を平行して実行する。
STEP8で、画像処理ユニット1は、所定のサンプリング周期毎に赤外線カメラ2R,2Lにより撮像された画像に基づく2値画像から抽出された画像部分について、同一性判定を行い、同一の対象物の画像であると判定された画像部分の位置(重心位置)の時系列データをメモリに格納する(時刻間追跡)。また、STEP9で、画像処理ユニット1は、車速センサ4により検出される車速VCAR及びヨーレートセンサ3により検出されるヨーレートYRを読み込み、ヨーレートYRを時間積分することにより、車両10の回頭角θrを算出する。
また、STEP20〜STEP21は対応画像抽出手段21による処理である。対応画像抽出手段21は、STEP20で、対象物抽出手段20により抽出された監視対象物の画像候補の中の一つを選択して、右画像のグレースケール画像から対応する探索画像a(選択された候補画像の外接四角形で囲まれる領域全体の画像)を抽出する。続くSTEP21で、対応画像抽出手段20は、左画像のグレースケール画像から探索画像に対応する画像を探索する探索領域を設定し、探索画像との相間演算を実行して対応画像を抽出する。
続くSTEP22は、視差算出手段22による処理である。視差算出手段22は、探索画像の重心位置と対応画像の重心位置との差を視差dxとして算出し、STEP10に進む。
STEP10で、画像処理ユニット1は、探索画像及び対応画像に対応する実空間上の対象物と車両10との距離zを、以下の式(1)により算出する「距離算出処理」を実行する。
但し、z:対象物と車両10との距離、f:赤外線カメラ2R,2Lの焦点距離、p:赤外線カメラ2R,2Lの画素ピッチ、D:赤外線カメラ2R,2Lの基線長、dx:視差。
続くSTEP11〜STEP15及びSTEP30は、接触判定手段27による処理である。STEP11で、接触判定手段27は、探索画像30aの座標(x,y)とSTEP10で算出された対象物と車両10との距離zを、実空間座標(X,Y,Z)に変換して、探索画像10aに対応する実空間上の対象物の位置の座標を算出する。なお、実空間座標(X,Y,Z)は、図2に示したように、赤外線カメラ2R,2Lの取り付け位置の中点の位置を原点0として、Xを車両10の車幅方向、Yを鉛直方向、Zを車両10の前方向に設定されている。また、画像座標は、画像の中心を原点とし、水平方向がx、垂直方向がyに設定されている。
次のSTEP12で、接触判定手段27は、車両10が回頭することによる画像上の位置ずれを補正するための回頭角補正を行う。また、STEP13で、接触判定手段27は、所定のモニタ期間内で撮像された複数の画像から得られた回頭角補正後の同一の対象物の実空間位置の時系列データから、対象物と車両10との相対的な移動ベクトルを算出する。
なお、対象物の実空間座標(X,Y,Z)及び移動ベクトルの具体的な算出方法については、前掲した特開2001−6096号公報に詳説されているので、ここでは説明を省略する。
次に、STEP14で、接触判定手段27は、車両10と対象物との接触可能性を判断して、注意喚起を行う必要があるか否かを判定する「注意喚起判定処理」を実行する。そして、「注意喚起判定処理」により、注意喚起を行う必要があると判定されたときは、STEP30に分岐してブザー8による注意喚起音の出力と、表示装置9への注意喚起表示を行う。一方、「注意喚起判定処理」により注意喚起を行う必要がないと判定されたときにはSTEP1に戻り、画像処理ユニット1は注意喚起を行わない。
画像処理ユニット1は、「注意喚起判定処理」において、対象物が余裕時間内に自車両10と接触する可能性、対象物が自車両周囲に設定した接近判定領域内に存在するか否か、対象物が接近判定領域外から接近判定領域内に進入して自車両10と接触する可能性、対象物が歩行者であるか否か、対象物が人工構造物であるか否か等を判定して、注意喚起を行う必要があるか否かを判定する。
なお、「注意喚起判定処理」の具体的な処理内容については、前掲した特開2001−6069に「警報判定処理」として詳説されているので、ここでは説明を省略する。また、注意喚起表示としては、例えば、表示装置9に表示されている車両10の前方の画像において、対象物の画像部分の輝度を高くして強調する表示を行う。
次に、図4〜図5に示したフローチャートに従って、画像処理ユニット1による擬似画像を生成して表示装置9に表示する処理について説明する。
画像処理ユニット1は、STEP40で、画像メモリ28に保持された最新の画像データを読み出す。なお、画像メモリ28には、現在から過去にさかのぼる数10フレーム分の画像データを保持するようにしてもよく、赤外線カメラ2R,2Lにより撮像がなされた時に、最新の画像データを上書きして1フレーム分の画像データを保持するようにしてもよい。
続くSTEP41で、画像処理ユニット1は、車速センサ4により検出された車両10の走行速度VCAR、ヨーレートセンサ3により検出された車両10のヨーレートYR、操舵角センサにより検出された車両10のステアリングホールの操作角度SA、ピッチ角センサ7により検出された車両10のピッチ角度PRを入力する。
続くSTEP42で、画像処理ユニット1は、STEP40で読み出した画像データについて、上述した図3のSTEP11で算出された対象物の実空間位置(横位置X,高さY,距離Z)のデータを読み出し、STEP43でフレームカウンタFctを0とする。フレームカウンタFctは、表示する擬似画像のフレーム数を管理するためのものである。
次のSTEP44で、画像処理ユニット1は対象物が車両10の前方を走行する車両(以下、前方車両という)であるか否かを判断する。画像処理ユニット1は、対象物の実空間位置(横位置X,高さY,距離Z)が、予め設定された判定基準範囲内にあるときに、対象物が前方車両であると判断する。そして、対象物が前方車両であるときはSTEP45〜STEP48の処理を実行し、対象物が前方車両でないときにはSTEP49に分岐する。
なお、前方車両であるか否かの他の判断基準として、例えば、歩行者検出における車両除外処理で、車両であると認識されたときに、対象物は前方車両であると判断するようにしてもよい。
STEP45で、画像処理ユニット1はフレームカウンタFctをインクリメントし、STEP46で、前方車両と判断された対象物が複数ある場合に、車両10からの距離が最も近い対象物を抽出する。次のSTEP47は、相対速度算出手段24による処理であり、相対速度算出手段24は、車両10の走行速度と対象物の時間あたりの距離変化量から、車両10と対象物との相対速度を算出する。
続くSTEP48〜図5のSTEP52及びSTEP60は、擬似画像表示手段25による処理である。擬似画像表示手段25は、STEP48で対象物の画像部分に対する拡大縮小率αを、相対速度が正(車両10に対象物が接近する状態)であるときは拡大縮小率αを拡大設定(1<α)とし、相対速度が負(車両10から対象物が遠ざかる状態)であるときは拡大縮小率αを縮小設定(α<1)とする。
また、次のSTEP49で、擬似画像表示手段25は、通常、大半の運転者が運転する際に前方を見ている距離(前方注視距離)を一定距離Zcと規定し、この一定距離Zcと車両の走行速度から拡大縮小率βを決定する。車両10が前方に走行していれば、拡大縮小率βは拡大設定(1<β)となる。
続く図5のSTEP50で、擬似画像表示手段25は、図4のSTEP41で入力した車速VCAR,ヨーレートYR,操舵角SA,ピッチ角PAから、車両10の挙動による画像位置の補正が必要か否かを判断する。そして、画像位置の補正が必要なときはSTEP51に進み、画像位置の補正が必要でないときにはSTEP60に分岐する。
図6を参照して、擬似画像表示手段25は、STEP51で、画像メモリ28に保持された画像データIm_0の対象物の画像部分(OBJ1)を拡大縮小倍率αで拡大又は縮小した画像(本発明の第1の推定画像に相当する)と、対象物の画像部分(OBJ1)以外の背景画像を拡大縮小倍率βで拡大した画像(本発明の第2の推定画像に相当する)との合成画像Im_1を生成する。
また、擬似画像表示手段25は、ヨーレートYR及び操舵角SAから、車両10の左右方向への向きの変化が観測されたときは、該左右方向への向きの変化の大きさに応じて合成画像Im_1の表示装置9に表示する範囲Dm0を左右方向に移動させる補正を行う。例えば、図7を参照して、右方向への変化(右旋回)が観測されたときは、合成画像Im_1の表示装置9に表示する範囲Dm0を、右方向への変化の大きさに応じたΔhだけ移動させた範囲Dm1を、表示装置9に表示する擬似画像とする。
また、擬似画像表示手段25は、ピッチ角PAから、車両10の上下方向への向きの変化が観測されたときは、該上下方向への向きの向きの変化の大きさに応じて、合成画像Im_1の表示装置9に表示する範囲Dm0を上下方向に移動させる補正を行う。例えば、図7を参照して、上方向への変化(登坂)が観測されたときは、合成画像Im_1の表示装置9に表示する範囲Dm0を、上方向への変化の大きさに応じたΔvだけ移動させた範囲Dm2を、表示装置9に表示する擬似画像とする。
そして、擬似画像表示手段25は、このようにして生成した擬似画像のデータを画像メモリ28に保持すると共に、擬似画像を表示装置9に表示する。一方、車両挙動による補正が必要ないと判断されたときには、STEP60で、上述した拡大縮小倍率αとβを用いた合成画像Im_0が作成され、合成画像Im_0に対する位置の補正は行われずに、合成画像Im_0がそのまま擬似画像となる。
そして、擬似画像表示手段25は、続くSTEP52でフレームカウンタFctが予め設定されたフレーム数N以上となるまで、STEP50〜STEP51及びSTEP60の処理を繰り返し実行して、擬似画像を生成・更新する。
これにより、キャリブレーション手段26による赤外線カメラ2R,2Lのキャリブレーションが実行された場合のように、赤外線カメラ2R,2Lによる撮像が不能な状況下でも、表示装置9には時間の経過に応じて変化する擬似画像が表示される。そのため、表示装置9に表示される画像がフリーズ状態となって、運転者に違和感を与えることを緩和することができる。
次に、STEP52でフレームカウンタFctがN以上となったときにSTEP53に進み、画像処理ユニット1は、映像同期信号が入力された状態に復帰しているか否かを判断する。そして、映像同期信号が入力された状態に復帰しているときは、赤外線カメラ2R,2Lによる撮像が可能であるため、画像処理ユニット1は図3のフローチャートによる監視処理を実行する。
また、STEP53で、映像同期信号が復帰していなかったときには、赤外線カメラ2R,2Lの故障や、画像処理ユニット1の映像信号入力部の故障が生じていると考えられる。そのため、この場合はSTEP54に進み、画像処理ユニット1は表示装置9にエラー表示を行う。
なお、本実施の形態では、対象物の画像部分を拡大縮小倍率αで拡大又は縮小し、対象物の画像部分以外の背景画像を拡大率βで拡大して、擬似画像を生成したが、対象物の画像部分と背景画像を、同一の拡大縮小倍率で拡大又は縮小するようにしてもよい。
また、本実施の形態では、ヨーレートセンサ、舵角センサ、及びピッチ角センサにより車両の挙動変化を検出し、車両の挙動に応じて擬似画像における対象物の位置及び背景画像の位置を補正する処理を行ったが、この処理を行わない場合にも本発明の効果を得ることができる。
また、本実施の形態においては、本発明の撮像手段として赤外線カメラ2R,2Lを用いたが、可視画像を撮像する可視カメラを用いてもよい。
また、2台の赤外線カメラ2R,2Lによるステレオカメラの構成ではなく、単眼カメラによる構成に対しても、本発明の適用が可能である。この場合には、自車両から対象物までの距離は、少なくとも2つの異なる時点で撮像した画像間における統一の対象物の画像部分の大きさの変化と、自車両の走行速度等に基づいて算出することができる。
また、本実施の形態においては、キャリブレーション手段26により、赤外線カメラ2R,2Lのシャッターを閉じてキャリブレーションを行うものを示したが、キャリブレーションを行わない場合でも、何らかの要因により撮像手段による撮像が不能となるおそれがあれば、本発明の効果を得ることができる。
なお、本実施の形態においては、前走車を検出対象としたが、他の検出対象として、例えば自車両への接近速度が速い車両等、接触可能性が高いと想定される対象物を検出対象としてもよい。
本発明の車両の運転支援装置の構成図。 図1に示した車両の運転支援装置の車両への取り付け態様の説明図。 赤外線カメラによる撮像が可能である場合の画像処理ユニットにおける処理手順を示したフローチャート。 赤外線カメラによる撮像が不能である場合の画像処理ユニットにおける処理手順を示したフローチャート。 赤外線カメラによる撮像が不能である場合の画像処理ユニットにおける処理手順を示したフローチャート。 画像メモリに保持された画像データに基いて、擬似画像を生成する処理の説明図。 車両の挙動に基づいて、擬似画像を生成する処理の説明図。
符号の説明
1…画像処理ユニット、2R,2L…赤外線カメラ、3…ヨーレートセンサ、4…車速センサ、5…ブレーキセンサ、6…操舵角センサ、7…ピッチ角センサ、8…スピーカ、9…表示装置、20…対象物抽出手段、21…対応画像抽出手段、22…視差算出手段、23…距離算出手段、24…相対速度算出手段、25…擬似画像表示手段、26…キャリブレーション手段、27…接触判定手段、28…画像メモリ

Claims (5)

  1. 車両に搭載された撮像手段により撮像された車両周辺の画像を、該車両に搭載された表示手段に表示する車両の運転支援装置において、
    前記撮像手段により撮像された画像のデータを保持する画像メモリと、
    前記撮像手段により撮像された画像から、実空間上の対象物の画像部分を抽出する対象物画像抽出手段と、
    前記対象物画像抽出手段により抽出された画像部分に対応する実空間上の対象物と、前記車両との相対速度を算出する相対速度算出手段と、
    前記撮像手段による撮像が不能となったときに、前記画像メモリに保持された過去の画像のデータと、前記相対速度算出手段により算出された相対速度とに基づいて、前記撮像手段による撮像が不能な期間における前記対象物の画像部分の変化を推定して表した擬似画像を生成し、該擬似画像を前記表示手段に表示する擬似画像表示手段とを備えたことを特徴とする車両の運転支援装置。
  2. 請求項1記載の車両の運転支援装置において、
    前記車両の走行速度を検出する車速検出手段を備え、
    前記擬似画像表示手段は、前記画像メモリに保持された過去の画像のデータのうち、対象物の画像部分を前記相対速度算出手段により算出された相対速度に基づいて拡大又は縮小した第1の推定画像と、対象物の画像部分以外の背景画像の変化を前記車速検出手段により検出された前記車両の走行速度に基づいて拡大又は縮小した第2の推定画像とを合成して、前記擬似画像を生成することを特徴とする車両の運転支援装置。
  3. 請求項1又は請求項2記載の車両の運転支援装置において、
    前記車両の水平方向の変化と鉛直方向の変化とのうちの少なくともいずれか一方を、前記車両の挙動として検出する車両挙動検出手段を備え、
    前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第1の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする車両の運転支援装置。
  4. 請求項3記載の車両の運転支援装置において、
    前記擬似画像表示手段は、前記第1の推定画像と前記第2の推定画像との合成画像における前記第2の推定画像の位置を、前記車両挙動検出手段により検出された前記車両の挙動に基づいて変更して、前記擬似画像を生成することを特徴とする車両の運転支援装置。
  5. 請求項1から請求項4のうちいずれか1項記載の車両の運転支援装置において、
    前記撮像手段に設けられたシャッターを閉じた状態として、前記撮像手段のキャリブレーションを行うキャリブレーション手段を備え、
    前記擬似画像表示手段は、前記撮像手段のキャリブレーションの実行により前記撮像手段による撮像が不能となったときに、前記擬似画像を生成して前記表示手段に表示することを特徴とする車両の運転支援装置。
JP2008278719A 2008-10-29 2008-10-29 車両の運転支援装置 Expired - Fee Related JP5004923B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008278719A JP5004923B2 (ja) 2008-10-29 2008-10-29 車両の運転支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008278719A JP5004923B2 (ja) 2008-10-29 2008-10-29 車両の運転支援装置

Publications (2)

Publication Number Publication Date
JP2010108182A true JP2010108182A (ja) 2010-05-13
JP5004923B2 JP5004923B2 (ja) 2012-08-22

Family

ID=42297583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008278719A Expired - Fee Related JP5004923B2 (ja) 2008-10-29 2008-10-29 車両の運転支援装置

Country Status (1)

Country Link
JP (1) JP5004923B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120021445A (ko) * 2010-07-30 2012-03-09 (주)엠아이웨어 선행 차량 차간 거리 산출 방법
JP2015123899A (ja) * 2013-12-26 2015-07-06 トヨタ自動車株式会社 車両周辺状況推定装置
CN110509873A (zh) * 2019-09-27 2019-11-29 京东方科技集团股份有限公司 倒车影像辅助装置及方法、倒车影像
WO2021145347A1 (ja) * 2020-01-15 2021-07-22 Dmg森精機株式会社 画像処理装置、工作機及び画像処理方法
US11663469B2 (en) 2019-08-30 2023-05-30 Lg Electronics Inc. Artificial device and method for controlling the same

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282655A (ja) * 1993-03-30 1994-10-07 Toyota Motor Corp 移動体認識装置
JP2003244688A (ja) * 2001-12-12 2003-08-29 Equos Research Co Ltd 車両の画像処理装置
JP2006252389A (ja) * 2005-03-14 2006-09-21 Aisin Seiki Co Ltd 周辺監視装置
JP2007074326A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 運転支援装置
JP2007336288A (ja) * 2006-06-15 2007-12-27 Sumitomo Electric Ind Ltd 障害物検出システム及び障害物検出方法
JP2008097126A (ja) * 2006-10-06 2008-04-24 Aisin Seiki Co Ltd 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP2008151708A (ja) * 2006-12-19 2008-07-03 Sumitomo Electric Ind Ltd 表示装置、表示システム及び表示方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06282655A (ja) * 1993-03-30 1994-10-07 Toyota Motor Corp 移動体認識装置
JP2003244688A (ja) * 2001-12-12 2003-08-29 Equos Research Co Ltd 車両の画像処理装置
JP2006252389A (ja) * 2005-03-14 2006-09-21 Aisin Seiki Co Ltd 周辺監視装置
JP2007074326A (ja) * 2005-09-07 2007-03-22 Hitachi Ltd 運転支援装置
JP2007336288A (ja) * 2006-06-15 2007-12-27 Sumitomo Electric Ind Ltd 障害物検出システム及び障害物検出方法
JP2008097126A (ja) * 2006-10-06 2008-04-24 Aisin Seiki Co Ltd 移動物体認識装置、移動物体認識方法及びコンピュータプログラム
JP2008151708A (ja) * 2006-12-19 2008-07-03 Sumitomo Electric Ind Ltd 表示装置、表示システム及び表示方法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120021445A (ko) * 2010-07-30 2012-03-09 (주)엠아이웨어 선행 차량 차간 거리 산출 방법
KR101722258B1 (ko) 2010-07-30 2017-04-10 (주)엠아이웨어 선행 차량 차간 거리 산출 방법
JP2015123899A (ja) * 2013-12-26 2015-07-06 トヨタ自動車株式会社 車両周辺状況推定装置
US11663469B2 (en) 2019-08-30 2023-05-30 Lg Electronics Inc. Artificial device and method for controlling the same
CN110509873A (zh) * 2019-09-27 2019-11-29 京东方科技集团股份有限公司 倒车影像辅助装置及方法、倒车影像
WO2021145347A1 (ja) * 2020-01-15 2021-07-22 Dmg森精機株式会社 画像処理装置、工作機及び画像処理方法
JP2021109298A (ja) * 2020-01-15 2021-08-02 Dmg森精機株式会社 画像処理装置、工作機及び画像処理方法
CN115003452A (zh) * 2020-01-15 2022-09-02 Dmg森精机株式会社 图像处理装置、机床及图像处理方法

Also Published As

Publication number Publication date
JP5004923B2 (ja) 2012-08-22

Similar Documents

Publication Publication Date Title
JP4631096B2 (ja) 車両周辺監視装置
JP4733756B2 (ja) 車両周辺監視装置
JP5706874B2 (ja) 車両の周辺監視装置
JP5258977B2 (ja) 対象物距離測定装置及び当該装置が搭載された車両
JP5437855B2 (ja) 障害物検知装置およびそれを備えた障害物検知システム、並びに障害物検知方法
EP2544449B1 (en) Vehicle perimeter monitoring device
WO2011108218A1 (ja) 車両の周辺監視装置
JP5687702B2 (ja) 車両周辺監視装置
WO2010047054A1 (ja) 車両の周辺監視装置
JP4528283B2 (ja) 車両周辺監視装置
JP2003134508A (ja) 車両用情報提供装置
JP2010146494A (ja) 車両周辺監視装置
JP5004923B2 (ja) 車両の運転支援装置
JP4864953B2 (ja) 車両周辺監視装置
JP5291524B2 (ja) 車両周辺監視装置
JP6087240B2 (ja) 車両周辺監視装置
JP4176558B2 (ja) 車両周辺表示装置
JP2012053663A (ja) 物体種別判定装置
JP2008042759A (ja) 画像処理装置
JP5399887B2 (ja) 車両周辺監視装置
JP5430213B2 (ja) 車両周辺監視装置
JP2008040724A (ja) 画像処理装置、及び画像処理方法
JP5904927B2 (ja) 車両用周辺監視装置
JP4975776B2 (ja) 車両周辺監視装置
JP5602354B2 (ja) 車両周辺監視装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101125

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120221

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120522

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150601

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees